Sei sulla pagina 1di 48

Capitolo 1- Aspetti Generali

CONTESTI DELLA SCIENZA


La ricerca scientifica, anche in campo psicologico, influenza diversi contesti, e può intervenire sia a livello
individuale che di famiglia e sociale.
Innanzitutto il contesto storico in cui ci si trova permette di svolgere delle ricerche piuttosto che altre: per
esempio a fine 800, quando nacque la vera e proprie psicologia sperimentale, le ricerche si interessavano
principalmente di studiare il funzionamento della mente in termini di tempi di reazione e di comprensione del
sistema nervoso, in modo da portare la psicologia al pari delle altre scienze come fisica e chimica; infatti alcuni
ritenevano che la psicologia fosse una pseudoscienza → nacquero quindi i primi metodi empirici di ricerca, che si
basano sull’osservazione diretta del fenomeno e sulle prime sperimentazioni attraverso quesiti.
Il continuo miglioramento della tecnologia permise poi il neuroimaging, utile a promuovere la neuroscienza nei
campi della psicologia e della biologia.
Il contesto culturale e sociale invece influenza ed è a sua volta influenzato dalla ricerca: può quindi variare ciò
che trattano le ricerche, le risorse disponibile e l’accettazione all’interno della società. I valori sociali e culturali
quindi portano a influenzare la reazione delle persone di fronte a una ricerca, che posso essere anche molto
critiche.
Il problema può presentarsi anche quando si verifica l’etnocentrismo → rischio di distorsione della ricerca
quando si applicano i risultati ottenuti in una determinata società ad un’altra che invece è diversa.
Il contesto etico invece permette che vengano assicurate delle linee guida durante la ricerca: non vengono
permessi il plagio, la falsificazione dei dati, il mancato riconoscimento di chi ha contribuito alla ricerca.

Capitolo 2- Metodo scientifico


PENSARE COME UN RICERCATORE
Significa essere scettico per quel che riguarda le affermazioni sulle cause del comportamento e sui processi mentali, anche
se basate su risultati scientifici pubblicati. Le prove più solide per un’affermazione sul comportamento vengono da risultati
convergenti di molti studi, sebbene gli scienziati riconoscano che le affermazioni sono sempre probabilistiche.
Essere scettici però non significa considerare ogni cosa come non vera: al contrario significa voler essere certi, attraverso
varie prove, che tale cosa sia effettivamente vera.
Allo stesso tempo infatti un ricercatore deve avere fiducia verso i propri strumenti, partecipanti, colleghi e risultati.

Iniziare una ricerca


I tre quesiti che i ricercatori devono porsi quando si comincia un progetto di ricerca sono i seguenti:
● che cosa dovrei studiare?
● come sviluppo un’ipotesi da verificare nella mia ricerca?
● Il mio quesito di ricerca è un buon quesito?
⮚ I livelli del metodo scientifico:
● Definizione del problema
● Formulazione di un’ipotesi
● Operazionalizzazione dei costrutti in variabili
● Predisposizione della metodologia
● Raccolta dei dati
● Elaborazione delle conclusioni
Prima di tutto bisogna esplorare la letteratura della ricerca psicologica, in particolar modo perché potrebbe già
esistere la risposta, anche solo parziale, e quindi il quesito è già stato esplorato. Bisogna poi identificare delle
pubblicazioni relative alla propria idea di ricerca, dalle cui letture possono emergere incongruenze o contraddizioni
con i risultati pubblicati. Una volta identificato un quesito, bisogna porsi alcune domande, per chiedersi se esso non
sia insignificante o banale; domande del tipo: qual è lo scopo di questo interrogativo? Rivestirebbe un’importanza
scientifica? Qualcuno sarebbe interessato ai risultati ottenuti?
Il passaggio successivo è l’ipotesi, ovvero il tentativo di spiegare un fenomeno.

LA PSICOLOGIA SCIENTIFICA
La psicologia sperimentale è una scienza simile a tutte le altre. Il suo oggetto di studio sono il comportamento e i
processi mentali.
Per ottenere informazioni su ciò possiamo usare:
⮚ Metodi non empirici: autorità, logica
● approccio generale: intuitivo
● atteggiamento: acritico, osservante
● osservazione: casuale, non controllata
● resoconto: distorto, soggettivo
● concetti: ambigui
● strumenti: inaccurati, imprecisi.
● Misure: non valide o inattendibili
● Ipotesi: non testabili
⮚ Metodi empirici: intuizione (senso comune), scienza
● approccio generale: empirico
● atteggiamento: critico, scettico
● osservazione: sistematica, controllata
● resoconto: obbiettivo
● concetti: definizioni chiare
● strumenti: accurati, precisi
● Misure: valide e attendibili
● Ipotesi: verificabili
Con METODO SCIENTIFICO si intende il modo in cui gli scienziati formulano i quesiti di ricerca e la logica dei metodi
usati per ottenere risposte, e ha come obbiettivo la ricerca della verità.

Caratteristiche del metodo:


• APPROCCIO GENERALE E ATTEGGIAMENTO: Importanza del pensiero scettico. I ricercatori valutano
criticamente le evidenze empiriche prima di accettare qualsiasi informazione. Il comune modo di pensare
invece considera vere delle affermazioni valutandole solo superficialmente. L’intuito non sempre conduce a
conclusioni corrette (esempio delle recensioni dei videogiochi). Nel confidare sul nostro intuito per esprimere
giudizi, spesso non riconosciamo che le nostre percezioni possono essere falsate da distorsioni cognitive, o che
forse non sono state prese in considerazione tutte le prove disponibili. Inoltre siamo molto più inclini a notare
eventi coerenti con le nostre credenze piuttosto che eventi che le contraddicano. L’approccio scientifico si
avvale dell’osservazione diretta e della sperimentazione. L’intuito ha un valore nelle prime fasi di definizione,
ma le risposte vanno in fine cercate attraverso prove empiriche.
• CONCETTI: Nella scienza psicologica i concetti riguardano cose, eventi o relazioni tra cose e eventi, e vengono
definiti costrutti. Per dare uno specifico significato ad un costrutto i ricercatori lo definiscono operativamente
→ descrizione delle procedure seguite, adottate, da un ricercatore, facilitando la comunicazione dei concetti
tra ricercatori e permettendo ad altri di eseguire nuovamente il nostro disegno sperimentale, in modo da
verificare o falsificare un’ipotesi. Una critica alle definizioni operative è che esse potrebbero non essere
comprensibili in contesti culturali differenti.
• OSSERVAZIONE: Si può imparare molto sul comportamento semplicemente osservando le azioni degli altri,
anche se spesso esse consistono in osservazioni casuali da cui traiamo conclusioni sbagliate (esempio del
cavallo Clever Hans: cavallo che secondo il proprietario era dotato di intelligenza e talento incredibili, come
fare calcoli, dire data e ora, fare le frazioni ecc… Infatti il cavallo rispondeva alle domande battendo lo zoccolo
o indicando col muso la risposta, e il proprietario negava di usare trucchetti. Gli scienziati però osservarono che
Hans non dimostrava tali abilità in due casi: quando non conosceva la risposta e quando non poteva guardare
l’interlocutore che gli poneva la domanda → infatti Hans rispondeva grazie ai movimenti impercettibili
dell’interlocutore). Questo dimostra l’importanza dell’osservazione scientifica, che a differenza di quella
casuale, è sistematica e controllata. Gli scienziati ottengono il più alto controllo quando conducono un
esperimento, in cui manipolano uno o più fattori e osservano gli effetti di questa manipolazione sul
comportamento. I fattori che il ricercatore controlla o manipola sono detti variabili indipendenti, che hanno
due livelli:
1. condizione sperimentale, in cui è presente il trattamento
2. condizione di controllo, in cui il trattamento è assente
Ogni v. indipendente ha almeno 2 LIVELLI controllati dallo sperimentatore.
Le misure del comportamento utilizzate per valutare l’eventuale effetto delle variabili indipendenti sono
chiamate variabili dipendenti. Gli scienziati cercano di determinare se eventuali differenze nella variabile
dipendente siano causate dalle diverse condizioni della variabile indipendente, attraverso l’uso di appropriate
tecniche di controllo.
• STRUMENTI: per misurare gli eventi dipendiamo dagli strumenti, che per essere attendibili devono essere:
1. ACCURATI: L’accuratezza si riferisce alla differenza tra ciò che uno strumento ci mostra per vero, e ciò che
sappiamo essere vero. L’accuratezza di uno strumento qualora manchi, la si ottiene calibrandolo.
2. PRECISI: Le misure possono essere fatte a diversi livelli di precisione.
• MISURAZIONE: Gli scienziati usano due tipi di misurazioni:
1. MISURA FISICA: comporta dimensioni per le quali esiste uno standard stabilito e uno strumento per attuare la
misurazione (lunghezza, peso, tempo…)
2. MISURA PSICOLOGICA: maggiormente usata in psicologia, basata su osservatori umani quali strumento, che si
accordano tra di loro nel fornire la misura psicologica (es. misurazione dell’aggressività).
Le misure devono essere valide e attendibili. La validità di una misura si riferisce alla capacità di un test di
misurare esattamente ciò che si propone di misurare, ed è legata alla qualità della ricerca stessa. L’attendibilità
è il grado di precisione di una procedura di misurazione, ossia quanto quel test produce punteggi coerenti e
stabili nel tempo. Si possono distinguere vari tipi di attendibilità e validità della misurazione che sono dette
proprietà psicometriche.
• IPOTESI: È il tentativo di spiegazione di qualcosa, cercano di rispondere alle domande “come” e “perché”.
Per certi aspetti un’ipotesi può semplicemente spiegare come sono associate delle variabili. Le variabili sono
una caratteristica, un attributo o una condizione di un oggetto/persona/evento che varia a seconda delle
situazioni o degli individui (esempio dei prodotti ecologici: altruismo e altruismo competitivo). Una
caratteristica che distingue le ipotesi casuali dalle ipotesi scientifiche è la verificabilità. Se non può essere
verificata, allora non è scientifica. Di sicuro non sono verificabili tre tipi di ipotesi:
1. CIRCOLARE: l’evento è usato per spiegare l’evento stesso (es. il bambino on si concentra a scuola perché ha
un disturbo di deficit dell’attenzione).
2. COSTRUTTI NON ADEGUATAMENTE DEFINITI: definire una persona “mentalmente disturbata” → non si può
sapere come le diverse persone interpretano in maniera soggettiva il termine mentalmente disturbato.
3. SI APPELLA A IDEE NON RICONOSCIUTE DALLA SCIENZA.
• RESOCONTO: Quando gli scienziati riportano le loro scoperte, cercano di separare ciò che hanno osservato
empiricamente da ciò che hanno concluso o inferito sulla base delle osservazioni. Nei resoconti scientifici i
ricercatori non devono trarre delle conclusioni troppo affrettate, e gli eventi andrebbero descritti con dettagli
sufficienti, senza includere minuzie inutili e insignificanti; devono dunque essere obiettivi.
FINALITÀ DEL METODO SCIENTIFICO
Il metodo scientifico ha quattro finalità:
1. DESCRIZIONE: I ricercatori definiscono, classificano, catalogano o categorizzano eventi e relazioni per
descrivere processi mentali e comportamenti. Per descrivere i fenomeni si usa l’approccio nomotetico, con cui si
stabiliscono ampie generalizzazioni e leggi generali da applicare a diverse popolazioni. Così facendo è possibile
descrivere il funzionamento “medio” o tipico di un gruppo. La descrizione media può o non può descrivere il
funzionamento di ogni singola persona del gruppo. Infatti riferendosi a questo genere di descrizioni non si parla
in maniera assoluta, ma si usano espressioni come “in genere”, “in media”… si cerca di enfatizzare le similitudini,
pur riconoscendo le differenze tra i singoli individui. Alcuni psicologi (es. Gordon Allport) ritengono che alcuni
non possano essere descritti da un valore medio, e si affidano dunque all’approccio idiografico, che si concentra
sulla persona piuttosto che sui gruppi, valorizzando l’unicità dell’individuo.
Un’altra decisione che un ricercatore deve prendere riguarda la scelta tra ricerca qualitativa e ricerca
quantitativa. La ricerca quantitativa si riferisce agli studi i cui risultati sono principalmente l’esito di analisi
statistiche. La ricerca qualitativa si riferisce agli studi i cui risultati si basano sull’analisi di materiale verbale,
derivante in genere da interviste e osservazioni. Di solito la ricerca psicologia è più nomotetica che idiografica, e
più quantitativa che qualitativa. La ricerca qualitativa viene per lo più usata per descrivere gruppi, individui o
movimenti sociali, in cui e fondamentale che i partecipanti alla ricerca descrivano le loro esperienze in modo
significativo per loro, al di fuori di categorie e dimensioni stabilite da teorici o ricerche precedenti (es: interviste
di Kidd e Kral, Toronto 2002, sulla prostituzione e sul suicidio).
2. PREDIZIONE: Quando i ricercatori identificano le correlazioni tra variabili, sono in grado di predire processi
mentali e comportamenti. È molto utile a fornire un supporto per il trattamento e la prevenzione di disturbi
emotivi. Quando i punteggi di una variabile possono essere usati per predire i punteggi di una seconda variabile,
esse sono correlate, ed esiste una correlazione quando due diverse misurazione effettuate sulle stesse persone
o eventi variano insieme: quando succede questo si dice che i punteggi covariano (es: stress e malattia).
È importante sottolineare che una predizione corretta non sempre dipende dal sapere perché esista una
relazione tra due variabili.
3. SPIEGAZIONE E COMPRENSIONE: I ricercatori comprendono un fenomeno quando riescono a identificarne la
causa (o le cause). A tal fine si conducono di norma degli esperimenti. La ricerca sperimentale differisce da
quella descrittiva e correlazionale per l’elevato livello di controllo che i ricercatori esercitano conducendo
l’esperimento. È dai risultati dell’esperimento che i ricercatori sono in grado di inferire le cause (variabili
indipendenti) del fenomeno (variabile dipendente), ovvero un’inferenza causale → per poter stabilire
un’inferenza causale è necessario che siano rispettate tre condizioni:
● COVARIAZIONE DEGLI EVENTI: se presumi che un evento sia la causa di un altro, i due eventi devono variare
insieme, devono quindi correlare.
● RELAZIONE TEMPORALE/CONTINGENZA: La causa presunta deve avvenire prima del presunto effetto.
● ELIMINAZIONE DI PLAUSIBILI CAUSE ALTERNATIVE: le cause degli eventi non posso essere identificate a
meno che non sia stata dimostrata la covariazione, ma ciò non basta; la spiegazione di un evento richiede
che la covariazione sia valutata in gruppi e situazioni differenti → spesso nel corso di esperimenti si verifica
la presenza di variabili confondenti: si presentano quando due variabili indipendenti, potenzialmente
influenti, covariano simultaneamente, rendendo impossibile quale delle due variabili indipendenti sia la
causa della variabile dipendente (esempio - ricerca che valuta effetti di apprendimento attivo e passivo: si
mettono i maschi in un gruppo e le femmine nell’altro, quindi ora le differenze di apprendimento tra i due
gruppi possono essere dovute alla variabile indipendente del metodo di insegnamento o alla variabile
confondente del genere dei due gruppi).
Data la complessità dei fenomeni, è possibile che altre variabili entrino in gioco. Le potenziali fonti di
variazione che non sono un diretto oggetto di studio della ricerca, ma potrebbero influenzare la variabile
dipendete direttamente o modulando l’effetto della variabile indipendente, sono dette variabili estranee. In
alcuni casi esse sono innocue, ma in altri possono confondere la relazione tra variabili indipendenti e
dipendenti, da cui il nome di variabili confondenti. L’effetto confondente delle variabili estranee può essere
di due tipi:
a. Variabile di disturbo: è una variabile che covaria con quella indipendente, ma ne è fondamentalmente
estranea. A volte derivano da errori metodologici nel campionamento dei partecipanti alla ricerca.
b. Variabile confusa: variabile che covaria con quella indipendente, ma è intrinseca ad essa o alla sua
operazionalizzazione. Sono solitamente il risultato di una inaccurata operazionalizzazione della variabile
indipendente.
Solitamente se tutti questi criteri vengono rispettati e la ricerca rispetta i tre punti citati, i risultati possono
essere generalizzabili ed estesi a persone diverse da quelle dell’esperimento.
4. APPLICAZIONE: Gli psicologi applicano le loro conoscenze e i loro metodi di ricerca per migliorare la vita delle
persone. La ricerca che ha come obbiettivo il cambiamento del comportamento delle persone prende il nome di
ricerca applicata. Invece una ricerca della conoscenza fine a se stessa è chiamata ricerca di base, ed è in genere
condotta in un ambiente di laboratorio con l’obbiettivo di verificare una teoria per comprendere un fenomeno.
Ricerca di base e ricerca applicata hanno in comune l’utilizzo delle teorie che indirizzano la ricerca e
l’applicazione nel mondo reale.

COSTRUZIONE E VERIFICA DI UNA TEORIA SCIENTIFICA


Le teorie sono le idee proposte per le cause dei fenomeni, e vengono proposte a partire da intuizioni e osservazioni.
Esse variano per le finalità e il livello di spiegazione che raggiungono.
Le principali caratteristiche delle teorie sono:
● DEFINIZIONE: una teoria è una serie di proposizioni (affermazioni, dichiarazioni, asserzioni) che servono a
definire gli eventi (concetti), descrivere relazioni tra questi e spiegarne il verificarsi.
● OBBIETTIVI: le teorie sono diverse per l’ampiezza degli eventi che cercano di spiegare; possono trattare
fenomeni molto specifici o più complessi.
● FUNZIONI: una teoria usa studi precedenti per strutturare la conoscenza empirica e suggerisce ipotesi
verificabili che indirizzano la ricerca futura.
Le buone teorie sono:
● LOGICHE: hanno un senso compiuto e le predizioni possono essere logicamente dedotte.
● PRECISE: le predizioni sul comportamento sono specifiche e non generali.
● PARSIMONIOSE: La spiegazione più semplice per un fenomeno è la migliore, in modo che tutti possano
comprendere di cosa si stia parlando.
Una teoria può essere sviluppata a livello fisiologico (per esempio rifacendosi a cause biologiche) o a livello
concettuale (rifacendosi a cause psicologiche).
Le teorie richiedono spesso che vengano ipotizzati dei fattori intervenienti per giustificare il comportamento
osservato. I fattori intervenienti sono quei processi o variabili che stabiliscono un collegamento tra le variabili
indipendenti e le variabili dipendenti misurate successivamente, e servono quindi a collegarle e a spiegare la loro
relazione (es. la variabile interveniente “sete” spiega la relazione tra variabile indipendente “ore di deprivazione di
liquidi” e la variabile dipendente “liquidi ingeriti”).
La differenza tra ipotesi e teoria è che l’ipotesi è un’idea provvisoria che deve ancora essere accertata, e che verrà
verificata.

● Fatto: osservazione oggettiva basata sull’osservazione diretta


● Legge: asserzione secondo cui certi eventi sono correlati
● Teoria: spiegazione di fatti e leggi esistenti; strumento di previsione per trarre nuovi fatti
● Ipotesi: previsione ancora da verificare su nuovi fatti
Meta-Analisi
Ricerca sulle ricerche di uno stesso argomento, permette così di confrontare i risultati di più studi.
Si basa sull’ applicazione di tecniche statistiche ai risultati di analisi statistiche di diverse ricerche, per vedere se gli
effetti riscontrati sono validi, affidabili, legati a caratteristiche particolari. Si sta gradualmente sostituendo alle
rassegne bibliografiche, cioè raccolte/riassunti di articoli di ricerca su un particolare argomento, che però permette
un confronto solo teorico, mentre la meta-analisi anche statistico.

Capitolo 3- Misurazione
MISURAZIONE IN PSICOLOGIA
Un costrutto, secondo la definizione di Pedon e Gnisci, è un concetto astratto che indica un complesso organizzato
della vita psichica non osservabile direttamente.
Per poter misurare un costrutto, bisogna fornire una definizione operativa del costrutto stesso. Non sempre la
definizione operativa e i costrutti di ricerca sono chiaramente definiti. Il processo di ricerca infatti presuppone di
partire dalle domande di ricerca e capire bene quali siano i costrutti che vengono analizzati in tali domande.
Il termine “costrutto” è un termine ombrello sotto cui possono essere raggruppati un’infinità di concetti psicologici
che possono essere studiati in una ricerca: questo termine è estremamente importante, perché permette agli
studiosi e ricercatori di comprendersi. Con questo termine non si chiede al ricercatore soltanto l’etichetta verbale
che designa il costrutto, ma anche il processo di connessione tra teoria e pratica di ricerca.
Un costrutto psicologico è qualcosa di insito nelle persone o nelle relazioni, che però si può misurare solo quando
diventa osservabile, cioè bisogna attendere l’insorgere di variabili che possano essere indicatori osservabili di tale
costrutto. Dunque dopo aver definito operativamente i costrutti, bisogna trovare le variabili che ci permettono di
poter osservare il costrutto. Il passaggio dal costrutto alle variabili è definito operazionalizzazione, che rende dei
concetti teorici osservabili oggettivamente allo stesso modo dei dati scientifici.

Operazionalizzazione
Operazionalizzare il costrutto significa individuare gli indicatori osservabili (variabili) che lo possono misurare,
attraverso cui si può mettere alla prova le ipotesi e le teorie dei ricercatori.
Tali indicatori possono essere di due tipi:
● INDICATORI RIFLETTIVI: indicatori che riflettono il costrutto, sono cioè manifestazioni osservabili dello stesso
costrutto (es: il sorriso è indicatore riflettivo del costrutto di felicità). Sono ‘effetto’ di un fattore comune e
quindi ci si deve aspettare siano correlati.
● INDICATORI FORMATIVI: indicatori osservabili che definiscono il costrutto stesso (es: l’indicatore formativo
perdita di lavoro definisce il costrutto stress in una persona). Il costrutto è il risultato della somma degli
indicatori, è quindi funzione di essi. Quindi l’assenza di un indicatore formativo ci impedisce di avere una
completa misura del costrutto.

STRUMENTI DELLA PSICOLOGIA


Una volta decisi gli indicatori osservabili per operazionalizzare il costrutto, bisogna capire come misurarli.
Gli strumenti che usiamo per misurare gli indicatori sono di diverso tipo, e dipendono dall’indicatore scelto.
È necessario fare delle riflessioni su quali informazioni è possibile raccogliere dai vari strumenti, così da evitare il
rischio di ottenere dati che non ci dicono molto sul costrutto che intendevamo misurare. In base allo strumento
usato cambia il processo di misurazione.
Infatti tipologie di diversi strumenti forniscono dati di natura diversa: essi possono essere sotto forma di numeri, o
essere materiale visivo o verbale.
Si possono misurare i costrutti sia in modo quantitativo (es. scale di misura), che in modo qualitativo (es. interviste).
Scale di misura
Quando i ricercatori decidono di misurare e quantificare comportamenti specifici, devono decidere quale scala di
misura utilizzare. Le scale di misura sono modi diversi per tradurre in numeri le caratteristiche che vengono
osservate, e diverse scale di misura portano a diverse analisi dei dati.
Ci sono quattro livelli di misurazione, o scale di misura, che si applicano sia a misure fisiche, sia a misure psicologiche:
● SCALA NOMINALE: consiste nella categorizzazione di un evento in uno dei numeri di categorie definite, cioè è
il tipo più semplice di scala perché assegna lo stesso valore numerico a eventi dello stesso tipo. Le uniche
operazioni aritmetiche che possiamo fare su dati nominali riguardano le relazioni “uguale” e “disuguale”, non vi
è uno zero assoluto né un’unità di misura. Un modo comune di sintetizzare i dati nominali è di riportare la
frequenza sotto forma di proporzione o percentuale di casi in ognuna delle diverse categorie.

1. Ripartizione dicotomica: E’ il più basso livello di classificazione e misura possibile: non esiste
classificazione se non si hanno almeno 2 categorie.
Per esempio affidi ad una categoria il valore di 1 e a tutte le altre il valore 0.

2. Ripartizione politomica: Ripartizione più precisa assegnando ad ogni


categoria un codice numerico diverso.
Anche in questo caso le cifre sono solo “etichette” e non hanno alcun
valore numerico.

Una variazione che si può effettuare è di sostituire il valore numerico con la percentuale,
purchè si mantengano le categorie differenziate: la percentuale permette di rappresentare la
quantità di soggetti/eventi assegnati a quella categoria.

● SCALA ORDINALE: classifica o ordina gli eventi che si vogliono misurare.


Possiamo solo contare quanti soggetti sono assegnati a ciascuna categoria e
trasformare il conteggio in percentuali, motivo per cui possiamo aggiungere le
relazioni aritmetiche “maggiore di” e “minore di” al processo di misura (es: il
risultato di una gara è una scala ordinale), tuttavia non sappiamo la distanza che
separa due eventi. I valori numerici vengono assegnati con una posizione ordinale
che dipende dalla variabile presa in considerazione. Assenza di zero assoluto e di unità di misura.
Persone con stessa caratteristica hanno stessa posizione gerarchica.
● SCALA A INTERVALLI EQUIVALENTI: è una scala in cui le differenze tra valori numerici hanno significato e
permettono di fare affermazioni quantitative sulla
grandezza delle differenze tra eventi. Richiede di specificare
quanto siano lontani due eventi in una data dimensione.
Su una scala a intervalli le differenze tra eventi classificati
non sono per fora uguali, quindi la differenza tra primo e
terzo e tra terzo e quinto potrebbe non essere la stessa.
Ciò che manca in una scala a intervalli equivalenti è un
punto zero significativo (es: nella temperatura, 0 gradi è
solo una temperatura molto bassa, ma non vuole dire
“totale assenza di calore”, al contrario per esempio della velocità, in cui 0 km/h è un punto zero significativo,
perché sta ad indicare “totale assenza di velocità”), e a causa dell’assenza dello 0 assoluto non si possono
effettuare rapporti diretti (B non è il doppio di A, poiché non si parte da uno 0); sono presenti invece le unità di
misura.
Si può invece fare un rapporto tra gli intervalli (le differenze) → l’intervallo tra A e D è il doppio che tra A e B.
Si possono effettuare operazioni di addizione /moltiplicazione /sottrazione /divisione. Le trasformazioni
devono preservare il significato delle differenze.

● SCALA A RAPPORTI EQUIVALENTI: ha le stesse proprietà di una scala a intervalli equivalenti, ma possiede
anche un punto zero assoluto.
Questo rende significativo il rapporto dei valori della scala (es: nei gradi celsius, mancano lo zero assoluto, non
ha senso dire che 100° C è il doppio di 50°C; ha invece senso nella scala Kelvin, che ha senso invece per tempo,
peso e distanza). Il punto 0 indica
un’assenza reale e totale di qualsiasi
proprietà, perciò è possibile fare rapporti
(100 doppio di 50). Moltiplicare o dividere
per una costante è l’unica trasformazione
possibile (altrimenti rapporto distorto).

Teorie sulla misurazione


Una volta decisa la scala di misura bisogna scegliere lo strumento di misurazione → due principali teorie sulla
misurazione: teoria classica dell’errore e teoria dei tratti latenti.
Queste teorie sono state formulate dagli studiosi per capire come costruire i test e come si possa interpretare un
punteggio ottenuto a un test attraverso una delle scale di misurazione.
Esse stabiliscono la corrispondenza empirica tra gli item di una scala e il costrutto psicologico che si ipotizza essi
misurino.
• TEORIA CLASSICA DELL’ERRORE: è la più utilizzata, proposta per la prima volta da Spearman → secondo tale
teoria c’è sempre un errore che determina la differenza tra il punteggio vero e quello ottenuto al test.
In altre parole misuriamo sempre in modo impreciso. Infatti il punteggio X riportato nel test è il risultato della
somma tra V (punteggio vero) e E (errore sistematico o casuale) → X = V + E
Due sono i tipi di errore che concorrono a determinare la quantità di errore nella misurazione:
1. Errore sistematico: è sempre lo stesso per tutte le possibili misurazioni e influenzerà allo stesso modo
tutti i punteggi osservati. Influenza dunque l’accuratezza della misura. Più lo strumento è costruito male,
più avremo uno scostamento costante del punteggio osservato da quello vero.
2. Errore casuale: varia in ogni misurazione, può essere dovuto a cause non controllabili. Ripetendo la
misurazione molte volte, gli errori si compenseranno → un assunto di base della teoria classica dell’errore
è proprio che, se si misura una certa caratteristica un numero infinito di volte, l’errore casuale tende a
zero. La distribuzione di tali punteggi osservati in numero infinito assume la forma di una campana, che
prende il nome di curva gaussiana, e la sua media corrisponde al punteggio vero.

La variazione di errore tra gli errori disposti sulla curva è chiamata deviazione standard, chiamata però in questo
contesto errore standard di misurazione.
La varianza di errore viene calcolata facendo il rapporto tra la sommatoria degli scarti dei punteggi osservati,
𝒔𝒐𝒎𝒎𝒂𝒕𝒐𝒓𝒊𝒂 𝒔𝒄𝒂𝒓𝒕𝒊 𝒑𝒖𝒏𝒕𝒆𝒈𝒈𝒊𝟐
elevata al quadrato, e il totale delle misurazioni → 𝒕𝒐𝒕𝒂𝒍𝒆 𝒎𝒊𝒔𝒖𝒓𝒂𝒛𝒊𝒐𝒏𝒊
Di conseguenza l’errore standard di valutazione si ottiene facendo la radice quadrata della varianza di errore
della misurazione → √𝒗𝒂𝒓𝒊𝒂𝒏𝒛𝒂 𝒅𝒊 𝒆𝒓𝒓𝒐𝒓𝒆

[Taratura di un test]
Per alcuni strumenti, quali i test psicologici, è opportuno effettuare la taratura su un campione normativo, in
modo da avere dei parametri per valutare le singole persone in rapporto ad una popolazione di riferimento. Un
gruppo normativo considerato è un gruppo tipico, i cui punteggi vengono confrontati con le persone alle quali
verrà successivamente somministrato il test. Infatti il punteggio ottenuto da una persona a un test assume un
significato solo se confrontato con il punteggio ottenuto dal gruppo normativo.
Il processo di taratura di un test consiste nei seguenti passaggi:
● identificare la popolazione di interesse (es. donna disoccupata di 40 anni)
● definire il campione più rappresentativo della popolazione e somministrare i test che ci interessano.
● calcolare gli indicatori statistici che descrivono i punteggi ottenuti ai test
● trasformare tali punteggi in punteggi standardizzati
● scrivere un report dettagliato di come somministrare il test, delle caratteristiche del gruppo normativo e di
come interpretare i punteggi.

• TEORIA DEI TRATTI LATENTI: L’idea sulla quale si basa questa teoria è quella di calcolare quale sia la probabilità
che una persona risponda correttamente ad un certo item. La probabilità di risposta corretta è data dal livello di
abilità del soggetto (es: se è bravo in matematica) e dalle caratteristiche della domanda o dell’item. Tale abilità
viene definita tratto latente. Comunque in ambito italiano tale teoria è poco utilizzata.

COME SI VALUTA LA MISURA


E’ importante la qualità della misurazione stessa.
Da un lato occorre minimizzare gli errori che sono presenti in ogni misurazione, dall’altro occorre essere sicuri che la
nostra definizione operativa rispecchi effettivamente il costrutto scelto. Siamo quindi interessati a:
• ATTENDIBILITA’: Riprendendo X = V + E, V rappresenta la parte attendibile del punteggio X → parte che
rappresenta il costrutto. Dunque una misurazione avrà un’attendibilità tanto più alta quando l’errore sarà
minimo e la varianza dei punteggi osservati sarà uguale alla varianza del punteggio vero, e quindi l’errore 0.
Un’altra definizione di attendibilità è quella di accordo tra misurazioni indipendenti dello stesso costrutto, che
sono ottenute dalla somministrazione dello stesso strumento a persone diverse, in tempi e luoghi diversi.
Quanto più tali misurazione convergono, tanto più diremo che lo strumento è attendibile, cioè che misurazioni
diverse dello stesso costrutto danno risultati simili. Quindi la convergenza delle misurazioni indipendenti dice
dell’attendibilità.
Ci sono vari modi per fornire un indicatore dell’attendibilità, detto coefficiente di attendibilità.
Solitamente si possono calcolare i seguenti coefficienti di attendibilità:
1. Metodi basati su una sola applicazione:
a. COEFFICIENTE DI ATTENDIBILITÀ SPLIT-HALF: Per calcolarlo occorre dividere a metà gli item di uno
strumento (es. item pari e item dispari). La correlazione tra i due punteggi totali delle due metà
rappresenta tale coefficiente (verificando che abbiano la stessa media e la stessa varianza).
Si basa sul calcolo di r di Pearson tra due serie di punteggi (le due metà).
Esempio: I seguenti dati si riferiscono ai punteggi ottenuti da 5 partecipanti, ad un test con 10 item:

La media e la varianza delle due metà non differiscono. Calcoliamo il coefficiente di correlazione per avere
una misura di attendibilità con il metodo split-half.
Siccome la vera lunghezza della scala è doppia rispetto a quella delle due metà, viene applicata una
correzione. La formula di Spearman-Brow: tale formula può essere utilizzata anche per stimare l’attendibilità
di un test se a questo venissero aggiunti n trial con caratteristiche simili a quelle dei trial presenti, oppure per
stimare quanto dovremmo allungare o accorciare il test per ottenere un’attendibilità prefissata. Es. abbiamo
un test composto da 10 item con attendibilità = 0.83. Quanti item dovremmo aggiungere per ottenere
un’attendibilità = 0.90?
b. ALFA DI CRONBACH: si parte dai singoli item che compongono lo strumento; si usa poi la formula

Il valore dell’alfa va da 0 a 1 e un test è considerato:


α > 0.6 e < 0.7 attendibilità sufficiente
α > 0.7 e < 0.8 attendibilità discreta
α > 0.8 e < 0.9 attendibilità buona
α > 0.9 attendibilità ottima
Esempio:

Questo coefficiente risente del numero di item che compongono un test (molti item = valore alto
dell’alfa), però un test troppo lungo potrebbe affaticare le persone e portare a punteggi con un
margine di errore maggiore.
c. K DI COHEN: quando abbiamo delle osservazioni del comportamento effettuate attraverso la
compilazione di una griglia osservativa (check-list), possiamo calcolare l’attendibilità delle osservazioni
indipendenti attraverso questo calcolo.
Innanzitutto occorre fare compilare la griglia osservativa ad almeno due osservatori indipendenti che
osservino gli stessi comportamenti. Una volta ottenute le risposte degli osservatori, si procede al
calcolo dell’accordo fra giudici calcolando la percentuale di accordo delle risposte degli osservatori
indipendenti. Tale percentuale di accordo però non ci permette di misurare la reale attendibilità, in
quanto essa è influenzata anche dall’accordo casuale. Per questo motivo si calcola la k di Cohen, la
quale varia tra 0 e 1. In linea generale una k maggiore di 0,60 è considerata buona, mentre una k
maggiore di 0,80 è ottima.

2. Metodi basati su due applicazioni:


a. COEFFICIENTE DI CORRELAZIONE TEST-RETEST: Uno strumento è attendibile non solo quando presenta
una coerenza interna, ma anche quando le risposte sono stabili nel tempo. Per misurare tale tipo di
attendibilità si ricorre a questo test, si somministra cioè lo strumento in due tempi diversi a un
campione ampio e diversificato di persone, e poi si calcola la correlazione tra i punteggi delle due
somministrazioni (sempre tramite la r di Pearson). Se il coefficiente di correlazione risulta maggiore di
almeno 0,70, lo strumento viene considerato sufficientemente stabile nel tempo. Il coefficiente
test-retest è interpretabile se si assume che il costrutto misurato non si modifichi nel tempo. Il
coefficiente tende a ridursi all’aumentare del tempo trascorso tra t1 e t2.
b. METODO FORME PARALLELE: Per le misurazioni che presuppongono ragionamenti o procedure di
calcolo, la procedura del test-retest non è la migliore. Esercizio e pratica possono incrementare i
punteggi alla seconda somministrazione. Si somministrano due versioni equivalenti del test. Permette
di verificare la coerenza dei punteggi ricavati a partire da due strumenti paralleli, applicati al tempo t.
Fondamentale verificare che i due strumenti siano realmente paralleli (ovvero, stessa media e stessa
varianza). Come per il metodo test-retest, si basa sul calcolo di r di Pearson tra due serie di punteggi.
Fra i suoi vantaggi: Poter disporre di due misure ravvicinate nel tempo, di uno stesso costrutto e
valutare rapidamente l’attendibilità di un test.
Fra i suoi svantaggi: Problema di campionamento degli item e maggiore probabilità di errore di
misurazione.

Validità di costrutto
E’ la capacità di una misura di misurare ciò che intende misurare. Occorre quindi valutare l’accuratezza della misura,
ovvero quanto le variabili scelte per misurare il costrutto siano adatte per operazionalizzare il costrutto altrimenti non
osservabile.
Per valutare la validità, occorre prendere in considerazione aspetti diversi della validità di costrutto.
Tali aspetti prendono il nome di:
● VALIDITÀ DI FACCIATA: non è una validità di costrutto effettiva, ma appunto di facciata. Se uno strumento ha
alta validità di facciata vuol dire che ha le sembianze di essere uno strumento che misura correttamente.
Se per esempio somministriamo un certo item ad un gruppo di persone ed essi lo ritengono valido, pensano che
esso misuri bene il costrutto, allora lo strumento avrà un’alta validità di facciata.
● VALIDITÀ DI CONTENUTO: è una validità che viene valutata da ricercatori esperti, e riguarda il fatto che gli
indicatori scelti per misurare un certo costrutto rappresentino bene tutti gli aspetti del costrutto in questione.
● VALIDITÀ CONVERGENTE E VALIDITÀ DISCRIMINANTE: uno strumento ha un’elevata validità convergente
quando i punteggi che si ottengono con esso correlano in modo elevato con i punteggi che si ottengono da
strumenti diversi che misurano lo stesso costrutto. Viceversa uno strumento ha un’alta validità discriminante
quando i suoi punteggi correlano poco con i punteggi che si ottengono da strumenti che misurano costrutti
diversi.
● VALIDITÀ PREDITTIVA E VALIDITÀ CONCORRENTE: vengono normalmente accomunate sotto il nome di “Validità
di criterio”. Nella validità concorrente si tratta di stabilire un criterio con il quale confrontare lo strumento di cui
vogliamo stabilire la validità di costrutto con i risultati ottenuti con lo strumento stesso → esempio: per
diagnosticare la presenza di depressione, vengono sottoposti diversi soggetti a un test; quelli che ottengono
punteggio più alto sono quelli diagnosticati come depressi rispetto a quelli non depressi.
La validità predittiva invece è così chiamata perché è in grado di correlare i punteggi ottenuti e lo strumento
stesso con un criterio misurato in un tempo successivo → esempio: sulla base di punteggi ottenuti in un test di
inglese, siamo in grado di predire che gli studenti con punteggio più alto supereranno l’esame di inglese siamo in
grado di predire che gli studenti con punteggio più alto supereranno l’esame di inglese tra un mese; stiamo
quindi facendo una previsione sul criterio di validità successivo attraverso il punteggio ottenuto ora.
La validità di criterio è valutata attraverso la matrice multi-tratto multi-metodo: si ottiene correlando i punteggi
ottenuti dagli stessi strumenti (metodo) che misurano costrutti diversi (tratti), e i punteggi ottenuti da strumenti
diversi (metodi) che misurano lo stesso costrutto (tratto) → esempio: sottopongo 100 studenti a uno strumento
self-report che misura la comunicazione col partner e uno che misura il conflitto col partner (stesso strumento
diversi costrutti) e poi li convoco in laboratorio coi partner per osservare i comportamenti di comunicazione e
quelli di conflitto, compilando una griglia osservativa: successivamente confronto la varianza dei punteggi della
scala self-report sulla comunicazione con quelli sul conflitto (diversi costrutti, stesso strumento) e coi punteggi
della griglia sulla comunicazione (stesso costrutto, diversi strumenti).
E’ infatti possibile differenziare quanto della misurazione sia dovuto al particolare metodo, lo strumento, e
quanto al costrutto.
Secondo altri autori per valutare la validità di costrutto occorre affrontare il processo di validazione, cioè una
teoria che permetta di spiegare la variazione di punteggi.
Precisione e accuratezza di una misura
Le buone misure sono sia precise (quanto sono simili le diverse misurazioni dello stesso costrutto) che accurate
(quanto corrisponde il costrutto misurato alla realtà), ma spesso abbiamo misure che soddisfano uno solo di questi
criteri.

Capitolo 4- Etica
I PROBLEMI ETICI NELLA RICERCA PSICOLOGICA
Ogni ricercatore è eticamente responsabile di come la sua attività porta ad una maggiore conoscenza e a migliorare
la qualità della vita delle persone. Oltre al singolo ricercatore, l’integrità scientifica è garantita da organizzazione
come AIP (in Italia), che ha promosso dei codici etici per la ricerca e il codice deontologico per chi professa l’attività
di psicologo.
Questa attenzione da parte dell’uomo nei confronti dell’etica nella ricerca è nata in particolare verso il secondo dopo
guerra, in seguito ad atroci sperimentazioni compiute da medici e ricercatori nazisti.
Venne quindi steso il Codice di Norimberga, che costituisce la base dei vari codici etici di ogni paese; importante per
gli psicologi è inoltre la Dichiarazione di Helsinki, alla base delle riflessioni di ricerca in ambito medico e psicologico.
L’ultima edizione pubblicata dall’APA (associazione americana di psicologia) è composta da 5 principi:
1. Promozione del benessere e difesa del malessere
2. Fiducia e responsabilità
3. Integrità
4. Giustizia
5. Rispetto per i diritti e la dignità delle persone
Invece il codice etico italiano è composto da 3 principi:
1. Competenza
2. Integrità
3. Responsabilità sociale

Problemi etici da valutare prima di iniziare una ricerca


Prima che venga condotto qualsiasi studio, deve essere esaminato il progetto di ricerca per controllare che gli
standard etici siano rispettati. Un fallimento dal punto di vista etico nel portare avanti la ricerca compromette
l’intero processo scientifico. Tra le conseguenze possono anche esserci gravi sanzioni giuridiche e finanziarie.
L’esame del comitato etico dell’istituzione garantisce la protezione dei partecipanti da eventuali danni e la
salvaguardia dei loro diritti. Chiunque intenda fare ricerca deve informarsi presso le autorità competenti, prima di
iniziare la ricerca, sulle procedure adeguate per l’esame istituzionale.

Rapporto costo/beneficio
Per determinare se una ricerca possa essere condotta, si fa una valutazione dei costi e dei benefici della ricerca
stessa. Fondamentalmente un comitato etico, che non ha alcun interesse personale nella ricerca, si pone la
domanda: “ne vale la pena?”. Molti fattori influenzano la decisione: i più basilari sono la natura del rischio e l’entità
del probabile beneficio per il partecipante, così come il potenziale valore scientifico e sociale della ricerca. Un
ricercatore deve puntare a fare ricerche che soddisfino i più alti standard dell’eccellenza scientifica, e deve quindi
accertarsi che i benefici siano maggiori dei costi, a parte per quelle situazioni in cui i benefici sono talmente chiari e
immediati che viene tollerato anche un rischio maggiore.

Definire il rischio
I potenziali rischi nella ricerca in psicologia includono il rischio di lesioni fisiche, il danno sociale e lo stress mentale
ed emotivo, da cui il ricercatore è invece obbligato di proteggere i suoi partecipanti.
I rischi devono essere valutati in termini di attività quotidiane dei potenziali partecipanti, della loro salute fisica e
mentale e delle loro capacità (esempio: proporre ad un anziano di fare una rampa di scale di corsa può aumentare la
possibilità di un infarto, ma probabilmente non rappresenta lo stesso pericolo per la maggior parte dei giovani).
Si ritiene che uno studio abbia un rischio minimo quando le procedure o le attività nello studio sono simili a quelle
sperimentate dai partecipanti nella vita quotidiana. Quando la possibilità di danno è giudicata superiore al minimo, i
soggetti vengono definiti a rischio.
Che il rischio sia minimo o alto, i partecipanti alle ricerche vanno protetti. Sono necessarie più tutele se il rischio
aumenta. Per proteggere i partecipanti da rischi sociali, le informazioni che forniscono dovrebbero essere anonime
o, se non è possibile, dovrebbe essere mantenuta la riservatezza delle informazioni.

IL CODICE ETICO ITALIANO


Il codice etico italiano è guidato da tre principi generali: competenza (cioè fare studi solo sullo specifico ambito in cui
ci si è specializzati), integrità (cioè rendere i partecipanti consapevoli delle tue competenze) responsabilità sociale
(cioè rispettare le leggi vigenti, diffondere le scoperte scientifiche, denunciare le cattive ricerche, difendere
l’immagine della psicologia nel mondo).
Ci sono cinque temi trattati sia nel codice etico italiano che quello americano: il consenso informato, l’inganno, il
debriefing, la ricerca sugli animali, la diffusione della ricerca scientifica.

Consenso informato
I ricercatori hanno l’obbligo etico di descrivere le procedure di ricerca in modo chiaro, di identificare gli aspetti della
ricerca che potrebbero influenzare la partecipazione dei soggetti e di rispondere a ogni domanda che i partecipanti
possono fare sulla ricerca. I partecipanti alla ricerca possono ritirare in qualsiasi momento il loro consenso senza
subire delle penalizzazioni, né devono esserci delle pressioni. I partecipanti a loro volta sono obbligati a comportarsi
in maniera appropriata e seria quando partecipano ad un ricerca; non devono mentire, barare o altro. Il consenso
informato, nel caso di persone non in grado di esprimere consapevolmente il proprio consenso, deve essere fornito
da chi ha la loro responsabilità legale. Inoltre il consenso informato va ottenuto in forma scritta quando il ricercatore
sa che in qualche modo non può garantire l’anonimato o potrebbero esserci procedure dolorose fisicamente o
mentalmente.
A volte il consenso informato può non essere chiesto (per esempio nel caso di ricerche condotte in luoghi pubblici)
sotto alcune condizioni: se il ricercatore semplicemente osserva, basta garantire l’anonimato; se invece registra deve
chiedere il consenso.
Occorre in qualsiasi caso difendere il diritto alla privacy dei partecipanti alla ricerca (è quindi vietato diffondere
informazioni sensibili su individui o gruppi senza il loro esplicito consenso) soprattutto se: un’informazione è un dato
sensibile; in base al contesto della ricerca; se i dati verranno divulgati e in che modo.

Inganno nella ricerca psicologica


Quando i ricercatori nascondono alcune informazioni ai partecipanti alla ricerca, stanno intenzionalmente utilizzando
l’inganno; l’inganno contraddice, per sua natura, il principio del consenso informato. Però in alcune ricerche
l’inganno viene considerato necessario. Anche se a volte può essere giustificato, ingannare i partecipanti non è mai
etico. Prima di utilizzare l’inganno, un ricercatore deve prestare attenzione a:
● L’importanza dello studio per la conoscenza scientifica
● Le alternative all’inganno disponibili
● La “nocività” dell’inganno

Debriefing
I ricercatori sono eticamente obbligati a trovare dei modi per far stare meglio i partecipanti alla ricerca al termine
della stessa. Un modo possibile è effettuare il debriefing: consiste in un incontro in cui non solo devono essere
spiegati tutti gli aspetti della ricerca, che eventualmente prima erano stati nascosti, modificati o non specificati, ma
in cui occorre anche ripristinare lo stato di umore e autostima del partecipante, dargli tutte le delucidazioni e
informazioni aggiuntive da lui richieste ed eliminare le idee scorrette che si è eventualmente fatto. Inoltre il
debriefing serve anche al ricercatore a ricordare sempre che i soggetti sono essere umani, con diritti e dignità, e non
degli oggetti. Al termine dell’incontro, i partecipanti devono risultare essere contenti di aver partecipato alla ricerca.
Inoltre è un ottimo modo per il ricercatore di verificare che il partecipante abbia compreso tutte le procedure, aiuta
a interpretare i risultati e fornisce idee per ricerche future (per esempio se è necessario fare delle modifiche o delle
migliorie).
Quando una ricerca è svolta online il debriefing è più complicato poiché il partecipante può scollegarsi e non essere
più reperibile: in quel caso si invia la mail con i risultati o si pubblicano sul sito web.

Ricerca con gli animali


Gli animali vengono usati nella ricerca psicologica per raccogliere informazioni che possono essere utili per il
benessere dell’uomo. L’uso degli animali della ricerca pone dei quesiti complessi che danno origine a dibattiti
all’interno della comunità scientifica e anche all’esterno di essa.
Infatti, sebbene queste ricerche vengano svolte per il benessere dell’uomo, molte volte gli animali vanno incontro a
stress, malattie, dolore, morte.
E’ quindi importante capire come tutelarli e proteggerli, e soprattutto far sì che nonostante tutto le sofferenze siano
sempre minime.

Diffusione della ricerca scientifica


I ricercatori spesso pubblicano i risultati delle loro ricerche su riviste scientifiche sottoposte alla revisione di colleghi.
Le decisioni su chi includere come autore del lavoro dipendono dal contributo che ognuno ha dato alla stesura del
lavoro; gli aspetti etici riguardano il riconoscimento del lavoro di altri, attraverso loro citazioni. Occorre poi
particolare attenzione nel non incorrere nel plagio: è un obbligo etico riconoscere i meriti di chi, prima di noi o
insieme a noi, ha dato un contributo alla scienza. Bisogna quindi fare una rassegna della letteratura, perché
legalmente l’ignoranza non costituisce una legittima scusa. Il plagio avviene anche quando non si riconosce una
fonte secondaria, cioè una fonte che tratta, rielaborando, il lavoro originale di un altro. È anche plagio riprendere
delle frasi senza citare la fonte (mettendola tra le virgolette), anche se queste sono parafrasate.
E’ anche importante però non dare troppi meriti a chi invece per la ricerca ha fatto poco o nulla.

Come prendere decisioni etiche nella ricerca


Il processo attraverso il quale si prendono decisioni etiche è basato sull’analisi del disegno di ricerca,
sull’identificazione di temi etici rilevanti e sulla considerazione di più punti di vista e di metodi alternativi. Gli autori
che propongono un proprio articolo a una rivista scientifica devono spesso dichiarare di aver rispettato le norme
etiche.

Capitolo 5- Metodi osservativi


OSSERVAZIONE
L’osservazione scientifica è fatta in condizioni definite con precisione, in maniera sistematica e obbiettiva e tenendo
conto delle registrazioni accurate. L’obbiettivo principale dei metodi osservativi è di descrivere il comportamento.
Gli scienziati si sforzano di descrivere il comportamento il più completamente e accuratamente possibile. Dal
momento che è impossibile osservare tutti i comportamenti di una persona, i ricercatori fanno affidamento
sull’osservazione di campioni di comportamento delle persone, e devono verificare che siano rappresentativi del
comportamento consueto delle persone.
Campionamento del comportamento
Il possibile grado di generalizzazione delle osservazioni è chiamato validità esterna, cioè la possibilità di
generalizzare i risultati di uno studio di ricerca a popolazioni, condizioni e situazioni diverse. Riguarda la miglior
approssimazione possibile alla realtà.

Campionamento del tempo


Con il termine “campionamento del tempo” ci si riferisce alla scelta da parte dei ricercatori degli intervalli di tempo
in cui fare osservazioni sistematiche o casuali. Per campionare il tempo gli intervalli tra un’osservazione e l’altra
possono essere stabili sistematicamente (es. 30 min di osservazione ogni 2 ore) oppure casualmente (30 minuti di
osservazione per 4 volte però a caso nel corso della giornata) → per il campionamento casuale sono utili gli
apparecchi elettronici che si attivano in maniera randomizzata quando percepiscono dei segnali.
Il campionamento del tempo non è un metodo efficace per campionare il comportamento quando l’evento di
interesse accade poco frequentemente. In tal caso ci si affida al campionamento dell’evento, in cui il ricercatore si
affida ad ogni evento che soddisfa una definizione predefinita. È utile anche per i comportamenti che avvengono in
maniera imprevista, come i disastri naturali.

Campionamento della situazione


Il campionamento della situazione richiede lo studio del comportamento in luoghi diversi e in condizioni e
circostanze diverse. Così facendo, i ricercatori riducono la possibilità che i loro risultati si riferiscano unicamente a
circostanze e condizioni specifiche. Campionando situazioni diverse inoltre il ricercatore può anche aumentare la
diversità del campionamento dei soggetti e, perciò, raggiungere una maggiore generalizzabilità dei risultati che si
potrebbero ottenere se venissero osservati solo tipi particolari di individui.
Così facendo aumenta la validità esterna dei risultati. Dal momento che nelle situazioni avvengono più
comportamenti, e il ricercatore non può osservarli tutti contemporaneamente, deve usare il campionamento dei
soggetti, per determinare quale soggetto osservare. I soggetti possono essere scelti sistematicamente oppure
casualmente.

METODO OSSERVATIVO
Può essere diviso in:
● OSSERVAZIONE DIRETTA: osserva direttamente un comportamento mentre viene eseguito. Nell’usare questo
metodo osservativo bisogna decidere il grado di intrusione nella scena, ovvero quanto lo sperimentatore
manipola o no quello che sta accadendo.
Essa può essere divisa in:
a. Osservazione non intrusiva/naturalistica: l’obbiettivo è quello di descrivere il comportamento come
avviene naturalmente e di esaminare le relazioni tra variabili presenti sul momento. Non vi è dunque alcun
tentativo da parte dell’osservatore di intervenire, egli osserva passivamente la scena. Serve anche a stabilire
la validità esterna dei risultati da laboratorio. È anche un’importante strategia di ricerca quando le
considerazioni etiche e morali ostacolano il controllo sperimentale. Esempio: uno studio sull’aggressività dei
bambini mostra favore verso l’osservazione naturalistica rispetto a quella intrusiva perché, per esempio nello
studiare l’isolamento infantile, l’etica impedirebbe di ricreare la situazione in laboratorio, perciò bisogna
osservarlo in contesto naturale.
b. Osservazione intrusiva: sono quelle osservazioni in cui lo sperimentatore manipola la scena, di solito per
verificare una teoria. La maggior parte delle ricerche in psicologia utilizzano l’osservazione intrusiva.
I tre metodi di osservazione intrusiva sono:
1. Osservazione partecipata: può avvenire non in incognito, ovvero lo sperimentatore partecipa alla scena
che sta osservando e chi viene osservato sa che è presente lo sperimentatore. Dunque lo sperimentatore
oltre ad osservare partecipa attivamente → questo però può causare reattività delle persone, ovvero
sapendo di essere osservate da uno sperimentatore tendono a modificare il loro normale
comportamento.
Si può altrimenti usare l’osservazione partecipata in incognito: lo sperimentatore partecipa attivamente
nella situazione ma le persone non sanno che egli è uno sperimentatore → esempio: un ricercatore che
vuole indagare sul razzismo verso gli afroamericani da parte dei bianchi, potrebbe infiltrarsi in chat
razziste, ma ovviamente non potrebbe farlo sotto l’identità di sperimentatore. Questo permette ai
ricercatori di osservare i comportamenti e le situazioni che in genere non sono aperte all’osservazione
scientifica. Questo potrebbe comportare dei problemi etici (privacy e consenso informato), da risolvere
prima dell’inizio della ricerca.
In generale il rischio dell’osservazione partecipata è che lo sperimentatore, essendo immerso
attivamente nella situazione, potrebbe perdere l’obiettività tipica della ricerca scientifica identificandosi
troppo con le persone e la situazione.
2. Osservazione strutturata: i ricercatori intervengono per esercitare qualche forma di controllo sugli
eventi che stanno osservando, nonostante esso sia comunque minore del controllo effettuato
nell’esperimento sul campo. Queste osservazioni sono predisposte per documentare comportamenti che
possono essere difficilmente osservabili con osservazione naturalistica: lo sperimentatore interviene per
provocare reazioni o eventi che in maniera naturale magari non avverrebbero.
Esempio: studio sulla cecità di distrazione → i ricercatori esaminano la capacità delle persone di notare
eventi insoliti mentre sono distratti, per esempio al cellulare; in questo tipo di osservazioni strutturate di
soli si usa un confederato (un individuo istruito a comportarsi in un certo modo per creare una
situazione in cui osservare il comportamento), che nel caso di questa osservazione dovrebbe vestirsi da
clown e girare intorno a una statua.
L’osservazione strutturata si trova a metà tra la passività del non intervento nell’osservazione
naturalistica e la manipolazione delle variabili indipendenti negli esperimenti di laboratorio.
3. Esperimenti sul campo: quando un ricercatore manipola una o più variabili indipendenti in una
situazione naturale, per determinare l’effetto sul comportamento, sta conducendo un esperimento sul
campo; esso rappresenta la forma più intrusiva di osservazione. Esempio: confederati che si fingono ladri
per studiare la reazione delle persone di fronte a un crimine, manipolando il numero di altri confederati
che presenziano alla scena, influenzando ancora di più l’intervento delle persone presenti.
• OSSERVAZIONE INDIRETTA: Il comportamento può anche essere osservato indirettamente attraverso documenti
e altre prove del comportamento delle persone, utilizzando quindi misure non intrusive perché il ricercatore
non interviene nella situazione e gli individui non sono consapevoli di essere osservati. Un importante vantaggio
di questi metodi è che non sono reattivi, e quindi è impossibile per i partecipanti reagire e cambiare il proprio
comportamento.
Si divide in:
● INDIZI FISICI: sono prove fisiche che provengono dall’uso (o non uso) di un oggetto. Sono le tracce del
comportamento passato. Esempi: le lattine in un bidone per la raccolta differenziata, le pagine sottolineate di
un testo, il logoramento dei comandi di videogame. Possono essere classificati in:
a. INDIZI D’USO NATURALE: prevedono che non ci sia alcun intervento da parte del ricercatore e
riguardano eventi che accadono naturalmente (es. studente che evidenzia il libro).
b. INDIZI D’USO CONTROLLATO: vi è qualche intervento del ricercatore (es. studente che dimostra di
aver studiato perché sposta i sigilli posti nel libro dal ricercatore).
c. PRODOTTI: creazioni, costruzioni o altri artefatti del comportamento. È un metodo molto
importante per gli antropologi, che attraverso i prodotti delle antiche culture (pitture, attrezzi...)
possono descrivere modelli di comportamento di migliaia di anni fa. Esempio – paradosso francese:
si riferisce al fatto che obesità e mortalità legata ad essa sia molto più basso in Francia che in USA,
nonostante i francesi mangino più grassi → si è ipotizzato che i francesi semplicemente mangiassero
meno nonostante i cibi più calorici.
L’osservazione indiretta con indizi fisici quindi serve a studiare il comportamento: la validità delle misure
usate (indizi fisici) deve essere però in grado di informarci fedelmente sul comportamento delle persone (es.
le sottolineature in un libro sono il comportamento di uno studente o di più che hanno usato lo stesso libro?)
● DOCUMENTI D’ARCHIVIO: Sono documenti pubblici e privati che descrivono attività, eventi e
comportamenti di individui, gruppi... (Esempi: registrazioni di squadre sportive, accessi a facebook e
Twitter). I ricercatori possono usufruire degli archivi per valutare anche l’effetto di un accadimento naturale,
cioè un evento che accade nella storia e che ha un impatto significativo sulla società e sugli individui
(terrorismo, calamità, morte, divorzi…). I ricercatori tuttavia devono essere consapevoli dei limiti e problemi
dei documenti di archivio. Tre sono i problemi in tal senso:
1. DEPOSITO SELETTIVO: si verifica quando vengono selezionate alcune informazioni, ma non altre, per
essere inserite nei depositi degli archivi.
2. SOPRAVVIVENZA SELETTIVA: si presenta quando i documenti sono andati perduti o sono incompleti,
cosa di cui a volte non si è neppure consapevoli.
3. RELAZIONE SPURIA: esiste quando i risultati indicano erroneamente che due o più variabili sono
associate. Può essere l’esito di un’associazione accidentale oppure di un uso non corretto delle
tecniche statistiche. Di norma la correlazione tra due variabili può avvenire quando una terza
variabile in genere non identificata, spiega tale relazione (esempio: consumo dei gelati >>> aumento
criminalità >>> temperatura come terza variabile).

Documentazione del comportamento


Oltre che per l’osservazione, diretta o indiretta, i metodi osservativi differiscono anche per la maniera in cui il
comportamento viene documentato. Qualche volta i ricercatori cercano una descrizione esaustiva del
comportamento e della situazione in cui avviene. Più spesso si focalizzano solo su certi comportamenti o eventi, e in
tal caso si osservano dei comportamenti selezionati. i risultati di uno studio vengono alla fine riassunti, analizzati e
comunicati a seconda di come siano state inizialmente documentate le osservazioni del comportamento:
• DOCUMENTAZIONI ESAUSTIVE DEL COMPORTAMENTO: per queste si ricorre spesso ai racconti narrativi →
forniscono una riproduzione del comportamento più o meno fedele rispetto a come fosse in origine. Per creare
un racconto narrativo, un osservatore può mettere per iscritto la descrizione del comportamento o utilizzare
registrazioni video o audio. Una volta creati i racconti, i ricercatori possono studiare, classificare e organizzare
le registrazioni per verificare le loro ipotesi o le loro aspettative sui comportamenti analizzati: differiscono da
altre forme di osservazione del comportamento per vengono creati dopo aver completato l’osservazione (o al
massimo nel mentre, ma non prima). Non deve passare tanto dopo tra osservazione e racconto, perché i ricordi
potrebbero sfocarsi.
Gli osservatori devono documentare il comportamento secondo dei criteri stabiliti, per esempio non possono
riportare le loro impressioni o inferenze nel testo. Non sempre però i racconti narrativi vengono usati per
ottenere descrizioni esaustive del comportamento: un esempio sono gli appunti sul campo, in cui vengono
riportate le descrizioni progressive ma solo su ciò che gli interessa, non su tutto ciò che succede; devono però
essere molto accurati per evitare di diventare personalizzati.
• DOCUMENTAZIONI SELEZIONATE DEL COMPORTAMENTO: Quando i ricercatori cercano di descrivere specifici
comportamenti o eventi, di solito lo fanno attraverso misure quantitative del comportamento, come la
frequenza e la durata della sua occorrenza: in questo tipo di studi i ricercatori in genere misurano la comparsa
di uno specifico comportamento mentre fanno le loro osservazioni. Le misurazioni quantitative del
comportamento usano:
1. SCALA NOMINALE: si usa spesso un checklist per registrare le misure in scala nominale; spesso includono
lo spazio per documentare le osservazioni che riguardano le caratteristiche dei partecipanti (razza, sesso
e l’età) così come le caratteristiche della situazione (ora del giorno, la località e se sono presenti altre
persone). Esempio: nello studio sulla cecità da distrazione, ha classificato i pedoni in quattro categorie a
seconda che stessero camminando soli o in coppia e che stessero usando un telefono o un lettore mp3.
2. SCALA ORDINALE: comporta l’ordinare e il classificare le varie osservazioni in modo gerarchico.
3. SCALA A INTERVALLI: quella usata più spesso.

Possono inoltre essere usate registrazioni elettroniche/monitoraggi per misurare il comportamento in modo
selezionato; oppure un altro strumento elettronico è il diario giornaliero online: i partecipanti registrano
quotidianamente eventi (umore, strategie, situazioni) → questo però si basa sulle dichiarazioni e non
sull’osservazione diretta.

ANALISI DEI DATI OSSERVATIVI


I ricercatori scelgono l’analisi dei dati su base quantitativa o qualitativa per riepilogare i dati osservati.
Il tipo di analisi dei dati che i ricercatori scelgono dipende dai dati che hanno raccolto e dagli obbiettivi del loro
studio (per esempio se si usano le scale di misura è meglio l’analisi quantitativa).
• ANALISI QUALITATIVA DEI DATI: si divide in:
a. ANALISI DEI RACCONTI NARRATIVI: un importante passaggio è la riduzione dei dati, ovvero il processo di
astrazione e riepilogo dei dati sul comportamento, e avviene attraverso un riassunto delle informazioni,
l’identificazione dei temi, la categorizzazione e il raggruppamento dei pezzi di informazione, in modo da
fornire un riassunto narrativo delle loro osservazioni e di sviluppare una teoria che spieghi il comportamento
nei racconti narrativi. Questo spesso implica il processo di codifica, che è l’identificazione di unità di
comportamento o di particolari eventi in accordo con specifici criteri relativi agli obiettivi dello studio;
consiste quindi in classificare/categorizzare, e la categorizzazione consiste nella riduzione. Quest’ultima
permette ai ricercatori di determinare le relazioni tra tipi specifici di comportamento e gli eventi antecedenti
ai comportamenti.
b. ANALISI DEI CONTENUTI DEI DOCUMENTI D’ARCHIVIO: tecnica di codifica che permette ai ricercatori di
estrapolare i dati utili nei documenti d’archivio e di poter così fare delle inferenze basate su caratteristiche
specifiche dei documenti d’archivio. Può essere usata con qualsiasi forma di comunicazione (in particolare
quelle scritte). Le tre operazioni che stanno alla base dell’analisi del contenuto sono:
1. L’IDENTIFICAZIONE DI UNA FONTE UTILE: una fonte d’archivio utile è quella che permette ai ricercatori
di rispondere a quesiti di ricerca dello studio.
2. SELEZIONE DI CAMPIONI DALLA FONTE: appropriato campionamento delle informazioni che vengono
tratte dall’archivio. Dal momento che molti database sono così ampi che sarebbe impossibile per un
ricercatore analizzare tutte le informazioni in esso presenti, occorre selezionare alcune di queste
informazioni allo scopo di ottenere un campione rappresentativo. L’ideale sarebbe selezionare
casualmente porzioni di archivio. Il grado in cui i risultati di una ricerca di archivio possono essere
generalizzati (validità esterna) dipende dalla rappresentatività del campione.
3. CODIFICA DELLE UNITÀ DI ANALISI: questa operazione richiede che siano definite categorie descrittive
valide e unità di misura appropriate. Analogamente all’analisi dei racconti narrativi, ridurre i dati
usando una codifica permette ai ricercatori di determinare le relazioni tra tipi specifici di
comportamento ed eventi antecedenti il comportamento.
• ANALISI QUANTITATIVA DEI DATI: L’obiettivo di questa analisi è quella di fornire un riassunto numerico, o
quantitativo, delle osservazioni di uno studio.
Ci sono due importanti passaggi:
a. STATISTICA DESCRITTIVA: i tipi di statistica descrittiva usati per riassumere i dati osservati dipendono
dalla scala di misura utilizzata per registrare i dati:
1. SCALA NOMINALE: si usa per la presenza o assenza di un comportamento, o per caratteristiche che si
escludono a vicenda. La statistica descrittiva più comune per la scala di tipo nominale è la
𝒗𝒐𝒍𝒕𝒆 𝒊𝒏 𝒄𝒖𝒊 𝒖𝒏 𝒆𝒗𝒆𝒏𝒕𝒐 𝒂𝒄𝒄𝒂𝒅𝒆
frequenza relativa → 𝒕𝒐𝒕𝒂𝒍𝒆 𝒅𝒆𝒍𝒍𝒆 𝒐𝒔𝒔𝒆𝒓𝒗𝒂𝒛𝒊𝒐𝒏𝒊
Le misure di frequenza relativa sono espresse o in forma di proporzioni o di percentuali.
2. SCALA ORDINALE: quando descrivono dati ordinali i ricercatori spesso riportano gli item elencati con
più frequenza tra una serie di item, oppure si descrivono le percentuali di primo, secondo e terzo
classificato ecc... per un particolare item selezionato tra una serie di item.
3. SCALA A INTERVALLI/RAPPORTI: vengono usate una o più misure di tendenza centrale. La misura più
comune di tendenza centrale è la media aritmetica, che descrive il punteggio rappresentativo di un
gruppo di punteggi, in modo da riassumere una prestazione generale → per una più completa
descrizione della prestazione, i ricercatori riportano anche una misura di variabilità/dispersione di
punteggi attorno alla media, ovvero la deviazione standard, che approssima la distanza media di un
punteggio dalla media.
b. ATTENDIBILITÀ DELL’OSSERVATORE: i ricercatori esaminano quanto gli osservatori siano attendibili, per
capire quindi se osservatori indipendenti di uno stesso evento riportano gli stessi risultati. Il grado di
accordo di due o più osservatori indipendenti è infatti definito dall’attendibilità tra osservatori.
Perché essa sia alta, i due devono essere il più possibile d’accordo e basarsi su giudizi oggettivi.
Tuttavia perché siano attendibili le due osservazioni non devono essere necessariamente anche accurate:
due osservatori infatti possono essere d’accordo su risultati che però contengono lo stesso tipo di errore;
infatti in genere siamo più inclini a ritenere le osservazioni accurate e precise se concordano, che non
quando i dati sono basati sulle osservazioni di un singolo osservatore.
Per valutare l’attendibilità dell’osservatore dipende dalla misura usata per misurare il comportamento
osservato:
1. SCALA NOMINALE: in questo caso gli eventi sono classificati in categorie che si escludono a vicenda,
dunque l’attendibilità dell’osservatore è valutata semplicemente sul grado di accordo →
𝒏𝒖𝒎𝒆𝒓𝒐 𝒅𝒊 𝒂𝒄𝒄𝒐𝒓𝒅𝒊 𝒕𝒓𝒂 𝟐 𝒐𝒔𝒔𝒆𝒓𝒗.
𝒏𝒖𝒎𝒆𝒓𝒐 𝒅𝒊 𝒐𝒑𝒑𝒐𝒓𝒕𝒖𝒏𝒊𝒕à 𝒑𝒆𝒓 𝒄𝒐𝒏𝒄𝒐𝒓𝒅𝒂𝒓𝒆
x 100
2. SCALA ORDINALE: per i dati ordinati gerarchicamente si usa il coefficiente di correlazione per ranghi
di Spearman per valutare l’attendibilità tra osservatori.
3. SCALA A INTERVALLI/RAPPORTI: quando per esempio viene misurato il tempo con queste scale,
l’attendibilità degli osservatori si calcola con il coefficiente di correlazione del momento-prodotto di
Pearson.

L’INFLUENZA DELL’OSSERVATORE
Il problema della reattività si presenta quando l’osservatore influenza il comportamento che sta osservando.
I partecipanti alla ricerca possono regolare il proprio comportamento per rispondere alle caratteristiche della
richiesta nella situazione di ricerca. Tra i metodi di controllo della reattività, ci sono l’osservazione partecipata in
incognito/osservazione naturalistica/osservazione indiretta e l’adattamento → consiste nell’assuefazione e nella
desensibilizzazione (abituare alla presenza dell’osservatore).
I ricercatori, quando tentano di controllare la reattività, devono prestare attenzione ai problemi etici.
Un altro problema è rappresentato dall’etica del provare a ridurre la reattività dei soggetti osservati: osservare le
persone senza consenso informato può essere una violazione della privacy. Per ovviare a questo problema si può
sottoporre le persone appena osservate al debriefing, chiedendo il loro permesso di trattare i dati appena raccolti.

Il bias dell’osservatore
Il bias dell’osservatore si verifica quando il ricercatore determina quali comportamenti scegliere di osservare e
quando le aspettative dell’osservatore sul comportamento conducono ad errori sistematici nell’identificare e
documentare il comportamento.
L’effetto aspettativa può presentarsi quando gli osservatori conoscono le ipotesi di uno studio o conoscono i risultati
di studi precedenti. Il primo passo per riconoscere il bias dell’osservatore è riconoscere che può essere presente.
Questo può essere ridotto mantenendo l’osservatore all’oscuro degli obbiettivi e delle ipotesi dello studio
precedente.
Capitolo 6- Inchiesta
L’inchiesta viene impiegata per valutare i pensieri, le opinioni e i sentimenti delle persone: lo scopo può essere
circoscritto e specifico, oppure più ampio. Talvolta le inchieste possono essere sponsorizzate, e questo pone
problemi etici: infatti ogni volta gli esiti sono favorevoli all’agenzia che ha sponsorizzato la ricerca, si ha
l’impressione che i risultati siano distorti. Per stabilire se lo sono, il modo migliore è quello di esaminare le procedure
e le analisi effettuate.
L’utilizzo dell’inchiesta è molto frequente nella ricerca correlazionale → fornisce la base per delle predizioni, in essa
vengono valutate le relazioni tra variabili allo scopo di identificare le relazioni predittive.
Tuttavia non possiamo, semplicemente conoscendo una correlazione, determinare la causa della relazione. Siamo
quindi impossibilitati a stabilire la direzione della relazione (cioè se è X a causare Y o viceversa) → (esempio: nel
caso di correlazione tra essere estroversi e l’essere soddisfatti della propria vita:).
Quando una relazione tra due variabili può essere spiegata da una terza variabile, allora questa è una relazione
spuria. In questo caso sono solo elementi aggiunti, variabili che erano sfuggite e non erano state misurate, che
permettono unicamente di comprendere meglio il “perché” (nell’esempio di prima, una terza variabile potrebbe
essere il “numero di amici”).

CARATTERISTICHE DELL’INCHIESTA
Il metodo dell’inchiesta comporta il campionamento (selezione di un campione), e l’utilizzo di un predeterminato
insieme di domande, uguali per tutte le persone che partecipano alla ricerca.
Una volta deciso che l’inchiesta è metodo migliore per rispondere ad un certo quesito, e si è definito la popolazione
d’interesse, il passo successivo è selezionare attentamente il campione: più è corretta la scelta del campione, tanto
più esso sarà rappresentativo della popolazione, e sarà quindi possibile per i ricercatori generalizzare i risultati della
ricerca, sia che si tratti della popolazione di un’intera nazione, che una molto più stretta (per esempio un’etnia o gli
studenti dell’università).
L’identificazione e la selezione degli elementi o unità che costituiscono il campione sono alla base delle tecniche di
campionamento; il campione è scelto da una popolazione di riferimento o lista di tutti gli elementi o unità che
costituiscono la popolazione di interesse.
● POPOLAZIONE: ogni componente della popolazione è un elemento, ed essa è l’insieme di tutti i casi/elementi
di interesse. Per selezionare il sottoinsieme che farà da campione rappresentativo, bisogna prima stilare una
lista di campionamento, che è una definizione operativa della popolazione di interesse. Tanto più riflette la
popolazione, tanto più è adeguato.
Il sottoinsieme che ne viene realmente estratto è ciò che chiamiamo campione.
● CAMPIONE: sottoinsieme di interesse della popolazione di riferimento. L’oggetto di primario interesse di ogni
ricercatore rimane sempre l’elemento all’interno del campione, non il campione stesso.
● RAPPRESENTATIVITÀ: essa è la base per cui è possibile generalizzare dal campione alla popolazione. Un
campione è rappresentativo della popolazione nella misura in cui mostra la stessa distribuzione di
caratteristiche della popolazione (per esempio, se una popolazione è formata dal 40% di femmine e dal 60% di
maschi, ma il nostro gruppo che fa da campione è invece formato per il 30% maschi e il 70% da femmine, esso
potrebbe non essere rappresentativo).
● BIAS DELLA SELEZIONE: è la minaccia maggiore alla rappresentatività, è la distorsione delle caratteristiche del
campione rispetto alla popolazione di riferimento. Da esso ne deriva un campione distorto, in cui la
distribuzione delle caratteristiche è sistematicamente diversa da quella della popolazione di interesse. Due
sono le possibili fonti di distorsione:
1. IL BIAS DELLA SELEZIONE: si presenta quando per selezionare il campionamento vengono usate delle
procedure che portano ad una sovrarappresentazione di alcuni segmenti della popolazione, o al contrario
alla loro sottorappresentazione.
2. PERCENTUALE DI RISPOSTA: fa riferimento alla percentuale di persone che completano il questionario.
Una percentuale bassa di risposte potrebbe minacciare la rappresentatività del campione (fra le ragioni
per cui ciò accade ci possono essere: problemi di alfabetizzazione, grado di istruzione basso, problemi visivi,
scarso interesse nella ricerca). La percentuale media di restituzione dei questionari postali si aggira attorno
al 30%. Ci sono dei modi per aumentare la percentuale, come rendere il questionario più personale, usare
domande che richiedano il minimo sforzo, rendere l’argomento interessante ecc.

Procedure di campionamento
Ci sono due approcci di base al campionamento:
● CAMPIONAMENTO NON PROBABILISTICO: non abbiamo garanzie che ogni elemento abbia una certa
probabilità di essere incluso nel campione, e non c’è modo di stimare la probabilità di inclusione di ogni
elemento. La più comune forma è il campionamento di convenienza, che implica la selezione degli interpellati
soprattutto sulla base della loro disponibilità o sollecitudine a rispondere. Il campione di convenienza, come
qualsiasi altro campione, risulta distorto se non c’è una forte evidenza che confermi la sua rappresentatività.
● CAMPIONAMENTO PROBABILISTICO: tutti gli elementi hanno la stessa possibilità di essere inclusi nel
campione. Il campionamento probabilistico assicura che i campioni selezionati abbiano più probabilità di
rappresentare la popolazione rispetto a quello non probabilistico. I due tipi più comune di questo
campionamento sono:
a. CAMPIONAMENTO CASUALE SEMPLICE: ogni elemento ha le stesse probabilità di essere incluso.
Inoltre è importante decidere la grandezza del campione (cioè quante unità estrarre dalla nostra
checklist) → essa dipende dalla variabilità della popolazione (quante gli elementi sono simili o diversi tra
loro).
Estrazione di un campione casuale semplice
1. Una volta stilata la lista, numera ogni unità del campionamento.
2. Decidi la grandezza del campione che vuoi utilizzare (per esempio diciamo 5, quindi da una lista
estrarrò 5 nomi).
3. Scegliere un punto di inizio nella tabella dei numeri casuali nell’appendice (per esempio puntare un
dito con gli occhi chiusi).
4. Identifica i numeri da includere nel campionamento spostandoti nella tabella (quelli ottenuti andando
alla cieca) (ignorano le ripetizioni di numeri già selezionati).
5. Elenca i nomi che corrispondono ai numeri selezionati.
Un altro sistema, anche più semplice, per ottenere un campione casuale semplice è il campionamento
sistematico (per esempio: in una lista di 40 nomi scegliamo una persona a caso, che sarà la prima, e le
altre verranno scelte sistematicamente ogni 8 persone).

b. CAMPIONAMENTO CASUALE STRATIFICATO: la popolazione è divisa in sottopopolazioni definite strati, e


i campioni casuali sono sorteggiati da ognuno di questi strati. È molto utile per descrivere porzioni
specifiche della popolazione.
Estrazione di un campione casuale stratificato
1. Organizza la lista di campionamento in strati non per forza della stessa identica dimensione. (es: classi
all’università)
2. Numera ogni elemento dello strato.
3. Decidi la grandezza del campione.
4. Estrai un numero uguale di persone da ogni strato.
5. Seguire le ultime tra fasi dell’estrazione di un campione casuale semplice.
METODI DI INCHIESTA
Quando si progetta un’inchiesta bisogna anche scegliere come ottenere le informazioni, quindi quale strumento
utilizzare. Essi sono quattro:
● QUESTIONARI POSTALI: sono questionari distribuiti alle persone via posta. Il loro vantaggio è quello di essere
veloci e pratici, e non creano imbarazzo in caso di argomenti personali. Può però esserci il problema della
percentuale di risposta (già parlato nella sezione “bias delle selezione”), inoltre gli interpellati non possono
porre domande all’intervistatore in caso di dubbi. Proprio per questo problema esso potrebbe non essere
rappresentativo della popolazione.
● INTERVISTE FACCIA A FACCIA: generalmente le persone sono contattate nelle loro case o in centri
commerciali. Permette una maggiore flessibilità nel porre le domande rispetto al questionario postale (perché
per esempio la persona può chiedere delle delucidazioni). Lo svantaggio più evidente è il bias
dell’intervistatore, che avviene quando l’intervistatore registra solo porzioni selezionate di risposte o cerca di
influenzare la risposta; inoltre molte persone potrebbero aver paura di far entrare un estraneo in casa o di
fermarsi a parlarci per strada. La miglior protezione da ciò è assumere intervistatori molto motivati e ben
pagati, addestrati a seguire esattamente la formulazione della domanda, a registrare accuratamente le risposte
e a usare con giudizio le domande di controllo.
● INTERVISTE TELEFONICHE: la tecnica della composizione numerica casuale permette ai ricercatori di contattare
in modo efficiente un campione generalmente rappresentativo di abbonati telefoni. Inoltre sono più accessibili
(possono anche raggiungere luoghi pericolosi o contattare in orari comodi alle persone), sono rapide. Gli
inconvenienti rimangono sempre quanta voglia hanno i partecipanti di rimanere al telefono, oltre a una
mancanza di attenzione (quando si usa il cellulare spesso si sta facendo altro), e quindi si è anche obbligati a
dover fare un numero limitato di domande.
● QUESTIONARI VIA INTERNET: Internet offre vari vantaggi, perché è un metodo efficiente a basso costo per
ottenere risposte da ampi campioni, potenzialmente diversi e sottorappresentati. È sufficiente che i
partecipanti completino un questionario online e clicchino su “invia” perché le loro risposte vengano registrate.
Gli svantaggi possono chiaramente essere il bias nel tasso di risposte (molta gente non ha voglia di completare
il questionario o si dimentica di inviarlo), il bias nella selezione (gli intervistati su internet sono solo un
campione di convenienza; infatti per esempio la maggior parte sono giovani, mentre la stragrande
maggioranza degli anziani non ha internet), e la mancanza di controllo sul contesto di ricerca.

Disegni di ricerca per l’inchiesta


Una delle decisioni più importanti che i ricercatori devono prendere riguarda la scelta del tipo di disegno ricerca da
utilizzare. Un disegno di ricerca è il piano o la struttura generale usata per condurre un intero studio, scelto in base
agli obiettivi del loro studio. Ci sono tre tipi:
● DISEGNO TRASVERSALE: uno o più campioni vengono estratti dalla popolazione nello stesso momento → la
finalità è la descrizione, descrivere le caratteristiche di una popolazione o le differenze tra due o più
popolazioni in un particolare momento, e i risultati delle correlazioni permettono quindi delle formulazioni
predittive e descrittive. Infatti per indagare i cambiamenti di atteggiamento nel tempo è meglio affidarsi a
disegni di ricerca che campionino sistematicamente le persone nel tempo.
● STUDIO DI TREND/LONGITUDINALE INDIPENDENTE: campioni diversi partecipano alla ricerca in momenti
diversi nel tempo, e quindi per un periodo di tempo determinato. Ci sono due elementi chiave:
1. Si deve porre la stessa serie di domande a ogni campione di interpellati.
2. Devono essere estratti campioni diversi dalla stessa popolazione
Questo disegno è il più adatto per descrivere cambiamenti di atteggiamenti o comportamenti nel tempo,
all’interno di una popolazione. Lo studio di trend non permette ai ricercatori di inferire come i singoli
interpellati cambino idee nel tempo, non si può nemmeno sapere chi ha cambiato idea e di quanto.
Potrebbe essere determinato unicamente valutando gli stessi individui in entrambe le occasioni. Un
problema con lo studio del trend si presenta quanto i campioni estratti dalla popolazione non sono
confrontabili, cioè non sono rappresentativi della popolazione (per esempio su un’ipotetica inchiesta sulle
attitudini degli studenti verso il Governo degli Stati Uniti, nel 1977 presi un campione composto da studenti
proveniente da città di provincia, mentre nel 2007 un campione composto da studenti provenienti dalla città).
I cambi nella popolazione nel tempo possono essere descritti accuratamente solo quando il campione degli
studi di trend rappresenta la stessa popolazione.
● DISEGNO LONGITUDINALE: gli stessi soggetti vengono coinvolti nel tempo per esaminare i cambiamenti nel
singoli individui. Valutando i cambiamenti in tutte le risposte dell’individuo, è più facile cercare le ragioni dei
cambiamenti nell’atteggiamento o nel comportamento. È inoltre il disegno più adatto per valutare l’effetto di
alcuni eventi che accadono naturalmente (per esempio i cambiamenti dovuti al livello di soddisfazione a seguito
di un divorzio). Uno dei problemi è che è difficile identificare le cause dei cambiamenti nel tempo degli
individui. Un altro problema con il disegno longitudinale è la difficoltà a ottenere un campione di soggetti che
accetti di partecipare allo studio nel tempo. I campioni rimangono identici solo se tutti i componenti del
campione originale continuano a partecipare a tutto lo studio. Purtroppo questo è abbastanza improbabile.
Questo dà luogo al problema di attrito selettivo, cioè appunto i soggetti che nel tempo si ritirano dalla ricerca;
tanto più il campione decresce, tanto più si riduce la sua probabilità di rappresentare la popolazione originale
da cui è stato estratto. Chiaramente persiste il problema del bias di risposta, cioè la gente risponde fino a
quando è interessata all’argomento.

COSTRUZIONE DEL QUESTIONARIO


Qualsiasi risultato diventa inutile se deriva da un questionario formulato male. Il questionario è lo strumento di
ricerca più comune per l’inchiesta.
Se costruito e utilizzato in modo appropriato, è uno strumento scientifico potente per la misure di diverse variabili.
● VARIABILI DEMOGRAFICHE: esse vengono usate per descrivere le caratteristiche delle persone che
partecipano alla ricerca. Un metodo diretto per misurare una variabile demografica è quello di chiedere di
identificare, per esempio, la razza con una domanda aperta. Il risultato spesso non è soddisfacente, soprattutto
con razza-etnia, su cui vi è confusione:
1. Etnia: si basa sulla storia comune di una determinata popolazione, resa più forte dall'avere una stessa
religione, una stessa lingua e cultura. (tipo etnia ispanica).
2. Razza: le catalogazioni razziali sostengono di basarsi su comuni tratti fisici e genetici. (tipo razza
caucasica).
In generale gli approcci affrettati e superficiali alla misurazione tendono a produrre dati ingarbugliati difficili
da analizzare e da interpretare (per esempio non includere una certa categoria tra le opzioni di risposta):
l’accuratezza e la precisione dei questionari come strumenti di ricerca dipendono dall’esperienza e dalla
cura messe nella loro costruzione.
● PREFERENZE E ATTEGGIAMENTI: le inchieste spesso misurano le preferenze e gli atteggiamenti degli individui
(per esempio le ricerche di mercato sono interessate alle preferenze dei consumatori). In questo ambito sono
spesso usate le scale self-report, per misurare il parere, l’opinione delle persone sugli item presenti nella scala
(per esempio divorzio, candidati politici, eventi della vita), o per determinare differenze tra le persone in
qualche costrutto presentato nella scala (per esempio quantità di stress). Da ricordare che questa scala si
focalizza sulle differenze tra l’item della stessa, non sulle differenze tra individui. È cruciale che queste scale
siano valide e attendibili, come qualsiasi altra misura.

Costruire un questionario
Costruire un questionario che fornisca misure attendibili e valide è un compito difficile, e l’esperienza è un fattore
fondamentale. Quando si è alle prime armi, è bene memorizzare e seguire delle precise fasi:
1. Decidere quali informazioni cercare: è una decisione che determina la natura delle domande da includere nel
questionario. L’importante è che il questionario che ne deriva sia ben costruito, così da ottenere dei risultati
interpretabili che risponderanno alle domande dello studio.
2. Decidere come somministrare il questionario: cioè prendere decisioni come scegliere quale metodo d’inchiesta
adottare, se scegliere per la presenza di un intervistatore, o se utilizzare gli item già preparati e approvati da altri
ricercatori
3. Scrivere una prima versione del questionario
4. Riesaminare e rivedere il questionario: è essenziale. Prima di procedere a questa fase è opportuno fare
revisionare il lavoro da esperti, o comunque da un altro valido punto di vista, in modo tale di risultare sicuri di essersi
focalizzati sull’argomento scelto, e che le domande da noi proposte, risultino essere obbiettive e non ambigue come
crediamo, e non tendenziose.
5. Fare un test-pilota del questionario: cioè una somministrazione reale del questionario a un piccolo campione di
persone, che dovrà essere rappresentativo di chi formerà il campione finale. Serve quindi come “prova generale”.
6. Rivedere il questionario e specificare le procedure per il suo utilizzo: per raggiungere con successo questa fase
finale è importante avere presenti le linee guida per un’efficace formulazione del questionario e per un ordine
corretto delle domande.
Linee guida per un’efficace formulazione del questionario
I ricercatori devono sapere che il modo in cui viene formulata una domanda ha un grande impatto sulla risposta.
Le persone presumono che il significato di una domanda sia ovvio. Questo ha importanti implicazioni: più si usano
termini vaghi, più le persone tendono a interpretarli secondo le loro personali distorsioni, ovvero secondo ciò che
loro intendono per “ovvio”. Per ovviare problemi come minimo deve essere riportata la formulazione esatta delle
domande cruciali per l’inchiesta con i dati che descrivono le risposte fornite dai partecipanti. In genere si sceglie tra
due formulazioni di domande:
● A RISPOSTA APERTA: i rispondenti possono dare senza alcun limite la risposta. L’evidente vantaggio è un
maggior flessibilità. Lo svantaggio è la difficolta che può nascere nel registrare e codificare le risposte.
● A SCELTA MULTIPLA: sono più facili e veloci, permettono di focalizzarsi meglio, sono facili da ricapitolare, ma
hanno come svantaggio una riduzione di spontaneità ed espressività.
Dei buoni item per un questionario dovrebbero:
● Usare un linguaggio semplice, diretto e familiare a tutte le persone.
● Essere chiari e specifici.
● Non contenere domande tendenziose (per esempio: “molte persone sono favorevoli al nucleare: tu cosa ne
pensi?”), e non devono contenere parole cariche di emozioni come “radicale” o “razzista”.
● Essere più brevi possibile (20 o meno parole)
● Evitare potenziali risposte distorte
● Essere sottoposte a verifica per la leggibilità.
Inoltre bisognerebbe evitare la possibilità di bias della risposta → cioè quando i rispondenti usano solo i punti
estremi nelle risposte che hanno un punteggio a scala, oppure solo punti neutri nel mezzo: per evitare ciò è
importante formulare alcuni item invertiti.

Ordine delle domande


L’ordine in cui vengono poste le domande deve essere seriamente considerato, perché può influenzare le risposte
dei soggetti. Di solito è meglio iniziare con la serie di domande più interessanti. Inoltre è bene seguire il metodo delle
domande ad imbuto, cioè iniziare con la domanda più generale e spostarsi verso le domande più specifiche
pertinenti ad un argomento. Oppure per stabilire l’ordine ci si può affidare al metodo delle domande filtro, cioè
porre delle domande generali per capire se le persone che partecipano all’indagine costituiscano un gruppo
particolare di rispondenti a cui è dedicata una parte specifica del questionario. Il loro uso è più semplice quando
contengono informazioni oggettive ( es: “hai più di 65 anni?”).

APPROCCIO CRITICO ALL’INCHIESTA


Corrispondenza tra comportamento descritto e reale
I dati di un’inchiesta dipendono dalla sincerità delle risposte alle domande del questionario. Per sua natura,
l’inchiesta presuppone la reattività: è infatti inevitabile che gli individui siano consapevoli che le loro risposte
vengano registrate, e che tali risposte potrebbe addirittura avere un risvolto pratico. Il termine per descrivere le
pressioni che sentono è di desiderabilità sociale (anche il termine politicamente corretto fa riferimento a pressioni
di questo tipo), con cui si intende il bisogno, che qualche volta gli interpellati avvertono, di rispondere ciò che si
“dovrebbe” credere piuttosto che ciò che si crede davvero (per esempio quando si tratta di quelle cause
particolarmente a cuore nella società, come il sostegno a chi è in difficoltà, la carità, l’ambiente ecc.). La miglior
protezione contro la reattività è la consapevolezza della sua esistenza. Un metodo per valutare l’accuratezza delle
dichiarazioni orali è l’osservazione diretta del comportamento degli interpellati, dal momento che le dichiarazioni
verbali possono non corrispondere al reale comportamento (esempio: in uno studio era appurato che le persone
erano più propense ad aiutare una vittima quando erano soli che in presenza di testimoni. Tuttavia, quando chiesero
ad un secondo gruppo di partecipanti se la presenza di testimoni avrebbe influenzato la probabilità che loro
aiutassero la vittima, essi risposero uniformemente di no). Chiaramente però non dobbiamo unicamente affidarci
all’osservazione del comportamento: la cosa migliore per ridurre la discrepanza tra comportamento osservato e
dichiarazione orale è, come al solito, quello di affidarsi ad un approccio multimetodo.

Capitolo 7- Disegno a gruppi indipendenti


Descrizione e predizione sono elementi essenziali nello studio scientifico del comportamento, ma non sono
sufficienti per comprendere la causa. Gli psicologi cercano anche le spiegazioni, il “perché”.
Soltanto attraverso l’identificazione della causa di un fenomeno si raggiunge una spiegazione scientifica.
Il più adatto è il metodo sperimentale, ovvero l’approccio multimetodo, da cui si ottengono delle validità
convergenti. Il punto di forza del metodo sperimentale è la sua efficacia nello stabilire le relazioni di causa-effetto.

Perché fare esperimenti


I ricercatori conducono esperimenti per verificare delle ipotesi sulle cause di certi comportamenti. Gli esperimenti
permettono ai ricercatori di decidere se un trattamento o un programma riesca effettivamente a cambiare un
comportamento.
Un vero esperimento implica la manipolazione di uno o più fattori per osservare, per misurare, l’effetto sul
comportamento. Come abbiamo già visto tali fattori sono le variabili indipendenti.
Una variabile indipendente deve avere almeno due livelli, chiamati condizioni (un livello può essere considerato la
condizione sperimentale di “trattamento” e un secondo livello la condizione di controllo).
Le misure utilizzate per osservare l’effetto (se c’è) delle variabili indipendenti sono chiamate variabili dipendenti.
Per verificare le ipotesi usiamo gli esperimenti perché ci permettono di esercitare un grado relativamente alto di
controllo di una situazione, cosa che permette ai ricercatori di inferire che sia la variabile indipendente ad essere
causa di quella dipendente.
Le tre condizioni necessarie per stabilire un’inferenza causale sono:
1. COVARAZIONE
2. RELAZIONE TEMPORALE
3. ELIMINAZIONE DI PLAUSIBILI CAUSE ALTERNATIVE

Quando si soddisfano le tre condizioni, si dice che l’esperimento ha validità interna.

DISEGNO A GRUPPI CASUALI


In un disegno a gruppi indipendenti, ogni gruppo di soggetti partecipa a una sola condizione della variabile
indipendente.
È più efficace basandosi sull’assegnazione casuale dei soggetti alle condizioni, allo scopo di formare gruppi
equivalenti. Nel caso in cui si effettui tale assegnazione, il disegno a gruppi indipendenti viene chiamato disegno a
gruppi casuali → i gruppi sono trattati allo stesso modo, ogni differenza è causata solo dalla variabile indipendente.
Esempio – insoddisfazione bambine verso proprio corpo: Lo scopo dell’esperimento era sapere se le bambine
comprese tra i 5 e i 6 anni esposte a immagini di corpi molto magri provocasse sentimenti negativi verso il loro corpo.
Nell’esperimento si leggeva, a piccoli gruppi di bambine, la storia di Mira che va a fare shopping per prepararsi ad
una festa di compleanno. Durante la lettura, ciascuno dei tre gruppi aveva delle immagini da sfogliare.
Il primo gruppo aveva immagini in cui Mira era rappresentata da Barbie - che nonostante abbia delle proporzioni
irrealistiche è comunque considerato un ideale socioculturale di bellezza femminile-; il secondo gruppo aveva
immagini in Mira rappresentata dalla bambola Emma - ispirata ad una famosa modella americana, e aveva
proporzioni del corpo molto più realistiche-; il terzo gruppo invece aveva immagini neutre - come vetrine di negozi-.
Le tre versioni del libro illustrato rappresentano tre livelli di variabile indipendente manipolate nell’esperimento, e
poiché gruppi diversi di bambine sono stati sottoposti a una sola delle differenti condizioni associate a ogni livello
della variabile indipendente, l’esperimento viene definito “disegno a gruppi indipendenti”. Poi, per verificare il grado
di soddisfazione del proprio corpo per ciascuno dei gruppi fu scelto l’uso della “Child Figure Rating Scale”: ovvero
c’erano due file di sette corpi tratteggiati a forma di bambina; la bambine dovevano colorare nella prima fila la figura
che ritenevano vicina al proprio corpo, e nella seconda fila la figura del corpo che idealmente avrebbero voluto avere.
I risultati furono chiari: le bambine sottoposte alla visione del corpo di Barbie erano molto più insoddisfatte del loro
corpo rispetto alle altre –.
Grazie all’utilizzo della manipolazione di più livelli di variabile indipendente, in questo esperimento sono stati
soddisfatti tutti e tre i requisiti per trarre l’inferenza causale → la covariazione (l’insoddisfazione covariava con
l’immagine mostrata), la relazione temporale (l’insoddisfazione insorgeva successivamente alle immagini),
l’eliminazione di spiegazioni alternative grazie a:
a. COSTANZA DELLE CONDIZIONI: sono rimasti costanti i fattori che avrebbero potuto influenzare le bambine.
Tutte le bambine hanno ascoltato la stessa storia e hanno osservato le immagini per lo stesso periodo di
tempo, hanno poi ricevuto le stesse istruzioni e lo stesso questionario da completare. Questo assicura che la
variabile indipendente manipolata sia il solo fattore che influenza.
Se i tre gruppi avessero ricevuto un ulteriore fattore diverso per ognuno, non ci sarebbe stata validità interna a
causa della variabile confondente.
b. BILANCIAMENTO: fondamentale per formare gruppi bilanciati ed equivalenti fin dall’inizio → i partecipanti
devono avere stesse caratteristiche individuali all’inizio dell’esperimento, altrimenti non si può trarre la validità
interna: si fa quindi una media del peso corporeo, delle bambole possedute ecc… e si fa una selezione casuale
su questa media.

Randomizzazione a blocchi
È una procedura comune per effettuare un’assegnazione casuale.
Supponiamo di avere un esperimento con cinque condizioni (A, B, C, D, E).
Un blocco è costruito ordinando casualmente tutte e cinque le condizioni → D, A, E, C, B.
Si costruisce quindi un blocco alla volta, in base a quanti ne vogliamo costruire, assegnando a ciascun blocco 5
soggetti quante le condizioni, e a ciascuna condizione un soggetto; e così via per tutti i blocchi che si decide di creare,
per esempio 10.
Dato che abbiamo deciso 5 condizioni, nel primo blocco dovremo assegnare un soggetto ad ogni condizione, e così
via per ognuno dei 10 blocchi. In totale avremo quindi 50 soggetti e 10 blocchi.
Il vantaggio della randomizzazione a blocchi è che permette di bilanciare (cioè distribuisce allo stesso modo) le
caratteristiche soggettive (come la comparsa di un evento traumatico, cambio degli sperimentatori ecc.) nelle varie
condizioni dell’esperimento.

Pareggiamento casuale (matching)


Può essere usato in alternativa all’assegnazione casuale o alla randomizzazione. Questa tecnica si applica quando:
● sospettiamo che possa esserci una variabile rispetto alla quale i soggetti del campione differiscono e che
riteniamo associata a variazioni sulla v. dipendente;
● possiamo esaminare i soggetti prima dell’esperimento
Procedimento:
● Effettuare una misurazione della variabile associata alla v. dipendente
● Ordinare i soggetti in base alla misurazione effettuata
● Formare coppie di soggetti e assegnare un membro a ciascun gruppo/condizione
● Fare la sperimentazione

Minacce alla validità interna


Abbiamo già visto come la validità interna sia il grado in cui le differenze di performance di una variabile dipendente
possono essere attribuite in modo chiaro e inequivocabile all’effetto di una variabile indipendente, anziché ad altre
variabili incontrollate → considerate minacce alla validità interna.
Fra i vari problemi che possono trasformarsi in minacce alla validità interna in una ricerca sperimentale (e i relativi
metodi per tenerli sotto controllo) abbiamo:
● GRUPPI PRECOSTITUITI: cioè quando gruppi formati prima di iniziare l’esperimento vengono assegnati
casualmente alle condizioni di un esperimento (per esempio le sezioni di un corso introduttivo di psicologia, che
anche se sembrano casuali, sono in realtà determinate dalla scelta degli amici, degli orari, dei professori ecc.).
Da ciò si originano dunque dei gruppi non equivalenti, che creano un potenziale fattore confondente.
● VARIABILI ESTRANEE: esse sono delle variabili che di fatto non interessano al ricercatore, ma potrebbero
essere tuttavia fonte di confusione nell’esperimento (per esempio: affidare il controllo dei vari gruppi
dell’esperimento a diversi ricercatori). Il modo migliore per controllarlo è affidarsi alla randomizzazione in
blocchi, che permette di bilanciare le variabili estranee nelle diverse condizioni della variabile indipendente
(nell’esempio di prima: in linea di principio bisognerebbe assegnare ad ogni sperimentatore lo stesso numero di
blocchi).
● PERDITA DI SOGGETTI: i gruppi casuali che siamo andati a formare devono essere equivalenti dall’inizio alla
fine dell’esperimento (tranne ovviamente per gli effetti della variabile indipendente).
Infatti se i soggetti iniziano a partecipare all’esperimento ma poi non lo completano, ciò minaccia la validità
interna. Ci sono due situazioni da dover distinguere:
a. PERDITA MECCANICA DEI SOGGETTI: si verifica quando un partecipante all’esperimento non riesce a
portarlo a termine a causa di problemi nel funzionamento dei dispositivi (esempio: rottura di un
computer). Essa può essere intesa come derivante da eventi casuali, e non dalle caratteristiche del
soggetto, e perciò di solito non dà origine a differenze sistematiche tra le caratteristiche dei soggetti che
completano l’esperimento. Quindi di solito non è una grave minaccia per la validità interna.
b. PERDITA SELETTIVA DEI SOGGETTI: rappresenta un problema più serio e si verifica quando:
1. Si perdono soggetti in maniera differente nelle varie condizioni dell’esperimento.
2. “responsabile di una perdita” è una caratteristica del comportamento del soggetto.
3. Quando questa caratteristica è legata alla variabile dipendente usata per valutare il risultato dello
studio.
Questo mina gravemente la validità interna, in particolare l’equivalenza dei gruppi.
Tra le misure preventive, una possibilità potrebbe essere somministrare un pre-test e scartare i soggetti a
rischio di perdita: questo renderebbe però lo studio specifico per il gruppo scelto, e avrebbe una limitata
generalizzabilità (tuttavia è sempre meglio uno studio interpretabile, anche se con condizioni limitate,
piuttosto che uno non interpretabile a causa di errori e minacce). Altro metodo è somministrare sempre un
pre-test e formare normalmente, in maniera casuale i due gruppi: così se si perde un soggetto A dal gruppo
sperimentale, basterà togliere il soggetto B del gruppo di controllo che nel pre-test ha ottenuto lo stesso
punteggio del soggetto A, ristabilendo gli equilibri.
● ESPERIMENTI CON GRUPPO PLACEBO ED ESPERIMENTI IN DOPPIO CIECO: i gruppi placebo sono utilizzati per
controllare il problema delle caratteristiche della richiesta, con cui ci si riferisce agli indizi ed altre informazioni
che i partecipanti usano per regolare il loro comportamento in uno studio psicologico (esempio: i soggetti che
per una ricerca bevono alcol, si aspettano di subire effetti tipici quali rilassamento e/o capogiri, e possono
quindi comportarsi coerentemente con queste aspettative, piuttosto che in risposta ai reali effetti dell’alcol,
provocando una distorsione del loro comportamento). Un placebo è letteralmente una sostanza che appare
come un farmaco, ma è in realtà inerte o inattiva, e i suoi effetti terapeutici si basano proprio sulle aspettative
che un paziente ha sull’effetto del (finto) farmaco.
Invece le distorsioni dovute alle aspettative degli sperimentatori vengono generalmente denominate effetto
sperimentatore, che si verifica quando trattano i soggetti dei diversi gruppi in maniera differente (per
esempio leggendo più lentamente al gruppo sperimentale che beve alcolici), oppure se fanno osservazioni
distorte (per esempio se sono più inclini a notare i farfugliamenti di chi beve, perché è quello che si aspettano
da un ubriaco). Per controllare sia le caratteristiche della richiesta che l’effetto sperimentatore, si può usare
la procedura in doppio cieco, in cui né i partecipanti né l’osservatore sono a conoscenza del trattamento
somministrato (esempio: i ricercatori mettono 10 farmaci veri e 10 placebo a caso in delle capsule, le
numerano, e le danno a caso ai partecipanti. Poiché nessuno sa chi ha preso cosa, nessuno ha delle
aspettative).
● L’EFFETTO PIGMALIONE/PROFEZIA AUTOAVVERANTE: Si tratta di una forma di suggestione psicologica per cui
le persone tendono a conformarsi all’immagine che altri individui hanno di loro, sia essa un’immagine positiva
che negativa (esempio – test dell’intelligenza: sottoposero alcuni bambini di una scuola elementare a un test
d’intelligenza. Dopo il test, in modo casuale, vennero selezionati alcuni bambini ai cui insegnanti fu fatto
credere che avessero un’intelligenza sopra la media. La suggestione fu tale che, quando l’anno successivo lo
sperimentatore si recò presso la scuola elementare, dovette constatare che, in effetti, il rendimento dei bambini
selezionati era molto migliorato e questo solo perché gli insegnanti li avevano influenzati positivamente con il
loro atteggiamento, inconsapevoli del fatto che fosse tutto legato alla suggestione).

ANALISI E INTERPRETAZIONE DEI RISULTATI SPERIMENTALI


L’analisi dei dati e la statistica giocano un ruolo importante sulle capacità dello sperimentatore di dimostrare che i
loro risultati supportano le conclusioni basate su quelle prove, ovvero sono empiricamente in grado di affermare che
la variabile indipendente abbia avuto un effetto sul comportamento. Bisogna quindi essere in grado di dimostrare
l’ipotesi di partenza. Il modo migliore per stabilire se i risultati di un esperimento siano attendibili è replicare
l’esperimento, ovvero ripeterne le procedure per vedere se si ottengono gli stessi risultati. Analisi dei dati e
statistica sono due soluzioni alternative alla replica.

Descrizione dei risultati


A seguito di un accurato controllo dei dati (le cui tecniche sono spiegate nel capitolo 12), bisogna descrivere cosa è
stato trovato; per questo si usa la statistica descrittiva. Le due forme più comuni sono:
● MEDIA: misura dalla tendenza centrale; corrisponde alla media aritmetica.
● DEVIAZIONE STANDARD: una misura della variabilità; riflette le differenze individuali tra i soggetti assegnati
casualmente ad un certo gruppo, e si confronta con le variazioni negli altri gruppi.
Ai ricercatori interessa anche quanto la variabili indipendente influenzi la dipendente: le misure dell’ampiezza
dell’effetto indicano appunto la forza della relazione tra la variabile indipendente e quella dipendente, e non
dipende dalle dimensioni del campione (al contrario della differenza tra le medie).
Una misura dell’ampiezza dell’effetto comunemente usata è la d di Cohen → che analizza le differenze tra le medie
di due gruppi rispetto alla variabilità media nell’esperimento. Cohen ha proposto che i valori d di 0,20 - 0,50 - 0,80
rappresentino rispettivamente piccoli, medi e ampi effetti della variabile indipendente.
Le misure dell’ampiezza dell’effetto sono anche usate nella meta-analisi, una sintesi quantitativa utilizzata per
riassumere i risultati di molti esperimenti, tra loro confrontabili, che hanno analizzato la stessa variabile
indipendente o dipendente. La meta-analisi è molto utile per valutare l’eterogeneità dei risultati e per individuare
fattori che possano spiegare le differenze riscontrate nei vari studi.
Conferma dei risultati
Lo scopo dei ricercatori è confermare che la variabile indipendente abbia prodotto una differenza nel
comportamento. Per fare ciò la statistica descrittiva non basta, quindi ci si affida anche alla statistica inferenziale
(ricorda che nonostante l’enorme utilità della statistica inferenziale, nulla può sostituire la replica come ultima
verifica dell’attendibilità di un risultato sperimentale), che permette ai ricercatori di verificare se le differenze tra le
medie dei gruppi siano dovute a un effetto della variabile indipendente e non al caso (variazione casuale).
Due tipi di statistica inferenziale:
1. SIGNIFICATIVITÀ DELL’IPOTESI NULLA (NHST): i ricercatori usano l’ipotesi nulla per determinare se le
differenze delle medie tra i gruppi in un esperimento siano maggiori delle differenze che ci si sarebbe
aspettati a causa di una semplice variazione casuale. Per farlo si parte dal presupposto che la variabile
indipendente non abbia avuto effetto, e che quindi la differenza osservata nell’esperimento sia dovuta al caso,
usando la probabilità che effettivamente quest’ultima condizione si sia verificata → se da ciò otteniamo un
risultato statisticamente significativo (= cioè quello che ha solo una piccola probabilità di accadere se l’ipotesi
nulla fosse vera), vuole dire che la differenza che abbiamo ottenuto dal nostro esperimento è più grande di
quella che ci saremmo aspettati se il risultato fosse dovuto solo alla variazione d’errore (cioè al caso). Il
risultato di un esperimento è in genere espresso in termini di differenze tra le medie delle condizioni
sperimentali.
Per conoscere la probabilità dei risultati, i ricercatori usano test di statistica inferenziale come:
a. t-test: utilizzato quando ci sono due livelli della variabile indipendente
b. F-test: utilizzato quando ci sono tre o più livelli della variabile indipendente
Ogni valore prodotto da questi due test è associato a un valore di probabilità quando viene assunta
l’ipotesi nulla. Il valore della probabilità può essere determinato una volta che il ricercatore abbia calcolato
il valore del test statistico. Viene giudicata statisticamente significativa una probabilità (p) inferiore a 5 su
100 (/ p < 0,05). Il valore di probabilità che i ricercatori usano per decidere che un risultato è
statisticamente significativo è definito livello di significatività, indicato dalla lettera greca alfa.
Tuttavia da questi test si ottiene una generica affermazione circa l’effetto della variabile indipendente. Per
avere informazioni più specifiche si usano gli intervalli di confidenza.
2. INTERVALLO DI CONFIDENZA: è un intervallo di valori intorno ad un campione statistico (per esempio la media
del campione) associato ad una probabilità specifica (generalmente del 95%) che il parametro scelto della
popolazione (per esempio la media della popolazione) sia stato catturato all’interno di quell’intervallo.
L’ampiezza dell’intervallo ci dice quanto sia precisa la stima (più la stime è ridotta meglio è). Possono anche
essere usati per confrontare le differenze tra le medie.
se gli intervalli si sovrappongono leggermente, dobbiamo ammettere la nostra incertezza sulla vera
differenza media e posporre il giudizio; se gli intervalli si sovrappongono in modo tale che la media di un
gruppo si trovi all’interno dell’intervallo di un altro gruppo, possiamo concludere che le medie delle
popolazioni non sono diverse. Quando invece gli intervalli non si sovrappongono, possiamo essere certi che
le medie delle popolazioni dei due gruppi sono diverse. (per gli esempi vai a pagina 215). Quindi
fondamentalmente il grado di sovrapposizione ci dice se le medie del campione valutano la media della
stessa popolazione o medie di popolazioni diverse.
Che cosa l’analisi non può dire
Non possiamo dire con certezza che la nostra v. indipendente abbia avuto oppure no un effetto. Bisogna imparare a
convivere con asserzioni probabilistiche. Non possiamo sapere se i nostri risultati avranno un valore pratico o
significativo.
Validità esterna dei risultati sperimentali
La validità esterna è la situazione in cui i risultati di uno studio possono essere generalizzati a popolazioni, condizioni
e situazioni diversi. La questione della validità esterna è molto discussa nel mondo dei ricercatori. In alcune ricerche
(per esempio le verifiche di una teoria), i ricercatori possono scegliere di dare più importanza alla validità interna;
altri invece scelgono di aumentare la validità esterna utilizzando il campionamento o la replica. (Per esempio Mook
(1983), afferma che un esperimento viene condotto per determinare se i soggetti “possano” essere indotti a
comportarsi in un certo modo, mentre il quesito se i soggetti si comportino “davvero” in un certo modo è secondario,
e quindi anche la questione della validità esterna). Gli esperimenti sul campo sono un modo per aumentare la
validità esterna di uno studi di ricerca e possono fornirci una conoscenza concreta. La validità esterna dei risultati
sperimentali può anche essere stabilita con una replica parziale, che dimostra che si osservano risultati sperimentali
simili quando vengono usate procedure sperimentali leggermente diverse. I ricercatori possono stabilire la validità
esterna dei loro risultati anche facendo delle repliche teoriche: essi infatti cercano di generalizzare i risultati relativi
alle relazioni teoriche tra variabili piuttosto che alle condizioni specifiche, manipolazioni, situazioni e campioni.
Disegno a gruppi appaiati
Il disegno a gruppi casuali necessita di campioni sufficientemente grandi da assicurare che le differenze individuali
siano mediamente distribuite nei vari gruppi. Quando invece i soggetti a disposizione sono troppi pochi per attuare
un’assegnazione casuale, si può utilizzare un disegno a gruppi appaiati per creare gruppi equivalenti. La logica dei
gruppi appaiati è la stessa di quelli casuali, ma essi si formano non a partire da un’assegnazione casuale, ma
attraverso l’abbinamento (/appaiamento) tra soggetti. L’abbinamento migliore è quello che impiega lo stesso
compito che sarà usato nell’esperimento (esempio: se faccio uno studio sulla pressione sanguigna e ho pochi
partecipanti a disposizione, abbinerò i partecipanti che hanno una pressione molto simile se non uguale). Dopo che i
soggetti sono appaiati, dovrebbero poi essere assegnati casualmente alle condizioni della variabile indipendente.
Disegno a gruppi naturali
Per utilizzare i disegni a gruppi naturali vengono selezionate, piuttosto che manipolate, variabili soggettive, chiamate
variabili individuali (/variabile soggettiva /variabile a gruppi naturali): esse sono delle caratteristiche o tratti che
variano sistematicamente in un individuo (esempio: livello della depressione, età, intelligenza, genere ecc.). Queste
variabili non possono essere controllate, e quindi i ricercatori selezionano sistematicamente individui che
appartengono naturalmente ad un certo gruppo. I disegni a gruppi naturali (considerati dei quasi-esperimenti)
rappresentano un tipo di ricerca correlazionale in cui i ricercatori cercano covariazioni tra le variabili che
differenziano i gruppi naturali e le variabili dipendenti (quindi sono sempre variabili indipendenti, ma i cui livelli sono
già presenti per natura, e ti devi quindi limitare a sceglierli). Come una qualsiasi ricerca correlazionale, non si
possono fare inferenze causali. I quasi-esperimenti sono anche detti ex post facto perché l’esperimento viene
eseguito dopo che i gruppi sono stati formati. Come per i veri esperimenti:
3. Si possono attuare procedure specifiche per la verifica di ipotesi
4. Si possono includere alcuni controlli sulle minacce alla validità interna
Disegni sperimentali da evitare
Alcuni disegni sperimentali sono deboli poiché non controllano eventuali spiegazioni alternative dei risultati o fattori
che ne minacciano la validità
5. Disegni con un gruppo e una prova: I soggetti sono sottoposti a trattamento e poi esaminati riguardo a
qualche variabile dipendente. Anche se i soggetti riportano effetti positivi, non c’è nessuna misura di come
stessero prima del trattamento nessuna dimostrazione che sia stato il trattamento a portare benefici (effetto
novità)
6. Disegni con un gruppo e due prove: Si ottiene una misura della v. dipendente prima del trattamento e una
dopo il trattamento. È un disegno migliore di quello con un gruppo e una prova. Anche se i soggetti riportano
effetti positivi: Nessuna dimostrazione che sia stato il trattamento a portare benefici (effetto novità).

Capitolo 8- Disegni a misure ripetute


Disegni a misure ripetute
Finora abbiamo preso in considerazione in cui i soggetti partecipano ad una sola delle condizioni. Ma in molti
esperimenti è più efficace che ogni soggetto partecipi a tutte le condizioni di un esperimento. Questi disegni sono
chiamati disegni a misure ripetute (/disegni intra-soggetto/within subjects), in cui i soggetti servono come controllo
di loro stessi. È molto utile perché i partecipanti possono migliorare con la pratica e si abituano alla situazione
sperimentale, rilassandosi di più. Possono anche peggiorare. I cambiamenti temporanei che avvengono
individualmente durante l’esperimento sono chiamati effetti dell’ordine.
Perché utilizzare i disegni a misure ripetute
I ricercatori scelgono di usare il disegno a misure ripetute per:
● 1. Condurre un esperimento quando sono disponibili pochi partecipanti (per esempio quando faccio un
esperimento con bambini, anziani, persone con danni cerebrali ecc.).
● 2. Condurre l’esperimento in maniera più efficiente
● 3. Aumentare la sensibilità dell’esperimento: con sensibilità di un esperimento ci si riferisce all’abilità nel
rilevare l’effetto della variabile indipendente, anche se è molto piccolo (infatti spesso negli esperimenti si
genera una varianza d’errore dovuta al fatto che non tutte le persone rispondono allo stesso modo).
● 4. Fare un esperimento in alcune aree della ricerca psicologica che ne richiedono l’uso: tipico è lo studio dei
cambiamenti del comportamento nel corso del tempo (esempio: esperimenti sull’apprendimento). Aree di
ricerca come la psicofisica o lo scaling ne fanno molto uso.
I ruolo degli effetti dell’ordine nei disegni a misure ripetute
Definire gli effetti dell’ordine
In un disegno a misure ripetute, la variabili inerenti alle differenze individuali non possono rappresentare un fattore
confondente nei disegni a misure ripetute, poiché gli stessi individui partecipano a ogni condizione (/livello) della
variabile indipendente. In questi disegni la principale minaccia alla validità interna i cambiamenti di comportamento
nel periodo durante il quale i soggetti si sottopongono alle diverse condizioni previste nell’esperimento, a causa della
ripetizione della misura (e non quindi della variabile indipendente). Tali cambiamenti sono definiti effetti dell’ordine
(che derivano dalla posizione(ordinale) delle condizioni nell’esperimento, indipendentemente dalla specificità delle
condizioni stesse) o che minacciano la validità interna quando le diverse condizioni della variabile indipendente sono
presentate nello stesso ordine a tutti i partecipanti. In generale gli effetti dell’ordine si controllano facendo in modo
che ciascuna condizione capiti con la stessa frequenza in ciascuna posizione ordinale. Le tecniche specifiche di
bilanciamento degli effetti d’ordine, chiamate controbilanciamento, differiscono in base al tipo di disegno a misure
ripetute adottato:
● Disegno completo: gli effetti dell’ordine sono bilanciati per ogni partecipante, somministrando varie volte le
condizioni a ogni partecipante e utilizzando ogni volta ordini diversi. Ogni partecipante può dunque essere
considerato un esperimento “completo”.
● Disegno incompleto: ogni condizione viene somministrata ad ogni partecipante una sola volta, e l’ordine di
somministrazione delle condizioni viene variato tra i partecipanti invece che per ogni partecipante
Indipendentemente dal metodo usato, lo scopo primario del disegno a misure ripetute è il controllo degli effetti
dell’ordine.
Bilanciare gli effetti dell’ordine nel disegno completo
I ricercatori hanno due scelte nel decidere come organizzare l’ordine in cui somministrare i trattamenti in un disegno
completo:
● Randomizzazione a blocchi: ( già spiegata nei capitoli precedenti) in genere il numero di blocchi in uno
schema a blocchi randomizzati è uguale al numero di volte in cui ogni condizione viene somministrata, e la
grandezza di ogni blocco è uguale al numero di condizioni nell’esperimento (esempio: nella ricerca di
Sackeim, Gur, Saucy, 1978, somministravano 54 diapositive: 18 fotomontaggi sinistri, 18 originali, 18
fotomontaggi destri. Dunque poiché hanno presentato ogni condizione 18 volte, avremo 18 blocchi, e ogni
blocco sarà grande 3, perché tre sono le condizioni).
Nonostante in questo modo gli effetti d’ordine vengano distribuiti mediamente (cioè non si ripercuotono
maggiormente su una condizione rispetto ad un’altra), è necessario ripetere ogni condizione molte volte, e
questo non sempre è possibile. In tal caso ci si affida al controbilanciamento AB-BA
● Controbilanciamento AB-BA: viene presentata una sequenza casuale di tutte le condizioni (AB, quando ci
sono solo due condizioni) seguita dalla sequenza inversa (BA). Tuttavia esso può essere utilizzato solo
quando gli effetti dell’ordine sono lineari (cioè all’aumentare del numero di prove ripetute l’effetto dovuto
alla pratica aumenta proporzionalmente). Per farci un’idea dell’influenza degli effetti dell’ordine possiamo
sommare i valori per ogni condizione. Tuttavia questo metodo è inefficace se gli effetti dell’ordine non sono
lineari (in particolare quando gli effetti dell’ordine comportano bruschi cambiamenti iniziali seguiti da
successivi piccoli cambiamenti).
Bilanciare gli effetti dell’ordine nel disegno incompleto
Nel disegno incompleto, a ogni partecipante viene somministrato lo stesso trattamento una sola volta. I risultati per
ogni partecipante, quindi, non possono essere interpretati, perché i livelli della variabile indipendente per ogni
partecipante sono perfettamente confusi con l’ordine in cui questi livelli vengono presentati. Gli effetti sono
bilanciati tra i soggetti piuttosto che per ogni soggetto. Le regola di base del bilanciamento degli effetti dell’ordine
nel disegno incompleto prevede che ogni condizione dell’esperimento debba essere ugualmente frequente in ogni
posizione ordinale (prima, seconda ecc.). ci sono due metodi per bilanciare gli effetti dell’ordine:
● Tutti gli ordini possibili delle condizioni ( che è la tecnica privilegiata) (esempio: con due condizioni, AB, ci
sono due possibili ordini, AB-BA; con tre condizioni, ABC, ci sono sei ordini possibili, ABC ACB BAC BCA CAB
CBA e così via). In genere ci sono N! (in cui il punto esclamativo sta per “fattoriale”) ordini possibili con N
condizioni, dove N! equivale a N(N-1)(N-2)…(N-(N-1))). (quindi nell’esempio con tre condizioni: N! equivale a
6, cioè gli ordini possibili, (3!(3 X 2 X 1 = 6). Questo metodo è limitato agli esperimenti con 4 o meno
condizioni. Perché questa tecnica sia efficace, è essenziale che almeno un partecipante sia esaminato con
ognuno degli ordini possibili delle condizioni, e quindi c’è bisogno di tanti partecipanti quanti sono gli ordini.
● Ordini selezionati: a volte non sono praticabili tutti gli ordini possibili (esempio: quando ci sono più di 4
condizioni, tipo 6 condizioni, che avrebbero 720 ordini possibili). Gli effetti dell’ordine possono essere
bilanciati usando solo alcuni fra tutti gli ordini possibili. Il numero di quelli scelti, chiamati appunto ordini
selezionati, sarà sempre un multiplo del numero di condizioni dell’esperimento. Ci sono due metodi per
selezionare degli ordini specifici:
⮚ Quadrato latino: nell’ordine di presentazione, ogni condizione appare esattamente una volta in
ciascuna posizione ordinale. Inoltre, nel quadrato latino, ogni condizione precede e segue ogni altra
condizione almeno una volta.
Regole per la costruzione
1. Ordinare casualmente le condizioni e numerarle  B, A, D, C. B = 1, A = 2, D = 3, C = 4.
2. Per generare le prima combinazione usare la regola «1, 2, N, 3, N-1, 4, N-2, 5, N-3, 6 ecc…..  B A C
D
3. Per generare la seconda combinazione, aggiungere 1 ad ogni numero della prima combinazione,
dove N+1 = 1  2, 3, 1, 4 = A D B C
4. Per generare la terza combinazione, aggiungere 1 ad ogni numero della seconda combinazione,
dove N+1 = 1  3, 4, 2, 1 = D C A B
5. Per generare la quarta combinazione, aggiungere 1 ad ogni numero della terza combinazione,
dove N+1 = 1  4, 1, 3, 2 = C B D A
⮚ Ordine di inizio casuale con rotazione: si comincia con un ordine casuale delle condizioni e poi si
ruota questa sequenza sistematicamente per ogni condizione, spostandola ogni volta di una
posizione a sinistra. Come il quadrato latino, ogni condizione appare in ciascuna posizione ordinale,
ma al contrario la rotazione sistemica fa sì che ogni condizione preceda sempre e sempre segua le
stesse condizioni.
Indipendentemente dalla tecnica utilizzata, importante rimane che i partecipanti dovrebbero essere
assegnati casualmente a sequenze diverse.
Analisi dei dati nei disegni a misure ripetute
Descrizione dei risultati
In un disegno incompleto, ogni partecipante fornisce un punteggio in ogni condizione, poi vengono raccolti insieme e
possono essere calcolate la media e la deviazione standard per descrivere la prestazione in ogni condizione. Invece
nel disegno completo bisogna fare prima un passaggio ulteriore: prima di riassumere i risultati, si deve calcolare il
punteggio di ogni partecipante in ogni condizione ( perché ogni partecipante viene esaminato più di una volta per
ogni condizione). La media riassumono le prestazioni di un gruppo, come avevamo già detto, tuttavia può anche
essere usata per rappresentare la prestazione di una persona quando questa prestazione è una media tra prove o
test. Al termine uso la statistica descrittiva per riassumere la prestazione di tutti i partecipanti per ogni condizione.
Conferma dei risultati
Le procedure generali e la logica utilizzate per analizzare i dati di un esperimento a disegno a misure ripetute sono le
stesse per quelle a disegno a gruppi casuali: i ricercatori impiegano la verifica dell’ipotesi nulla e gli intervalli di
confidenza per decidere se la variabile indipendente abbia prodotto un effetto sul comportamento. Una
caratteristica distintiva è invece il modo in cui viene stimata la varianza d’errore, che nei disegni a misure ripetute
vengono eliminate nell’analisi.
Il problema dell’effetto della sequenza
L’effetto della sequenza si presenta quando la prestazione in una condizione differisce a seconda della condizione
che la precede (cioè gli effetti di una condizione persistono e influenzano le prestazione nelle condizioni successive).
Ciò è una minaccia della validità interna, perché diventa impossibile se ci siano vere differenze tra le condizioni.
Sottostimando le differenze tra condizioni, riduce anche la validità esterna. Perciò, se i ricercatori si trovano davanti
l’eventualità che si presenti un effetto della sequenza, dovrebbero scegliere di rinunciare al disegno a misure
ripetute e adottare un disegno a gruppi indipendenti (soprattutto quando il disegno a misure ripetute prevede di
dare istruzioni diverse per ogni condizione). L’effetto della sequenza può essere identificato confrontando i risultati
della stessa variabile indipendente quando viene esaminata in un disegno a misure ripetute e in un disegno a gruppi
casuali.
Capitolo 9- Disegni fattoriali
Disegni fattoriali
I ricercatori spesso usano disegni complessi in cui due o più variabili indipendenti vengono studiate simultaneamente
in un esperimento. Tali disegni di ricerca sono chiamati disegni fattoriali, perché implicano la combinazione
fattoriale di variabili indipendenti. La combinazione fattoriale comporta l’abbinamento di ciascun livello di una
variabile indipendente con ciascun livello di una seconda variabile indipendente. Questo rende possibile determinare
l’effetto di ogni variabili indipendente da sola (effetto principale) e l’effetto delle variabili indipendenti in
combinazione (effetto di interazione).
Descrizione degli effetti in un disegno fattoriale
I ricercatori utilizzano i disegni fattoriali per studiare gli effetti di due o più variabili indipendenti in un esperimento.
Nei disegni fattoriali, ogni variabile indipendente può essere studiata con un disegno a gruppi indipendenti o con un
disegno a misure ripetute. Quando un disegno fattoriale ha una variabile di un disegno e un’altra dell’altro, viene
detto disegno misto. Il più semplice è il disegno 2 X 2: due variabili indipendenti, ciascuna delle quali con due livelli.
Il numero di condizioni in un disegno fattoriale può essere calcolato moltiplicando il numero dei livelli delle variabili
indipendenti (per esempio, nel livello 2 X 2, basterà fare due per due, quindi 4; nel disegno 3 X 3, 9, in un disegno 3 X
4 X 2 = 24, e così via). Il vantaggio principale dei disegni fattoriali è la possibilità di identificare le interazioni tra le
variabili indipendenti.
Gli effetti principali e gli effetti di interazione
L’effetto complessivo di ogni variabile indipendente in un disegno fattoriale prende il nome di effetto principale, e
rappresenta le differenze tra le prestazioni medie di ogni livello di una variabile indipendente a prescindere dai livelli
dell’altra variabile indipendente. L’effetto principale non si riferisce all’effetto più importante di una variabile ma
all’effetto medio di una variabile in tutti i valori (livelli) di un’altra (o altre) variabili. L’effetto principale ci dice che tra
due (o più) condizioni di un fattore c’è una differenza (indipendentemente dai valori dell’altro fattore), ma non ci
dice in quale direzione. Per capire la direzione della differenza si ricorre ai test post hoc, che sono semplici confronti
a coppie tra le medie delle condizioni. Le medie di un effetto principale rappresentano la prestazione complessiva
per ciascun livello di una particolare variabile indipendente senza tener conto dei livelli dell’altra variabile
indipendente. Quando due variabili indipendenti interagiscono, sappiamo che entrambe le variabili, insieme,
influenzano la prestazione dei partecipanti nella variabile dipendente. Dunque un effetto di interazione si presenta
quando l’effetto di una variabile indipendente differisce a seconda del livello di una seconda variabile indipendente.
E’ possibile avere un’interazione anche se una delle due variabili indipendenti non ha un effetto principale, o anche
se nessuna delle due ha un effetto principale. Definiamo Interazione antagonista quando le due variabili
indipendenti tendono ad invertire gli effetti l’una sull’altra (e sul grafico appaiono come una X). Un effetto di
interazione si vede più facilmente quando le medie per le condizioni vengono rappresentate in modo grafico (e non
ha importanza l’ordine delle variabili, cioè l’una ha influenza sull’altra e viceversa).
Descrizione degli effetti di interazione
Le prove per gli effetti di interazioni possono essere identificate usando le statistiche descrittive, riportate
sinteticamente nelle
● Tabelle: sono veramente utili quando è necessario conoscere valori esatti per ogni condizioni
dell’esperimento. Per sapere se c’è o meno la presenza di un effetto di interazione, si usa il metodo
sottrattivo, in cui si confrontano le differenze tra le medie di ogni riga o colonna di una tabella. Se le
differenze sono diverse, allora è probabile che ci sia un effetto di interazione.
● Grafici a barre: utili per mostrare le tendenze dei risultati senza enfatizzare i valori esatti
● Grafici a linee: utile perché l’effetto di interazione ha un’ottima visibilità a livello grafico. Le linee non
parallele nel grafico indicano un effetto di interazione: se le linee sono parallele, allora non c’è un effetto di
interazione.
(come e quando scegliere quale di questi tre metodi usare, viene specificato nel capitolo 13 “La comunicazione in
Psicologia”). Se ci sono tre o più livelli, è meglio l’uso dei grafici.
Disegni fattoriali con tre variabili indipendenti
Il potere dei disegni fattoriali aumenta quando si passa da due a tre variabili. Permette infatti di ottenere quattro
effetti di interazioni diversi: se le variabili fossero A B C, le effetti potrebbero essere A X B, A X C, B X C, A X B X C.
Quando in un disegno fattoriale ci sono tre variabili indipendenti, si presenta un effetto di interazione a tre vie (o
triplo) quando l’interazione di due delle variabili indipendenti differisce a seconda del livello della terza variabile
indipendente.
Analisi dei disegni fattoriali
In un disegno fattoriale con due variabili indipendenti, la statistica inferenziale viene impiegata per esaminare tre
effetti, ovvero tre fonti di variazione sistematica: due potenziali effetti principali e un possibile effetto di
interazione. Per interpretare i risultati derivati dalla statistica inferenziale, si usa la statistica descrittiva, in
particolare per determinare se un effetto si interazione si sia di fatto verificato. Possono essere necessarie ulteriori
analisi, come gli intervalli di confidenza.
Piano di analisi dei dati quando l’effetto di interazione è significativo
Se l’analisi di un disegno fattoriale rivela la presenza di un effetto di interazione statisticamente significativo, la fonte
dell’effetto di un’interazione viene identificata usando le analisi degli effetti semplici e il confronto di due medie. Un
effetto semplice è l’effetto di una variabile indipendente a un livello di una seconda variabile indipendente. Quando
vengono prese in considerazione tre o più medie in un effetto semplice, si possono confrontare le medie due alla
volta per identificare la fonte dell’effetto semplice (tutte queste cose vengono spiegate bene nel capitolo 12). Dopo
aver analizzato l’effetto di interazione, si può anche analizzare gli effetti principali di ogni variabile indipendente, ma
risulta essere molto meno significativo e interessante a questo punto.
Piano di analisi dei dati quando l’effetto di interazione non è significativo
Se l’analisi di un disegno fattoriale indica che l’effetto di interazione tra le variabili indipendenti non è
statisticamente significativo, il passaggio successivo nel piano di analisi è determinare se gli effetti principali delle
variabili siano statisticamente significativi. La fonte di un effetto principale statisticamente significativo può essere
specificata con più precisione effettuando i confronti tra due medie o usando gli intervalli di confidenza per
confrontare le medie due a due.
Interpretazione degli effetti di interazione
Effetti di interazione e verifica della teoria
Le teorie spesso predicono che due o più variabili indipendenti interagiscono per influenzare il comportamento. I
disegni fattoriali aumentano la possibilità dei ricercatori di verificare le teorie, poiché possono analizzare sai gli
effetti principali sia degli effetti di interazione. Tanto più le teorie psicologiche sono complesse (come quelle di
identità sociale e pregiudizio), tanto più è alta la probabilità che si generino risultati contraddittori. Un approccio
comune per risolvere i risultati contraddittori è quello di includere nel disegno di ricerca variabili indipendenti che
controllino le potenziali variabili intervenienti. In particolare grazie agli effetti di interazione, è possibile rintracciare
le ragioni di tali risultati apparentemente contraddittori.
Effetti di interazione e validità esterna
Quando non c’è l’effetto di interazione in un disegno fattoriale, gli effetti di ogni variabile indipendente possono
essere generalizzati tra i livelli dell’altra variabile indipendente, aumentando così la validità esterna delle variabili
indipendenti. La presenza di un effetto di interazione identifica i limiti per la validità esterna di un risultato,
specificando le condizioni in cui avviene un effetto di una variabile indipendente. Questo quindi ci permette di
stabilire se una variabile indipendente è rilevante, cioè influenza direttamente il comportamento (determina un
effetto principale) o produce un effetto di interazione quando studiata in combinazione con una seconda variabile
indipendente. Per questo motivo bisogna essere cauti nel definire una certa variabile indipendente come irrilevante:
anche se non ha effetto in un esperimento, non possiamo assumere che questa variabile indipendente non avrebbe
un effetto se fossero testati livelli diversi della variabile indipendente (oppure anche se non ha avuto effetto, si
sarebbe potuto osservare un effetto con variabili dipendenti diverse.
Effetti di interazioni ed effetti ceiling e floor
Ogni volta che la prestazione raggiunge il massimo risultato possibile in qualsiasi condizione di un esperimento, c’è il
pericolo dell’effetto ceiling (=effetto soffitto): cioè è il livello al di sopra del quale la varianza di una variabile
indipendente non è più misurabile, creando quindi un “massimale”, ovvero un punto oltre il quale i valori al di sopra
di quel punto non sono compresi tra i valori della variabile indipendente; quando al contrario la prestazione il
minimo risultato possibile (per esempio zero errori in un test) si ha l’effetto floor (=effetto pavimento). Questi due
effetti rendono il risultato non interpretabile. I ricercatori possono evitare questi errori selezionando variabili
dipendenti che abbiano un’ampia gamma di punteggi per misurare le differenze di prestazione nelle diverse
condizioni.
Effetti di interazione e disegno a gruppi naturali
I ricercatori usano i disegni fattoriali per potere trarre inferenze causali sulle variabili dei gruppi naturali quando
verificano una teoria sul perché i gruppi naturali differiscono. Infatti va ricordato che le differenze individuali studiate
nel disegno a gruppi naturali presentano generalmente fattori confondenti, e infatti di fatto non possono essere
fatte delle inferenze causali. I tre passaggi necessari per poter trarre un’inferenza causale con una variabile dei
gruppi naturali sono:
● 1. Sviluppare una teoria che spieghi il perché dovrebbe esserci una differenza nelle prestazioni di gruppi
naturali
● 2. Identificare una variabile rilevante da manipolare che dimostri il processo teorizzato
● 3. Verificare l’effetto di interazione tra la variabile manipolata e la variabile individuale. Perciò la variabile
indipendente è applicata a entrambi i gruppi naturali.
Capitolo 10- Studio del caso e disegni sperimentali su singolo soggetto
Studio di caso e disegni sperimentali su singolo soggetto
Si tratta di disegni che, a differenza di quelli studiati fino ad ora, enfatizzano lo studio di un singolo individuo. I due
disegni in questione sono lo studio del caso e il disegno su singolo soggetto.
Metodo per lo studio del caso
Caratteristiche
Uno studio di caso è una descrizione e un’analisi approfondita di un singolo individuo. I dati vengono ottenuti da
varie fonti: interviste, osservazione naturalistica ecc. Gli studi di caso costituiscono una fonte potenzialmente ricca di
informazioni sul comportamento normale e anomalo di un individuo. Una caratteristica fondamentale degli studi di
caso è che spesso mancano di un alto grado di controllo, senza cui è difficile trarre delle inferenze valide (al contrario
nei disegni sperimentali su singolo soggetto c’è un elevato controllo).
Vantaggi del metodo di studio di caso
Gli studi del caso forniscono nuove idee ed ipotesi, opportunità per sviluppare nuove tecniche cliniche e la possibilità
di studiare fenomeni rari (esempio: abilità mnemoniche eccezionali). Inoltre le teorie scientifiche possono essere
confutate quando il comportamento di un singolo caso contraddice una preposizione generale o un principio
universalmente accettato. Inoltre le prove provenienti dallo studio di un singolo caso possono fornire un supporto
sperimentale ad una teoria psicologica (anche se non possono fornire prove conclusive, ma solo un supporto).
Scopo della psicologia è quello di stabilire ampie generalizzazioni, leggi universali da applicare ad un’ampia
popolazione. Per questo motivo spesso la ricerca psicologica usa un approccio nomotetico, che tenta di stabilire
ampie generalizzazioni, coinvolgendo grandi numeri di partecipanti, privilegiando in particolare la prestazione tipica
di un gruppo. Alcuni studiosi, tra cui Allport (1961), ritengono che sia invece più importante il singolo individuo, e si
affidano quindi ad un approccio idiografico, cioè lo studio intensivo di un singolo individuo, con un’enfasi sulla sua
unicità e irrepetibilità.
Svantaggi del metodo dello studio di caso
I ricercatori non riescono a trarre valide inferenze causali usando il metodo dello studio di caso, perché le variabili
estranee non sono controllate (c’è infatti un basso grado di controllo), e possono essere applicati simultaneamente
vari trattamenti. La distorsione dell’osservatore e le distorsioni nella raccolta dei dati possono portare a
interpretazioni non corrette dei risultati degli studi di caso (perché spesso il terapeuta osserva il comportamento del
cliente e partecipa al processo terapeutico, cosa che potrebbe portarlo ad essere di parte). Un altro limite serio di
questo metodo riguarda la validità esterna: non è facile generalizzare questi risultati. Infatti la possibilità di
generalizzare i risultati di uno studio di caso dipende dalla variabilità all’interno della popolazione da cui il caso è
stato selezionato; alcune caratteristiche (per esempio la personalità) variano più di altre (per esempio l’acuità visiva)
tra gli individui.
Pensiero critico sulle affermazioni basate sullo studio di caso
Può essere utile essere consapevoli dei limiti del metodo dello studio di caso quando si valutano le affermazioni delle
persone sull’efficacia di un particolare trattamento.
Disegni sperimentali su singolo soggetto (small-n)
Nell’analisi comportamentale applicata, i metodi sviluppati all’interno dell’analisi sperimentale del comportamento
sono applicati a problemi socialmente rilevanti.
Caratteristiche degli esperimenti su singolo soggetto
I ricercatori, negli esperimenti su singolo soggetto, manipolano una variabile indipendente, ottenendo così un
controllo più rigoroso rispetto agli studi di caso. Si focalizza sull’esame del cambiamento del comportamento in un
individuo. La prima fase di un esperimento su singolo soggetto è in genere un periodo di osservazione, o fase di
baseline, che si svolge prima di qualsiasi trattamento. Così si può descrivere il comportamento, e permette ai
ricercatori di predire come sarà il comportamento in futuro nel caso in cui non venga effettuato alcun trattamento. Il
comportamento registrato prima dell’intervento (baseline) e quello successivo all’intervento (trattamento) vengono
confrontati osservando le differenze fra le osservazioni registrate.
Disegni sperimentali specifici
I due disegni sperimentali su singolo soggetto più diffusi sono:
● Il disegno AB-AB: i ricercatori lo usano per dimostrare che il comportamento cambia sistematicamente
quando le condizioni non trattamento (A) e trattamento (B) si alternano. Poiché il trattamento viene
interrotto durante la seconda fase A, è probabile che a questo punto ogni miglioramento nel
comportamento si inverta (infatti questo disegno è anche chiamato disegno inverso). Se togliendo e
aggiungendo il trattamento il comportamento cambia in maniera sistematica, possono concludere che il
trattamento causa il cambiamento del comportamento. Chiaramente se quando si interrompe il trattamento
il comportamento non si inverte, diventa difficile interpretare l’effetto causale. Inoltre con questo metodo
possono sorgere dei problemi etici (per esempio se il trattamento ha dei risvolti benefici per il
comportamento della persona, è etico interromperlo solo per verificare una teoria?).
● Il disegno a baseline multiple: questo non interrompe il trattamento come nel disegno AB-AB. Questo
disegno dimostra l’effetto di un trattamento mostrando che i comportamenti in più di una baseline
cambiano in seguito all’introduzione di un trattamento. Le baseline multiple possono essere osservate tra:
⮚ 1. Tra individui: le baseline vengono dapprima stabilite per i diversi individui. Quando il
comportamento di ogni individuo è stabilizzato, viene introdotto un intervento per un individuo alla
volta, e in tempi diversi per ogni individuo
⮚ 2. Tra comportamenti: un trattamento è diretto prima ad un comportamento, poi ad un altro e così
via. La prova di relazione causale si ottiene se la prestazione cambia per ogni comportamento
immediatamente dopo aver introdotto il trattamento.
⮚ 3. Tra situazioni: vengono stabilite due o più baseline per un comportamento dell’individuo tra
situazioni diverse.
Il problema è legato a quante baseline siano necessarie. Il minimo indispensabile sono ovviamente due
baseline, ma in genere sono considerate inadeguate. Se ne raccomandano dunque tre o quattro. Inoltre
sorgono problemi quando i cambiamenti nel comportamento si manifestano in una baseline prima che il
trattamento sia somministrato, anche se ancora non si sa con certezza l’origine di questi cambiamenti. E un
altro problema si presenta quando i cambiamenti in un comportamento si generalizzano ad altri
comportamenti o situazioni. In questo caso si può unicamente prevedere questa situazione, e prevenirla,
scegliendo di modificare o abbandonare i disegni a baseline multiple.
Problemi e limiti comuni a tutti i disegni sperimentali su singolo soggetto
Interpretare l’effetto di un trattamento può essere difficile se la fase di baseline mostra eccessiva variabilità o
tendenze crescenti o decrescenti nel comportamento. Per risolverlo, si può cercare i fattori che potrebbero aver
prodotto una tale variabilità, e rimuoverli. Oppure si può provare ad aspettare che il comportamento si stabilizzi.
Una critica frequente ai disegni sperimentali su singolo soggetto è che i risultati hanno una validità esterna limitata.
Anche se è logico immaginarsi perché la sua validità esterna possa sembrare così limitata, in realtà non lo è così
tanto come sembra. Infatti poiché i trattamenti in genere producono i cambiamenti sostanziali nel comportamento,
questi cambiamenti possono spesso essere facilmente replicati in individui diversi. Anche l’uso di piccoli gruppi di
soggetti (nella ricerca small-n), può fornire una prova immediata della possibilità di generalizzare ad altri soggetti
Capitolo 11- La validità della ricerca nei veri esperimenti e quasi esperimenti in contesto naturale
La validità della ricerca nei veri esperimenti e quasi esperimenti in contesti naturali
In questo capitolo si descriveranno gli ostacoli che si possono presentare nel fare ricerca in ambienti naturali (che si
fanno principalmente per verificare la validità esterna di un risultato di laboratorio), e i modi in cui superare questi
ostacoli in modo che i veri esperimenti vengano utilizzati ogni qualvolta sia possibile. Tuttavia qualche volta i veri
esperimenti non sono fattibili al di fuori del laboratorio. In questi casi, si è costretti a prendere in considerazione le
procedure sperimentali che si avvicinano alle condizioni degli esperimenti di laboratorio. Verranno analizzate varie di
queste tecniche quasi sperimentali.
Veri esperimenti
Caratteristiche dei veri esperimenti
Nei veri esperimenti i ricercatori manipolano una variabile indipendente che costituisce il trattamento e la
condizione (o le condizioni) di controllo, ed esercitano un alto grado di controllo (soprattutto attraverso
l’assegnazione casuale alle condizioni), cioè che i veri esperimenti sono caratterizzati da un confronto appropriato,
che avviene tra due gruppi comparabili, che sono trattati esattamente allo stesso modo, eccetto che per la variabili
di interesse.
Ostacoli alla conduzione di veri esperimenti in contesti naturali
I ricercatori possono avere delle difficoltà a ottenere i permessi per condurre dei veri esperimenti in contesti naturali
e ad accedere ai partecipanti (per esempio se devo operare in una scuola devo prima di tutto ottenere il permesso del
preside, e nel caso di minorenni, anche dei genitori). Inoltre a volte l’assegnazione casuale può essere considerata
ingiusta, perché le persone che finiscono nel gruppo di controllo vengono private della possibilità di beneficiare di un
trattamento che in teoria dovrebbe portare a dei benefici; rimane tuttavia il modo migliore e più equo per
determinare l’efficacia di un nuovo trattamento (anche se ci sono casi in cui è eticamente impossibile usarla, come
per esempio nell’introduzione di nuovi trattamenti medici).
Minacce alla validità interna controllate dai veri esperimenti
Le minacce alla validità interna sono fattori confondenti che si prestano come plausibili spiegazioni alternative per un
risultato di ricerca. Campbell e Stanley (1966) hanno identificato otto classi di fattori confondenti che hanno
denominato, appunto, minacce alla validità interna:
● 1. Effetti dovuti alla storia: quando gli esperimenti avvengono in un ambiente naturale, a differenza del
laboratorio, il ricercatore può non essere in grado di mantenere un elevato grado di controllo, perché
potrebbe verificarsi un evento al di fuori del suo controllo che potrebbe produrre dei cambiamenti nel
comportamento.
● 2. Effetti dovuti alla maturazione: il cambiamento di una persona associato al passare del tempo è chiamato
maturazione (diventare più vecchi, diventare più maturi).
● 3. Effetti dovuti alle prove: fare una prova ha in genere effetto sulle prove successive (per esempio se faccio
un pre-test e un test, il partecipante potrebbe provare familiarità con l’esperimento).
● 4. Effetti dovuti alla strumentazione: i cambiamenti nel tempo possono anche riguardare gli strumenti usati
per misurare la prestazione dei partecipanti (per esempio la distorsione dell’osservatore può derivare dalla
fatica o dalle aspettative).
● 5. Effetti legati alla regressione verso la media: la regressione verso la media costituisce un problema
quando i soggetti vengono selezionati per l’esperimento in base ai loro punteggi “estremi" (cioè il più alto o
basso punteggio possibile): i punteggi che sono estremi in un test possono non esserlo in un secondo test. È
esperienza comune che se un test va particolarmente male o bene, nel test successivo è probabile che non si
riconfermi tale punteggio estremo, ma che il punteggio rientri in un range medio.
● 6. Effetti legati alla perdita dei soggetti: la minaccia alla validità interna del fattore perdita dei soggetti
poggia sul presupposto che la perdita dei partecipanti cambi la natura del gruppo formatosi prima del
trattamento, falsando l’equivalenza dei gruppi stabiliti con un’assegnazione casuale.
● 7. Effetti legati alla selezione: i soggetti del gruppo in trattamento possono differire da quelli del gruppo di
controllo in vari modi; nonostante in laboratorio sia possibile bilanciare le differenze, questo risulta più
difficile in un ambiente naturale
● 8. Effetti ulteriori della selezione: gli effetti legati alla selezione sono particolarmente preoccupanti perché
possono combinarsi con altri degli effetti sopra citati:
⮚ Effetto congiunto di selezione e maturazione: spesso si attribuisce l’errore alla selezione, ma spesso
è invece la maturazione
⮚ Effetto congiunto di selezione e storia: si presenta quando gli eventi che avvengono nel tempo
hanno in un gruppo di partecipanti un effetto diverso rispetto a quello che hanno nell’altro gruppo.
⮚ Effetto congiunto di selezione e strumentazione: potrebbe presentarsi se uno strumento fosse
relativamente più sensibile ai cambiamenti nella prestazione di un gruppo che ai cambiamenti di un
altro. Questo avviene quando si presentano gli effetti ceiling e floor: tali effetti sono presenti quando
un gruppo inizialmente ha punteggi così bassi su uno strumento, che ogni ulteriore calo nei punteggi
non può essere attendibilmente misurato, o così alti che ogni ulteriore miglioramento non può
essere misurato, e dunque apparentemente sembrerebbe che il gruppo soggetto ad uno di questi
due effetti non abbia effettuato alcun tipo di cambiamento.
Problemi che nemmeno i veri esperimenti possono controllare
Le minacce alla validità interna, e questa classe generale di minacce interne sono chiamate contaminazione, che se
avvengono non possono essere controllate, che possono presentarsi in qualsiasi studio includono:
● Effetti di diffusione: avvengono quando c’è un passaggio di informazioni sull’esperimento tra gruppi di
partecipanti.
● Effetti delle aspettative dello sperimentatore: si verificano quando uno sperimentatore influenza in
maniera non intenzionale i risultati
● Effetti novità: possono presentarsi quando viene introdotta un’innovazione, che può provocare un
entusiasmo tra i partecipanti, che può diventare la causa del “successo” dell’esperimento. Tra i vari tipi di
effetti novità, uno specifico è stato etichettato effetto Hawthorne, e si riferisce ai cambiamenti nel
comportamento delle persone indotti dall’interesse che “altri significativi” mostrano per esse, cioè la
consapevolezza dei partecipanti che qualcuno è interessato a loro.
● Effetti disturbo: sono il contrario degli effetti novità, e quindi con l’innovazione si crea al contrario una fonte
di disturbo che non permette di mantenere l’efficienza usuale.
I quasi esperimenti
I quasi esperimenti forniscono un’alternativa importante quando non possibili i veri esperimenti. Sono così chiamati
perché simili ai veri esperimenti, e racchiudono alcuni tipi di interventi o trattamenti e forniscono un confronto, ma
mancano del grado di controllo. Inoltre sono caratterizzati dalla mancanza di randomizzazione (non hanno quindi
l’assegnazione casuale). I quasi esperimenti sono raccomandati quando i veri esperimenti non sono fattibili. Prima di
affrontare i problema di interpretazione che derivano dalle procedure quasi sperimentali, il ricercatore dovrebbe
fare ogni possibile sforzo per avvicinarsi alle condizioni di un esperimento. Questo comprende cercare tutte le prove
aggiuntive, necessarie per eliminare le minacce alla validità interna. Se supponiamo che il comportamento di un
gruppo venga misurato prima e dopo il trattamento, tale “esperimento”, può essere descritto così: O1 X O2 ( 1 e 2
vanno in piccolo sotto, a destra delle due O), dove O1 si riferisce alla prima osservazione di un gruppo, o pre-test, X
indica un trattamento, e O2 si riferisce alla seconda osservazione, o post-test. Questo tipo di disegno è chiamato
disegno cattivo, e ha una validità interna molto ridotta
Disegno con gruppo di controllo non equivalente
In un disegno con gruppo di controllo non equivalente, vengono comparati un gruppo in trattamento e un gruppo di
confronto, usando misure pre-test e post-test. Questo tipo di disegno è “l’evoluzione” di quello con gruppo pre-
test/post-test, perché rispetto a quest’ultimo ha una validità interna superiore, dal momento che soddisfa due
condizioni:
● 1. Esiste un gruppo “come” il gruppo in trattamento che può servire come un gruppo di confronto
● 2. C’è la possibilità di ottenere delle misure pre-test e post-test da soggetti in entrambi i gruppi trattamento
e di confronto
Dal momento che non vi è l’assegnazione casuale, nasce una minaccia di selezione, e quindi è necessario fare un pre-
test per valutare le somiglianze tra i due gruppi. Un disegno a gruppo di controllo non equivalente può essere
riassunto come O1 X O2, fratto (in cui la linea del fratto è tratteggiata) O1 O2 (la linea tratteggiata sta ad indicare
che non c’è stata assegnazione casuale). Se i due gruppi sono simili nei loro punteggi pre-test prima del trattamento,
ma differiscono nei punteggi post-test dopo il trattamento, i ricercatori possono con più sicurezza fare delle
affermazioni sull’effetto del trattamento (accertandosi prima che i due gruppi abbiano esperienze comuni, così da
potere escludere le possibili minacce alla validità interna, possono usare i dati nati dalle differenze per fare inferenze
causali).
Risultato desiderabile:
● La prestazione dei due gruppi è uguale all’accertamento prima del trattamento (pre-test)
● Solo la prestazione del gruppo sperimentale migliora all’accertamento dopo il trattamento (post-test)
Risultato interpretabile ma non ottimale:
● La prestazione del gruppo sperimentale era inferiore a quella del gruppo di controllo prima del trattamento
(pretest), ma diventa superiore dopo il trattamento (post-test)
● E’ ragionevole pensare che il miglioramento sia dovuto al trattamento
Risultato non interpretabile:
● Possibile «effetto soffitto». Il gruppo di controllo potrebbe non aver migliorato la prestazione, poiché questa
era già ottimale al pre-test.
● Il miglioramento del gruppo sperimentale non può essere attribuito con certezza al trattamento.
Risultato non interpretabile:
● Entrambi i gruppi mostrano un miglioramento al post-test
● Il miglioramento del gruppo sperimentale non può essere attribuito con certezza al trattamento.
● Possibile effetto Hawthorne
Disegno con gruppo di controllo non equivalente: lo studio di Langer e Rodin
I quasi esperimenti spesso valutano l’efficacia generale di un trattamento che ha molte componenti. Infatti il
ricercatore non si interroga si solito sulle singole azioni del trattamento, ma sul trattamento in generale,
presumendo dunque che le diverse azioni hanno funzionato. Dunque sarebbe bene che si identificassero i vari
componenti che costituiscono un trattamento, riconoscendo quelli che non sono cruciali per il trattamento e quindi
per la verifica di un ipotesi. Questo tipo di ricerca viene chiamata ricerca follow-up.
Tutto ciò è stato messo in luce dall’esperimento di Langer e Rodin (1976) sul cambiamento che avviene quando le
persone anziane devono trasferirsi in una casa di riposo (per l’esperimento completo leggi a pagina 330-331-332).
Minacce alla validità interna nel disegno con gruppo di controllo non equivalente
Per interpretare i risultati dei disegni quasi sperimentali, i ricercatori esaminano lo studio per determinare se siano
presenti delle minacce alla validità interna. Anche se con il pre-test non rileviamo sostanziali differenze (anche se
sarebbe normale trovarne dato che non vi è assegnazione casuale), non possiamo comunque supporre che i gruppi
siano equivalenti. Il primo passo è controllare le minacce alla validità interna, che nel caso dei disegni con gruppo di
controllo non equivalente, sono:
● 1. Effetto selezione-maturazione: si verifica quando gli individui di un gruppo diventano più esperti, stanchi
o annoiati più in fretta degli individui di un altro gruppo. Questa minaccia aumenta quando c’è un gruppo
che si è autoselezionato (cioè ha liberamente cercato l’esposizione al trattamento) e l’altro no. Questa
minaccia è uno dei motivi per cui non si può concludere che i gruppi siano equivalenti. C’è una seconda e più
generale ragione del perché non possiamo concludere l’equivalenza dei gruppi: è probabile che il pre-test
misuri gli interpellati sia una sola variabile, o al massimo su alcune variabili, e quindi il fatto che le persone
non differiscano su una variabile non significa che non differiscano in altre importanti variabili importanti per
il loro comportamento.
● 2. Effetto selezione-storia: da Cook e Campbell (1979) lo chiamano effetto di storia locale. Sorge quando un
evento diverso dal trattamento colpisce in maniera considerevole un gruppo rispetto ad un altro. Più
differisce l’ambiente delle persone che fanno parte dei due gruppi più i problemi di storia locale diventano
complicati.
● Effetto selezione-strumentazione: (esattamente quello che viene detto in “effetto congiunto di selezione e
strumentazione).
● Regressione differenziale verso la media: la regressione (statistica) differenziale verso la media può
presentarsi quando è più probabile che la regressione si presenti in un gruppo piuttosto che in un altro.
● Effetti aspettativa, di diffusione ed effetti novità: già spiegato, per approfondire vedere anche pagina 335-
336.

Il problema della validità esterna


Allo stesso modo della validità interna, la validità esterna dei risultati di ricerca deve essere esaminata criticamente.
La prova migliore per la validità esterna dei risultati è replicare con popolazioni, contesti e tempi diversi. Dobbiamo
comunque essere pronti a convivere con il fatto che è probabile che uno studio non risponda a tutte le domande di
una ricerca.
Disegno semplice a serie temporali interrotte
L’essenza di questo disegno è la disponibilità di misure periodiche prima e dopo l’introduzione di un trattamento.
Può essere schematizzato nel seguente modo: O1 O2 O3 O4 O5 X O6 O7 O8 O9 O10.
Le prove per gli effetti del trattamento si presentano quando ci sono cambiamenti repentini nei dati a serie
temporali nel momento in cui viene attuato il trattamento, e tali cambiamenti sono chiamati discontinuità, che
fornisce la prova principale di un effetto del trattamento. Le minacce maggiori alla validità interna nel disegno
semplice a serie temporali interrotte sono gli effetti della storia e i cambiamenti della strumentazione che
avvengono contemporaneamente al trattamento.
Disegno a serie temporali con gruppo di controllo non equivalente
in un disegno a serie temporali con gruppo di controllo non equivalente, i ricercatori fanno una serie di osservazioni
prima e dopo il trattamento sia per il gruppo in trattamento sia per il gruppo di confronto.
Questo disegno si può riassumere come O1 O2 O3 O4 O5 X O6 O7 O8 O9 O19 fratto (in cui la linea del fratto è una
linea tratteggiata, che sta sempre ad indicare che non c’è stata assegnazione casuale) O1 O2 O3 O4 O5 O6 O7 O8
O9 O10. Questo disegno permette di molte minacce dovute alla storia.
Valutazione di programma
La valutazione di programma viene usata per valutare l’efficacia delle organizzazioni di servizi alla persona (Posavac,
2011, definisce così le organizzazioni che in genere forniscono servizi piuttosto che merci, come gli ospedali, le scuole,
i servizi sociale ecc.) e fornisce dei feedback agli amministratori sui loro servizi, che è l’obiettivo primario della
valutazione. Il programma di valutazione è una disciplina integrativa che attinge alle scienze politiche, alla sociologia,
all’economia, e alle scienze dell’educazione e alla psicologia. Posavac identifica quattro domande che vengono poste
dai valutatori di programma, domande che riguardano:
● 1. Bisogni: una valutazione dei bisogni cerca di determinare i bisogni insoddisfatti delle persone a cui
un’agenzia potrebbe fornire un servizio.
● 2. Processo: i metodi osservazionali sono spesso utili nel valutare i processi di un programma. I programmi
non vengono sempre attuati nel modo in cui sono stati pianificati, ed è essenziale sapere cosa in realtà si stia
facendo quando si attua un programma, così da sapere cosa si deve rafforzare.
● 3. Risultato: ci si chiede se il programma abbia raggiunto gli obbiettivi prefissati.
● 4. Efficienza: le domande sull’efficienza vertono principalmente sul costo del programma.
Già nel capitolo due avevamo descritto le differenze tra ricerca di base e la ricerca applicata, anche se sono in realtà
strettamente correlate: la ricerca di base fornisce delle astrazioni, cioè principi scientificamente fondati, ovvero delle
teorie deduttive, che danno luogo alle più svariate ipotesi. Tali ipotesi influenzano e modificano la ricerca applicata,
che cerca di spiegarle e di applicarle al mondo umano e sociale, cosa che interpreta e spiega, cioè da significato, alla
ricerca sperimentale (=modello circolare della relazione tra ricerca di base ed applicata, pag. 343).
Capitolo 12- Descrivere e analizzare i dati quantitativi
Descrivere e analizzare i dati quantitativi
Le risposte alle domande di ricerca, per essere scientificamente accettabili, devono essere suffragate dai dati
empirici a cui il ricercatore deve aver prestato la dovuta attenzione per quanto riguarda la produzione (ossia scelta
degli strumenti della ricerca e raccolta dati). Come abbiamo visto nel capitolo 5, l’obiettivo dell’analisi quantitativa
dei dati è di fornire un riassunto numerico, o appunto quantitativo, dei dati. L’analisi dei dati si compone di quattro
fasi distinte ma dipendenti una dall’altra:
● 1. Organizzare i dati (A*)
● 2. Conoscere i dati (B*)
● 3. Sintetizzare i dati (C*)
● 4. Confermare (/verificare) ciò che i dati rivelano (D*)
Organizzare i dati (A*)
I dati prodotti durante la fase di raccolta devono essere organizzati in una matrice dati C x V. A livello grafico, la
matrice di dati è una sorta di griglia costituita da righe e colonne. I casi C vengono inseriti nelle righe, i valori delle
variabili V sono inseriti nelle colonne. Ogni caso sarà identificabile attraverso un numero che il ricercatore deciderà
di abbinare a ogni soggetto/caso (ID= codice identificativo soggetto). Per la codifica delle variabili è necessario che il
ricercatore abbia in mente il livello di misurazione e i valori di risposta previsti. Per le variabili qualitative, come le
variabili indipendenti di un disegno sperimentale (per esempio il genere), possono essere inserite delle etichette (se
si tratta di genere, si può mettere maschio o femmina, oppure numeri arbitrari, come 1 per i maschi e 2 per le
femmine). Per evitare errori è sempre meglio fare compiere queste azioni da un software apposito.
Conoscere i dati (B*)
La statistica descrittiva è uno strumento utile per conoscere i propri dati. Inoltre permette effettuare un lavoro di
pulizia dati, e mettere ordine nel caos dei dati prodotti.
Pulizia dati
La pulizia dei dati è necessaria, perché possono esserci stati degli errori nella compilazione dello strumento di ricerca
oppure nell’inserimento dei dati stessi. Vi possono essere errori di compilazione quando, per esempio i partecipanti
alla ricerca utilizzano la scala di risposta in maniera sbagliata. Quindi è molto importante per rilevare errori e
anomalie. Tra le varie anomalie, sono particolarmente preoccupanti i valori estremi, chiamati in gergo outlier. Con
questo termine si intende un numero estremo che, in una serie di dati, non sembra affine al corpo principale dei
dati, anche se rientra nei valori possibili. Tali anomalie o vengono corrette o vengono omesse dall’insieme dei dati.
Distribuzione di frequenza
Uno dei modi per rendere un insieme di dati più comprensibile consiste nel riportare tutti i punteggi ottenuti in
ordine di grandezza (dal più grande al più piccolo o viceversa) insieme alla frequenza con la quale ciascuno è stato
osservato. Questa è chiamata distribuzione di frequenza. Per prima cosa bisogna ordinare tutti i valori della variabile
di interesse in una prima colonna. La frequenza di ciascun punteggio, cioè il numero di volte in cui un certo
punteggio è stato ottenuto, viene quindi riportata in una seconda colonna.
Rappresentazione grafica dei dati
I grafici sono un buon strumento per rappresentare i propri dati e riuscire così a conoscerli meglio. Alcuni grafici sono
meglio di altri, e più opportuni in certe situazioni rispetto ad altri:
● 1. Grafici a barre: per costruire il grafico a barre dobbiamo rappresentare le frequenze sull’asse delle
ordinate (asse verticale), e i punteggi della variabile sull’asse delle ascisse (asse orizzontale). L’altezza delle
barre rappresenta le frequenze dei singoli punteggi. Sono particolarmente appropriati per variabili discrete
● 2. Grafici a linee (/poligoni di frequenza): i grafici a linee possono essere più intuitivi rispetto ai grafici barre
quando si hanno variabili continue con molti valori.
Sintetizzare i dati (C*)
Per sintetizzare i dati numerici il ricercatore può utilizzare:
● Gli indicatori di tendenza centrale: sono misure che indicano il punteggio intorno il quale i dati tendono a
disporsi. Essi si dividono in:
⮚ Moda: indica il punteggio che è più frequente nella distribuzione; se due valori nella distribuzione
sono presenti con la più alta frequenza, la distribuzione avrà due mode e sarà definita bimodale.
⮚ Mediana: è definita come il valore che divide in due parti uguali la distribuzione di frequenza. Si
ottiene identificando tutti i punteggi, dal più piccolo al più grande e identificando il valore che divide
la distribuzione in due parti aventi lo stesso numero di casi.
⮚ Media: è data dalla somma di tutti i valori della distribuzione diviso per il numero dei casi. In
statistica, la media della popolazione è indicata con il simbolo della “mi” greca, mentre la media del
campione è indicata con la lettera “M”. A differenza della mediana, la media è molto influenzata dai
punteggi estremi. La scala di misura (spiegate nel capitolo 3) determina infatti quali operazioni
matematiche sia possibile fare sui punteggi e, di conseguenza, quale indicatore conviene scegliere.
Se la scala è nominale, è possibile scegliere solo la moda; se la scala è ordinale, possiamo calcolare la
moda o la mediana; se la scala è metrica, possiamo calcolare moda, mediana e media.
1. Se il numero di osservazioni è dispari: (N+1)/2
2. Se il numero di osservazioni è pari: media dei punteggi alle posizioni N/2 e N/2 +1
Esempio:

● Indicatori di dispersione (/di variabilità): indicano la variabilità presente nei dati e accompagnano sempre le
misure della tendenza centrale. Infatti, per esempio, due insieme di punteggi possono avere medie molto
simili, ma avere distribuzioni alquanto diverse. Gli indicatori di dispersione ci permettono appunto di
sintetizzare la variabilità delle distribuzioni che notiamo nei grafici. Le due misure di variabilità più comuni
sono:
⮚ Range (/campo di variazione): esso può essere calcolato sottraendo il punteggio più basso dal
punteggio più alto della distribuzione. Prende quindi in considerazione solo i valori estremi, e non
quelli intermedi.
⮚ Deviazione standard: ci fornisce una misura della dispersione dei dati attorno alla media. Non è altro
che la radice quadrata della varianza, ossia della somma degli scarti della media dei singoli punteggi,
ciascuno elevato al quadrato, diviso il numero di casi. La deviazione standard della popolazione è
indicata con la lettera “sigma” greca, mentre la deviazione standard di un campione è indicata con s.
Se entrambe le variabili sono su scala metrica, il ricercatore può utilizzare l’indice di correlazione di Pearson (r).
infatti esiste una correlazione quando i punteggi di una variabile covariano con i punteggi di un’altra variabile.
L’indice di correlazione fornisce una misura della forza (=il grado in cui al modificarsi di una variabile tende a
modificarsi anche l’altra) e della direzione della relazione fra le due variabili. L’r di Pearson può assumere valori
compresi fra -1,0 (inversamente proporzionali), oppure 1,0 (direttamente proporzionali). Un valore di 0,0 sta ad
indicare che non c’è relazione tra le variabili. (se nel grafico la retta è inclinata verso il basso, allora avremo un valore
di Pearson che tende al negativo, verso l’alto uno che tende al positivo). Come era già stato detto nei capitoli
precedenti, esso non permette di fare inferenze causali.
Grafici di dispersione: grafici che mostrano la correlazione tra due variabili:
● Correlazione positiva: i punteggi più elevati di una variabile sono associati a punteggi più elevati di una
seconda variabile
● Correlazione negativa: i punteggi più elevati di una variabile sono associati a punteggi più bassi di una
seconda variabile

Come calcolare il coefficiente di correlazione:

Esempio:
Utilizzo del computer per l’analisi dei dati
I ricercatori in genere utilizzano il computer per condurre analisi statistica dei dati (tra i più famosi software
abbiamo: BMDP, SAS, SPSS, STATA). Per potere usare al meglio il computer, bisogna avere bene in mente le risposte
che di stanno cercando: bisogna quindi avere chiara una buona conoscenza del disegno di ricerca e della statistica.
Confermare ciò che i dati rivelano: la statistica inferenziale (D*)
La statistica inferenziale permette di raggiungere delle conclusioni, statisticamente affidabili o significative su intere
popolazioni, sulla base dei dati raccolti dal ricercatore su un campione rappresentativo di quella popolazione. Per
comprendere se i dati confermino o meno l’ipotesi della ricerca, il ricercatore può farsi aiutare dalla statistica,
utilizzando o la Verifica dell’ipotesi nulla (NHST), chiamata anche significatività statistica, o gli intervalli di
confidenza. Per calcolare la statistiche inferenziali, impieghiamo la media campionaria come stima della media della
popolazione, cioè usiamo un singolo valore (X) per stimare (inferire) la media della popolazione (mi greca).
Frequentemente si rivela utile conoscere la quantità di errore che si commette stimando mi greca a partire da X. In
matematica il teorema del limite centrale ci dice che, se estraiamo un numero infinito di campioni della stessa
dimensione e calcoliamo per ciascuno la media X, la media delle medie campionarie (mi greca con una piccola x in
basso a destra), sarà uguale alle media della popolazione (mi greca), e la deviazione standard delle medie
campionarie sarà uguale alla deviazione standard della popolazione (sigma greca) divisa per la radice quadrata della
dimensione del campione (N). La deviazione standard di questa distribuzione campionaria teorica delle medie
prende il nome di errore standard della media (sigma greco con una piccola X in basso a destra), e si esprime con
una specifica formula (la trovi sul libro, pagina 364). Solitamente non conosciamo la deviazione standard della
popolazione, perciò anche in questo caso la stimiamo utilizzando la deviazione standard del campione (s). Quindi
possiamo calcolare un errore standard stimato della media (s con una piccola X in basso a destra), impiegando la
formula (che trovi sul libro a pagina 365). Tanto più i valori dell’errore sono grandi, tanto più probabilmente
indicando che la nostra stima della media è approssimativa.
Verifica dell’ipotesi nulla
Utilizziamo la verifica dell’ipotesi nulla per stabilire se, in una ricerca, le differenze fra le medie dei gruppi siano
maggiori delle differenze che ci aspetteremmo a causa della variabilità dovuta all’errore di misura. Questo metodo si
basa sulla probabilità di quanto i dati, osservati nei campioni selezionati dai ricercatori, contraddicono un’ipotesi di
partenza (detta appunto ipotesi nulla H con un piccolo zero in basso a destra), che ipotizza la non presenza di
differenze, effetti o legami nella popolazione di riferimento, e dunque che la variabile indipendente non abbia avuto
alcun effetto. Come possiamo decidere se accettare o rifiutare l’ipotesi nulla? Le teoria della probabilità permette di
determinare la probabilità di ottenere la differenza osservata fra i gruppi della nostra ricerca (ossia l’effetto della
variabile indipendente) se l’ipotesi nulla fosse vera. La probabilità p-value indica la probabilità di ottenere il risultato
osservato, se l’ipotesi nulla fosse vera, ossia in modo casuale. Se è molto piccola, allora rifiutiamo l’ipotesi nulla; i
risultati che ci consentono di rifiutare l’ipotesi nulla vengono definiti statisticamente significativi. Ma quanto deve
essere bassa la probabilità? Per convenzione si considerano statisticamente significativi quei risultati hanno una
probabilità inferiore al 5% (oppure <0,05). Questa quantità prende il nome di livello di significatività.
In sostanza, quando si conduce un test statistico di tipo inferenziale, si possono trarre solo due tipi di conclusioni: o
si rifiuta l’ipotesi nulla o si sbaglia a rifiutare l’ipotesi nulla (attenzione!: fra le alternative non c’è l’opzione “accettare
l’ipotesi nulla”, e adesso si spiega perché). Quando in una ricerca non si osservano effetti significativi nei risultati,
non si rifiuta l’ipotesi nulla, ma questo non ne comporta l’accettazione, dal momento che ci possono essere molti
effetti che potrebbero concorrere. C’è sempre una certa probabilità di commettere un errore. Abbiamo due possibili
errori potenziali:
● Errori di I tipo: il livello di significatività rappresenta la probabilità di commettere un errore di I tipo, cioè
rifiutare l’ipotesi nulla quando questa è vera. La probabilità di commetterlo può essere ridotta
semplicemente scegliendo un livello di significatività più piccolo, per esempio 0,01.
● Errori di II tipo: consiste nel non rifiutare l’ipotesi nulla quando essa è falsa. Con l’accorgimento di prima
(livello di significatività più basso), diminuiamo la possibilità del I tipo, ma aumenta la probabilità di
commettere l’errore di II tipo.
Gli errori di I e II tipo ci ricordano sempre che l’inferenza statistica non può mai sostituire la replica della ricerca
quale migliore test possibili per verificare l’attendibilità del risultato di un esperimento.
Intervallo di confidenza
Un approccio importante per confermare quanto i dati sembrano suggerirci consiste nel calcolare gli intervalli di
confidenza per i parametri della popolazione, come la media o la differenza fra due medie.
La media di un campione casuale estratto da una popolazione è una stima della media della popolazione. Dobbiamo
sempre aspettarci un errore, e quindi la stima dell’errore standard della media (s, con una piccola X in basso a
destra) fornisce informazioni sulla gamma “normale” dell’errore di campionamento. Più è grande l’intervallo di
confidenza, maggiore sarà la nostra certezza che la media vi sia inclusa. Tuttavia più gli intervalli sono grandi, meno
specifiche sono le informazioni sul valore esatto della media della popolazione. I ricercatori hanno stabilito che gli
intervalli di confidenza del 95% e del 99% sono i migliori da impiegare quando si desidera una stima dell’intervallo
della media della popolazione.
Le due formule per calcolare i limiti dell’intervallo si trovano sul libro, pagina 368. Per calcolare i livelli di alfa greca,
nel caso degli intervalli di confidenza, alfa greca= 1 – livello di confidenza, viene espresso come proporzione.
Conseguentemente:
● Per un intervallo di confidenza del 95%: alfa greca= (1 – 0,95) = 0,05
● Per un intervallo di confidenza del 99%: alfa greca= (1 – 0,99) = 0,01
L’unico elemento non noto dell’equazione per calcolare gli intervalli di confidenza è la statistica t. Nel caso di una
sola media, i gradi di libertà (ovvero numero di parametri che sono liberi di variare, necessari per identificare il valore
di t) sono pari a N-1 (dove N è la dimensione del campione). E per i valori di t bisogna necessariamente consultare la
tavola di distribuzione della statistica t (che si trova in qualsiasi manuale di statistica). L’aumento della dimensione
del campione migliora la stima dell’intervallo della media.
Sensibilità sperimentale e potenza statistica
Per sensibilità si intende la probabilità che un esperimento trovi l’effetto di una variabile indipendente quando essa
ha realmente un effetto (il termine si riferisce solo ad un “esperimento”). Per potenza si intende la probabilità che un
test statistico permetta di rifiutare correttamente l’ipotesi nulla di assenza di differenze (il termine si riferisce solo ad
un “test statistico”). La potenza ci fornisce la probabilità di cogliere un effetto quando esso esiste realmente, ed è
una stima della replicabilità dell’esperimento. La potenza di un test statistico dipende dall’interazione di tre fattori:
il livello di significatività statistica, la dimensione dell’effetto dovuto al trattamento e l’ampiezza del campione
(quest’ultimo è il fattore principale su cui lo sperimentatore agisce per controllare la potenza). I disegni a misure
ripetute sono più sensibili e hanno una maggiore potenza statistica dei disegni dei disegni a gruppi indipendenti,
perché le stime degli errori di variazione sono sensibilmente più piccole nei disegni a misure ripetute. Inoltre gli
errori di II tipo (dovuto generalmente ad una scarsa potenza statistica) sono più frequenti degli errori del I tipo nelle
ricerche psicologiche che impiegano la verifica dell’ipotesi nulla: questo perché molti studiosi sostengono che
l’ipotesi nulla definita come mancanza di differenze è sempre falsa, oppure, in modo più conservativo, è raramente
vera. Ne consegue che l’effetto (cioè se c’è una qualche differenza fra le medie) esiste sempre o quasi sempre, e
allora non è possibile, o quasi, commettere un errore di I tipo.
Quando i risultati non sono statisticamente significativi (p > 0,05), non è corretto concludere che l’ipotesi nulla è
vera.
Misure della dimensione dell’effetto
Le misure della dimensione dell’effetto forniscono informazioni sulla forza della relazione esistente fra variabile
indipendente e variabile dipendente a prescindere dalle dimensioni del campione. Una misura della dimensione
dell’effetto, comunemente utilizzata nella ricerca sperimentale quando si confrontano due medie, è il d di Cohen,
che è il rapporto fra la differenza fra le medie e la deviazione standard entro gruppi (per la formula vai sul libro,
pagina 373, 374, 375).
Significatività statistica e significatività scientifica e clinica
I test di significatività statistica sono uno strumento utile per l’analisi dei risultati delle ricerche. Tuttavia bisogna
porre attenzione nell’interpretare correttamente i risultati statisticamente significativi; bisogna anche stare attenti a
non confondere un risultato statisticamente significativo con uno scientificamente significativo. Infatti la
significatività statistica non coincide con la significatività scientifica. Essa dipende dalla natura della variabile dalla
natura della variabile oggetto di studio (gli effetti di alcune variabili sono più importanti di altri), da quanto risulta
attendibile lo studio (infatti anche studi non molto attendibili possono produrre risultati statisticamente significativi)
e da altri criteri come la dimensione dell’effetto. La significatività statistica non coincide nemmeno con la
significatività pratica/clinica, che dipende da fattori diversi, come la validità esterna dello studio, la dimensione
dell’effetto, e altre considerazioni di natura pratica (incluse quelle finanziarie).
Confronto fra due medie: verifica dell’ipotesi nulla
Disegni a gruppi indipendenti: il test statistico (inferenziale) appropriato per un disegno di questo tipo è il t-test, che
serve a confrontare le medie ottenute da due gruppi differenti di individui. Quando si usa un test per la verifica
dell’ipotesi nulla, è sempre auspicabile riportare anche una misura della dimensione dell’effetto.
Disegni a misure ripetute: per questo disegno possiamo utilizzare il t-test per misure ripetute (within subjects), che
confronta le due medie ottenute dallo stesso gruppo di individui (o gruppi appaiati). Se il valore di t è statisticamente
significativo, allora si può concludere che le due medie sono diverse. La valutazione della dimensione dell’effetto in
un disegno a misure ripetute è più complessa rispetto ai gruppi indipendenti.
Raccomandazioni nel confronto tra due medie: ci sono delle precauzioni da prendere nel confrontare due medie.
Esistono più metodi per ottenere prove, ed è consigliato di usare sempre il più semplice. Inoltre tieni sempre in
mente i limiti di ciò che puoi permetterti di dire sulla base dei risultati ottenuti.
Presentazione dei risultati dello studio sul vocabolario (pagina 378).
Potenza dell’analisi: conoscendo le dimensioni dell’effetto, possiamo calcolare la potenza statistica di un’analisi, che
come si è già detto, è la probabilità di ottenere un effetto statisticamente significativo.
Analisi della varianza a una via per disegni a gruppi indipendenti
L’analisi della varianza (ANOVA) è un test statistico inferenziale impiegato per determinare se una variabile
indipendente abbia avuto un effetto statisticamente significativo su una variabile dipendente, ed è fortemente
consigliato quando ci sono più di due livelli della variabile indipendente, oppure più variabili.
La logica dell’analisi della varianza si basa sull’identificazione delle sorgenti della varianza dell’errore e sulla varianza
sistematica dei dati. Il test-F (per la formula guarda pagina 381) è una statistica che rappresenta il rapporto fra
varianza fra gruppi e varianza entro gruppi (o varianza d’errore, che deriva dalle differenze individuali tra gli individui
e non può essere eliminata, ma solo bilanciata dall’assegnazione casuale), e ci permette di sapere se la variazione
dovuta alla variabile indipendente sia più grande di quella che ci aspetteremmo a causa della sola varianza d’errore. I
risultati di una prima analisi globale di un test-F onnicomprensivo vengono presentati in una tabella riassuntiva; il
confronto fra due medie può essere utilizzato per identificare delle sorgenti specifiche della varianza sistematica di
un esperimento. Anche se l’analisi della varianza può essere impiegata per decidere se una variabile indipendente
abbia avuto un effetto significativo, si esaminano le statistiche descrittive per interpretare il significato dei risultati
dell’esperimento. La misura della dimensione dell’effetto per i disegni a gruppi indipendenti è l’eta quadrato (per la
formula guarda pagina 385). Prima di realizzare lo studio bisognerebbe condurre un’analisi della potenza per disegni
a gruppi indipendenti allo scopo di determinare la probabilità di trovare un effetto statisticamente significativo, e la
potenza andrebbe sempre comunicata ogni volta che non si trova un effetto significativo. Si possono effettuare
confronti tra le due medie per identificare le sorgenti specifiche della varianza che contribuiscono a determinare la
significatività statistica del test-F
Analisi della varianza per misure ripetute
Le procedure generali e la logica per la verifica dell’ipotesi nulla dell’analisi di varianza per misure ripetute sono simili
a quelle utilizzate con l’analisi della varianza per gruppi indipendenti. Prima di iniziare l’analisi della varianza di un
disegno completamente a misure ripetute, dobbiamo calcolare un punteggio complessivo (come la media o la
mediana) per ciascun partecipante in ogni condizione. I dati descrittivi vengono calcolati per riassumere la
prestazione in ciascuna condizione della variabile indipendente attraverso tutti i partecipanti. La principale
differenza fra l’ANOVA per misure ripetute e quella per gruppi indipendenti consiste nella stima della varianza
d’errore, o varianza residua; la varianza residua è la varianza che rimane quando la varianza sistematica e quella
dovuta ai soggetti sono state rimosse dalla stima della varianza totale.
Analisi della varianza a due vie per disegni a gruppi indipendenti
È già stata spiegata nel capitolo 9, e come già detto in quel capitolo, l’analisi di un disegno complesso può procedere
in modo differente a seconda che il test-F globale rilevi o meno un effetto di interazione
Analisi di un disegno complesso con un effetto di interazione
Se l’analisi globale della varianza mette in luce un effetto di interazione statisticamente significativo, la fonte
dell’effetto di interazione viene identificata usando, semplicemente, le analisi degli effetti principali e i confronti tra
le due medie. L’effetto semplice è l’effetto di una variabile indipendente a un livello di una seconda variabile
indipendente; in tal senso infatti una definizione di effetto di interazione è che gli effetti semplici nei diversi livelli
sono diversi. Se una variabile indipendente ha tre o più livelli, si possono fare ripetuti confronti fra le medie, prese a
due per volta, per individuare la fonte di un effetto principali semplice.
Analisi in assenza di un effetto di interazione
Quando l’analisi di varianza globale non evidenzia un effetto di interazione statisticamente significativo, il passo
successivo è determinare se gli effetti principali delle variabili siano statisticamente significativi. La fonte di un
effetto principale significativo può essere meglio individuata confrontando le medie due alla volta e costruendo gli
intervalli di confidenza.
Analisi della varianza a due vie per disegno misto
In un disegno misto le variabili indipendenti sono almeno una fra soggetti e almeno una entro i soggetti. I risultati
della statistica F si riferiscono agli effetti della variabile fra soggetti, all’effetto della variabile entro soggetti e
all’effetto di interazione. L’interpretazione dei risultati segue la stessa logica dei modelli di analisi della varianza fra
ed entro soggetti.
Capitolo 13- La comunicazione in psicologia
La comunicazione in psicologia
La ricerca scientifica è un’attività pubblica. La pubblicazione è una parte indispensabile della scienza. Secondo
Bartholomew, è preferibile una rivista refereed perché le riviste con revisioni scientifiche prevedono un processo di
peer review. I manoscritti presentati vengono esaminati da altri ricercatori (peer) esperti, nello specifico campo
della ricerca affrontata nel manoscritto in esame. Questi reviewer decidono se la ricerca è metodologicamente solida
e se fornisce un contributo sostanziale alla psicologia, per poi decidere se deve essere pubblicata. A prendere questa
decisione sono gli editori scientifici. Le loro decisioni sono basate su:
● 1. La qualità della ricerca
● 2. L’efficacia della sua presentazione nel manoscritto valutato dall’editore scientifico e dai colleghi revisori
In genere solo un manoscritto su tre, di quelli proposti a più di due dozzine di riviste APA, viene accettato per la
pubblicazione.
Internet e la ricerca
L’accesso a internet è già diventato uno strumento indispensabile, in particolare per le comunicazioni via posta
elettronica, che è efficiente, semplice e conveniente. Su internet sono anche archiviate la banche dati. Le riviste
elettroniche sono diventate molto comuni. Alcune riviste sono offerte esclusivamente in forma elettronica, in
abbonamento o ad accesso libero (open access). Le discussioni di gruppo permettono agli interessati di discutere di
argomenti di psicologia di cui condividono l’interesse. Alcuni gruppi di discussione sono aperti a chiunque desideri
prendere parte alla discussione, inclusi quelli che desiderano partecipare solo passivamente (“lurkare”).
Linee guida per una scrittura efficace
Ci sono delle linee guida da seguire, anche se niente può sostituire l’esperienza:
● Conoscere l’audience: qualsiasi sia l’audience scelta, è importante selezionarla prima di iniziare a scrivere e
tenere sempre presente quel pubblico in ogni passaggio.
● Identificare l’obiettivo: gli obiettivi principali di un articolo di una rivista sono quelli di descrivere e di
convincere.
● Scrivere con chiarezza
● Essere concisi
● Essere precisi
● Seguire le regole grammaticali
● Scrivere onestamente: Il Publication Manual fornisce informazioni importanti per raggiungere una
comunicazione imparziale:
⮚ Descrivere le persone con un appropriato livello di specificità, come uomini e donne piuttosto che
solo uomini.
⮚ Essere sensibili alle etichette quando ci si riferisce alle persone, per esempio quando si usano
termini per riferirsi all’identità razziale o etnica delle persone.
⮚ Scrivere in modo da identificare chiaramente i partecipanti allo studio. Per farlo si può usare termini
specifici per indicare i partecipanti alla ricerca, come colleghi, studenti, bambini ecc. piuttosto che
qualcosa di impersonale come “soggetti”
● Scrivere un rapporto interessante
Struttura di una comunicazione di ricerca
La struttura di una comunicazione di ricerca è utile sia all’autore sia al lettore:
● 1. Pagina del titolo: indica di cosa parla la ricerca, chi ne ha fatto parte, dove è stata fatta la ricerca e la nota
dell’autore.
● 2. Abstract: è il riassunto conciso, di un paragrafo, del contenuto e dello scopo della comunicazione di
ricerca. In genere l’abstract di uno studio empirico in genere identifica quanto segue:
⮚ a. il problema oggetto della ricerca
⮚ b. il metodo, inclusi i test e gli apparecchi utilizzati, le procedure di raccolta dati e le caratteristiche
pertinenti dei partecipanti
⮚ c. i risultati principali
⮚ d. le conclusioni e le implicazioni dei risultati
● 3. Introduzione: essa deve soddisfare tre obiettivi:
⮚ a. introdurre il problema che è stato studiato e indicare perché il problema è così importante da
essere studiato
⮚ b. riassumere brevemente la letteratura importante precedente pertinente allo studio e descrivere
le implicazioni teoriche dello studio.
⮚ c. descrivere lo scopo, la logica e il disegno dello studio con uno sviluppo logico delle predizioni o
delle ipotesi che guidano la ricerca.
● 4. Metodo: si descrivono il numero e la natura dei partecipanti che prendono parte allo studio, i materiali
particolari, la strumentazione o gli apparecchi che sono stati utilizzati e come si sia condotto esattamente lo
studio.
● 5. Risultati: costituisce il culmine della comunicazione di ricerca. Tra i risultati non dovrebbero essere inclusi
i dati grezzi dello studio, ma usare piuttosto la statistica descrittiva e riportare tutti i dati della statistica
inferenziale. Poi per presentare i dati in maniera concisa, i mezzi più efficaci sono le tabelle, oppure i grafici,
dove sull’asse delle x di solito si mettono le variabili indipendenti, mentre sull’asse delle y si mettono le
variabili dipendenti.
● 6. Discussione: solitamente inizia con una dichiarazione succinta dei risultati essenziali. In particolare si
mettono a confronto i propri risultati con i risultati di altri nella stessa area. Se i risultati non sono coerenti
con le ipotesi originali, si dovrebbe suggerire una spiegazione per la discrepanza.
● 7. Bibliografia: nella maggior parte delle comunicazioni di ricerca si trovano in genere quattro tipi di
materiale bibliografico: articoli di riviste, libri, capitoli di libro e risorse internet.
● 8. Note a piè di pagina: sono molto rare negli articoli delle riviste, e ancora più rare nelle comunicazioni di
ricerca degli studenti. Quando appaiono, dovrebbero essere numerate in ordine consecutivo nel testo e
posizionate in una pagina separata che segue la sezione Bibliografia
● 9. Appendici: anche queste sono abbastanza rare. Quando è destinata ad un articolo da pubblicare,
un’appendice inizia su una pagina separata dal manoscritto e viene allegata alla fine dello scritto dopo la
bibliografia. Ogni appendice viene identificata da una lettera
Presentazioni orali
Il tempo concesso per la presentazione di norma è di 10-15 minuti, pertanto una buona presentazione orale deve
fornire una breve panoramica del problema, della metodologia, dei risultati principali e delle conclusioni. È per molti
aspetti come un abstract, ma in forma orale.
Proposte di ricerca
Segue gli stessi punti della comunicazione di ricerca, ma l’abstract non è incluso, e l’introduzione è probabile che
includa una revisione più estesa della letteratura rilevante.

Potrebbero piacerti anche