LA PSICOLOGIA SCIENTIFICA
La psicologia sperimentale è una scienza simile a tutte le altre. Il suo oggetto di studio sono il comportamento e i
processi mentali.
Per ottenere informazioni su ciò possiamo usare:
⮚ Metodi non empirici: autorità, logica
● approccio generale: intuitivo
● atteggiamento: acritico, osservante
● osservazione: casuale, non controllata
● resoconto: distorto, soggettivo
● concetti: ambigui
● strumenti: inaccurati, imprecisi.
● Misure: non valide o inattendibili
● Ipotesi: non testabili
⮚ Metodi empirici: intuizione (senso comune), scienza
● approccio generale: empirico
● atteggiamento: critico, scettico
● osservazione: sistematica, controllata
● resoconto: obbiettivo
● concetti: definizioni chiare
● strumenti: accurati, precisi
● Misure: valide e attendibili
● Ipotesi: verificabili
Con METODO SCIENTIFICO si intende il modo in cui gli scienziati formulano i quesiti di ricerca e la logica dei metodi
usati per ottenere risposte, e ha come obbiettivo la ricerca della verità.
Capitolo 3- Misurazione
MISURAZIONE IN PSICOLOGIA
Un costrutto, secondo la definizione di Pedon e Gnisci, è un concetto astratto che indica un complesso organizzato
della vita psichica non osservabile direttamente.
Per poter misurare un costrutto, bisogna fornire una definizione operativa del costrutto stesso. Non sempre la
definizione operativa e i costrutti di ricerca sono chiaramente definiti. Il processo di ricerca infatti presuppone di
partire dalle domande di ricerca e capire bene quali siano i costrutti che vengono analizzati in tali domande.
Il termine “costrutto” è un termine ombrello sotto cui possono essere raggruppati un’infinità di concetti psicologici
che possono essere studiati in una ricerca: questo termine è estremamente importante, perché permette agli
studiosi e ricercatori di comprendersi. Con questo termine non si chiede al ricercatore soltanto l’etichetta verbale
che designa il costrutto, ma anche il processo di connessione tra teoria e pratica di ricerca.
Un costrutto psicologico è qualcosa di insito nelle persone o nelle relazioni, che però si può misurare solo quando
diventa osservabile, cioè bisogna attendere l’insorgere di variabili che possano essere indicatori osservabili di tale
costrutto. Dunque dopo aver definito operativamente i costrutti, bisogna trovare le variabili che ci permettono di
poter osservare il costrutto. Il passaggio dal costrutto alle variabili è definito operazionalizzazione, che rende dei
concetti teorici osservabili oggettivamente allo stesso modo dei dati scientifici.
Operazionalizzazione
Operazionalizzare il costrutto significa individuare gli indicatori osservabili (variabili) che lo possono misurare,
attraverso cui si può mettere alla prova le ipotesi e le teorie dei ricercatori.
Tali indicatori possono essere di due tipi:
● INDICATORI RIFLETTIVI: indicatori che riflettono il costrutto, sono cioè manifestazioni osservabili dello stesso
costrutto (es: il sorriso è indicatore riflettivo del costrutto di felicità). Sono ‘effetto’ di un fattore comune e
quindi ci si deve aspettare siano correlati.
● INDICATORI FORMATIVI: indicatori osservabili che definiscono il costrutto stesso (es: l’indicatore formativo
perdita di lavoro definisce il costrutto stress in una persona). Il costrutto è il risultato della somma degli
indicatori, è quindi funzione di essi. Quindi l’assenza di un indicatore formativo ci impedisce di avere una
completa misura del costrutto.
1. Ripartizione dicotomica: E’ il più basso livello di classificazione e misura possibile: non esiste
classificazione se non si hanno almeno 2 categorie.
Per esempio affidi ad una categoria il valore di 1 e a tutte le altre il valore 0.
Una variazione che si può effettuare è di sostituire il valore numerico con la percentuale,
purchè si mantengano le categorie differenziate: la percentuale permette di rappresentare la
quantità di soggetti/eventi assegnati a quella categoria.
● SCALA A RAPPORTI EQUIVALENTI: ha le stesse proprietà di una scala a intervalli equivalenti, ma possiede
anche un punto zero assoluto.
Questo rende significativo il rapporto dei valori della scala (es: nei gradi celsius, mancano lo zero assoluto, non
ha senso dire che 100° C è il doppio di 50°C; ha invece senso nella scala Kelvin, che ha senso invece per tempo,
peso e distanza). Il punto 0 indica
un’assenza reale e totale di qualsiasi
proprietà, perciò è possibile fare rapporti
(100 doppio di 50). Moltiplicare o dividere
per una costante è l’unica trasformazione
possibile (altrimenti rapporto distorto).
La variazione di errore tra gli errori disposti sulla curva è chiamata deviazione standard, chiamata però in questo
contesto errore standard di misurazione.
La varianza di errore viene calcolata facendo il rapporto tra la sommatoria degli scarti dei punteggi osservati,
𝒔𝒐𝒎𝒎𝒂𝒕𝒐𝒓𝒊𝒂 𝒔𝒄𝒂𝒓𝒕𝒊 𝒑𝒖𝒏𝒕𝒆𝒈𝒈𝒊𝟐
elevata al quadrato, e il totale delle misurazioni → 𝒕𝒐𝒕𝒂𝒍𝒆 𝒎𝒊𝒔𝒖𝒓𝒂𝒛𝒊𝒐𝒏𝒊
Di conseguenza l’errore standard di valutazione si ottiene facendo la radice quadrata della varianza di errore
della misurazione → √𝒗𝒂𝒓𝒊𝒂𝒏𝒛𝒂 𝒅𝒊 𝒆𝒓𝒓𝒐𝒓𝒆
[Taratura di un test]
Per alcuni strumenti, quali i test psicologici, è opportuno effettuare la taratura su un campione normativo, in
modo da avere dei parametri per valutare le singole persone in rapporto ad una popolazione di riferimento. Un
gruppo normativo considerato è un gruppo tipico, i cui punteggi vengono confrontati con le persone alle quali
verrà successivamente somministrato il test. Infatti il punteggio ottenuto da una persona a un test assume un
significato solo se confrontato con il punteggio ottenuto dal gruppo normativo.
Il processo di taratura di un test consiste nei seguenti passaggi:
● identificare la popolazione di interesse (es. donna disoccupata di 40 anni)
● definire il campione più rappresentativo della popolazione e somministrare i test che ci interessano.
● calcolare gli indicatori statistici che descrivono i punteggi ottenuti ai test
● trasformare tali punteggi in punteggi standardizzati
● scrivere un report dettagliato di come somministrare il test, delle caratteristiche del gruppo normativo e di
come interpretare i punteggi.
• TEORIA DEI TRATTI LATENTI: L’idea sulla quale si basa questa teoria è quella di calcolare quale sia la probabilità
che una persona risponda correttamente ad un certo item. La probabilità di risposta corretta è data dal livello di
abilità del soggetto (es: se è bravo in matematica) e dalle caratteristiche della domanda o dell’item. Tale abilità
viene definita tratto latente. Comunque in ambito italiano tale teoria è poco utilizzata.
La media e la varianza delle due metà non differiscono. Calcoliamo il coefficiente di correlazione per avere
una misura di attendibilità con il metodo split-half.
Siccome la vera lunghezza della scala è doppia rispetto a quella delle due metà, viene applicata una
correzione. La formula di Spearman-Brow: tale formula può essere utilizzata anche per stimare l’attendibilità
di un test se a questo venissero aggiunti n trial con caratteristiche simili a quelle dei trial presenti, oppure per
stimare quanto dovremmo allungare o accorciare il test per ottenere un’attendibilità prefissata. Es. abbiamo
un test composto da 10 item con attendibilità = 0.83. Quanti item dovremmo aggiungere per ottenere
un’attendibilità = 0.90?
b. ALFA DI CRONBACH: si parte dai singoli item che compongono lo strumento; si usa poi la formula
Questo coefficiente risente del numero di item che compongono un test (molti item = valore alto
dell’alfa), però un test troppo lungo potrebbe affaticare le persone e portare a punteggi con un
margine di errore maggiore.
c. K DI COHEN: quando abbiamo delle osservazioni del comportamento effettuate attraverso la
compilazione di una griglia osservativa (check-list), possiamo calcolare l’attendibilità delle osservazioni
indipendenti attraverso questo calcolo.
Innanzitutto occorre fare compilare la griglia osservativa ad almeno due osservatori indipendenti che
osservino gli stessi comportamenti. Una volta ottenute le risposte degli osservatori, si procede al
calcolo dell’accordo fra giudici calcolando la percentuale di accordo delle risposte degli osservatori
indipendenti. Tale percentuale di accordo però non ci permette di misurare la reale attendibilità, in
quanto essa è influenzata anche dall’accordo casuale. Per questo motivo si calcola la k di Cohen, la
quale varia tra 0 e 1. In linea generale una k maggiore di 0,60 è considerata buona, mentre una k
maggiore di 0,80 è ottima.
Validità di costrutto
E’ la capacità di una misura di misurare ciò che intende misurare. Occorre quindi valutare l’accuratezza della misura,
ovvero quanto le variabili scelte per misurare il costrutto siano adatte per operazionalizzare il costrutto altrimenti non
osservabile.
Per valutare la validità, occorre prendere in considerazione aspetti diversi della validità di costrutto.
Tali aspetti prendono il nome di:
● VALIDITÀ DI FACCIATA: non è una validità di costrutto effettiva, ma appunto di facciata. Se uno strumento ha
alta validità di facciata vuol dire che ha le sembianze di essere uno strumento che misura correttamente.
Se per esempio somministriamo un certo item ad un gruppo di persone ed essi lo ritengono valido, pensano che
esso misuri bene il costrutto, allora lo strumento avrà un’alta validità di facciata.
● VALIDITÀ DI CONTENUTO: è una validità che viene valutata da ricercatori esperti, e riguarda il fatto che gli
indicatori scelti per misurare un certo costrutto rappresentino bene tutti gli aspetti del costrutto in questione.
● VALIDITÀ CONVERGENTE E VALIDITÀ DISCRIMINANTE: uno strumento ha un’elevata validità convergente
quando i punteggi che si ottengono con esso correlano in modo elevato con i punteggi che si ottengono da
strumenti diversi che misurano lo stesso costrutto. Viceversa uno strumento ha un’alta validità discriminante
quando i suoi punteggi correlano poco con i punteggi che si ottengono da strumenti che misurano costrutti
diversi.
● VALIDITÀ PREDITTIVA E VALIDITÀ CONCORRENTE: vengono normalmente accomunate sotto il nome di “Validità
di criterio”. Nella validità concorrente si tratta di stabilire un criterio con il quale confrontare lo strumento di cui
vogliamo stabilire la validità di costrutto con i risultati ottenuti con lo strumento stesso → esempio: per
diagnosticare la presenza di depressione, vengono sottoposti diversi soggetti a un test; quelli che ottengono
punteggio più alto sono quelli diagnosticati come depressi rispetto a quelli non depressi.
La validità predittiva invece è così chiamata perché è in grado di correlare i punteggi ottenuti e lo strumento
stesso con un criterio misurato in un tempo successivo → esempio: sulla base di punteggi ottenuti in un test di
inglese, siamo in grado di predire che gli studenti con punteggio più alto supereranno l’esame di inglese siamo in
grado di predire che gli studenti con punteggio più alto supereranno l’esame di inglese tra un mese; stiamo
quindi facendo una previsione sul criterio di validità successivo attraverso il punteggio ottenuto ora.
La validità di criterio è valutata attraverso la matrice multi-tratto multi-metodo: si ottiene correlando i punteggi
ottenuti dagli stessi strumenti (metodo) che misurano costrutti diversi (tratti), e i punteggi ottenuti da strumenti
diversi (metodi) che misurano lo stesso costrutto (tratto) → esempio: sottopongo 100 studenti a uno strumento
self-report che misura la comunicazione col partner e uno che misura il conflitto col partner (stesso strumento
diversi costrutti) e poi li convoco in laboratorio coi partner per osservare i comportamenti di comunicazione e
quelli di conflitto, compilando una griglia osservativa: successivamente confronto la varianza dei punteggi della
scala self-report sulla comunicazione con quelli sul conflitto (diversi costrutti, stesso strumento) e coi punteggi
della griglia sulla comunicazione (stesso costrutto, diversi strumenti).
E’ infatti possibile differenziare quanto della misurazione sia dovuto al particolare metodo, lo strumento, e
quanto al costrutto.
Secondo altri autori per valutare la validità di costrutto occorre affrontare il processo di validazione, cioè una
teoria che permetta di spiegare la variazione di punteggi.
Precisione e accuratezza di una misura
Le buone misure sono sia precise (quanto sono simili le diverse misurazioni dello stesso costrutto) che accurate
(quanto corrisponde il costrutto misurato alla realtà), ma spesso abbiamo misure che soddisfano uno solo di questi
criteri.
Capitolo 4- Etica
I PROBLEMI ETICI NELLA RICERCA PSICOLOGICA
Ogni ricercatore è eticamente responsabile di come la sua attività porta ad una maggiore conoscenza e a migliorare
la qualità della vita delle persone. Oltre al singolo ricercatore, l’integrità scientifica è garantita da organizzazione
come AIP (in Italia), che ha promosso dei codici etici per la ricerca e il codice deontologico per chi professa l’attività
di psicologo.
Questa attenzione da parte dell’uomo nei confronti dell’etica nella ricerca è nata in particolare verso il secondo dopo
guerra, in seguito ad atroci sperimentazioni compiute da medici e ricercatori nazisti.
Venne quindi steso il Codice di Norimberga, che costituisce la base dei vari codici etici di ogni paese; importante per
gli psicologi è inoltre la Dichiarazione di Helsinki, alla base delle riflessioni di ricerca in ambito medico e psicologico.
L’ultima edizione pubblicata dall’APA (associazione americana di psicologia) è composta da 5 principi:
1. Promozione del benessere e difesa del malessere
2. Fiducia e responsabilità
3. Integrità
4. Giustizia
5. Rispetto per i diritti e la dignità delle persone
Invece il codice etico italiano è composto da 3 principi:
1. Competenza
2. Integrità
3. Responsabilità sociale
Rapporto costo/beneficio
Per determinare se una ricerca possa essere condotta, si fa una valutazione dei costi e dei benefici della ricerca
stessa. Fondamentalmente un comitato etico, che non ha alcun interesse personale nella ricerca, si pone la
domanda: “ne vale la pena?”. Molti fattori influenzano la decisione: i più basilari sono la natura del rischio e l’entità
del probabile beneficio per il partecipante, così come il potenziale valore scientifico e sociale della ricerca. Un
ricercatore deve puntare a fare ricerche che soddisfino i più alti standard dell’eccellenza scientifica, e deve quindi
accertarsi che i benefici siano maggiori dei costi, a parte per quelle situazioni in cui i benefici sono talmente chiari e
immediati che viene tollerato anche un rischio maggiore.
Definire il rischio
I potenziali rischi nella ricerca in psicologia includono il rischio di lesioni fisiche, il danno sociale e lo stress mentale
ed emotivo, da cui il ricercatore è invece obbligato di proteggere i suoi partecipanti.
I rischi devono essere valutati in termini di attività quotidiane dei potenziali partecipanti, della loro salute fisica e
mentale e delle loro capacità (esempio: proporre ad un anziano di fare una rampa di scale di corsa può aumentare la
possibilità di un infarto, ma probabilmente non rappresenta lo stesso pericolo per la maggior parte dei giovani).
Si ritiene che uno studio abbia un rischio minimo quando le procedure o le attività nello studio sono simili a quelle
sperimentate dai partecipanti nella vita quotidiana. Quando la possibilità di danno è giudicata superiore al minimo, i
soggetti vengono definiti a rischio.
Che il rischio sia minimo o alto, i partecipanti alle ricerche vanno protetti. Sono necessarie più tutele se il rischio
aumenta. Per proteggere i partecipanti da rischi sociali, le informazioni che forniscono dovrebbero essere anonime
o, se non è possibile, dovrebbe essere mantenuta la riservatezza delle informazioni.
Consenso informato
I ricercatori hanno l’obbligo etico di descrivere le procedure di ricerca in modo chiaro, di identificare gli aspetti della
ricerca che potrebbero influenzare la partecipazione dei soggetti e di rispondere a ogni domanda che i partecipanti
possono fare sulla ricerca. I partecipanti alla ricerca possono ritirare in qualsiasi momento il loro consenso senza
subire delle penalizzazioni, né devono esserci delle pressioni. I partecipanti a loro volta sono obbligati a comportarsi
in maniera appropriata e seria quando partecipano ad un ricerca; non devono mentire, barare o altro. Il consenso
informato, nel caso di persone non in grado di esprimere consapevolmente il proprio consenso, deve essere fornito
da chi ha la loro responsabilità legale. Inoltre il consenso informato va ottenuto in forma scritta quando il ricercatore
sa che in qualche modo non può garantire l’anonimato o potrebbero esserci procedure dolorose fisicamente o
mentalmente.
A volte il consenso informato può non essere chiesto (per esempio nel caso di ricerche condotte in luoghi pubblici)
sotto alcune condizioni: se il ricercatore semplicemente osserva, basta garantire l’anonimato; se invece registra deve
chiedere il consenso.
Occorre in qualsiasi caso difendere il diritto alla privacy dei partecipanti alla ricerca (è quindi vietato diffondere
informazioni sensibili su individui o gruppi senza il loro esplicito consenso) soprattutto se: un’informazione è un dato
sensibile; in base al contesto della ricerca; se i dati verranno divulgati e in che modo.
Debriefing
I ricercatori sono eticamente obbligati a trovare dei modi per far stare meglio i partecipanti alla ricerca al termine
della stessa. Un modo possibile è effettuare il debriefing: consiste in un incontro in cui non solo devono essere
spiegati tutti gli aspetti della ricerca, che eventualmente prima erano stati nascosti, modificati o non specificati, ma
in cui occorre anche ripristinare lo stato di umore e autostima del partecipante, dargli tutte le delucidazioni e
informazioni aggiuntive da lui richieste ed eliminare le idee scorrette che si è eventualmente fatto. Inoltre il
debriefing serve anche al ricercatore a ricordare sempre che i soggetti sono essere umani, con diritti e dignità, e non
degli oggetti. Al termine dell’incontro, i partecipanti devono risultare essere contenti di aver partecipato alla ricerca.
Inoltre è un ottimo modo per il ricercatore di verificare che il partecipante abbia compreso tutte le procedure, aiuta
a interpretare i risultati e fornisce idee per ricerche future (per esempio se è necessario fare delle modifiche o delle
migliorie).
Quando una ricerca è svolta online il debriefing è più complicato poiché il partecipante può scollegarsi e non essere
più reperibile: in quel caso si invia la mail con i risultati o si pubblicano sul sito web.
METODO OSSERVATIVO
Può essere diviso in:
● OSSERVAZIONE DIRETTA: osserva direttamente un comportamento mentre viene eseguito. Nell’usare questo
metodo osservativo bisogna decidere il grado di intrusione nella scena, ovvero quanto lo sperimentatore
manipola o no quello che sta accadendo.
Essa può essere divisa in:
a. Osservazione non intrusiva/naturalistica: l’obbiettivo è quello di descrivere il comportamento come
avviene naturalmente e di esaminare le relazioni tra variabili presenti sul momento. Non vi è dunque alcun
tentativo da parte dell’osservatore di intervenire, egli osserva passivamente la scena. Serve anche a stabilire
la validità esterna dei risultati da laboratorio. È anche un’importante strategia di ricerca quando le
considerazioni etiche e morali ostacolano il controllo sperimentale. Esempio: uno studio sull’aggressività dei
bambini mostra favore verso l’osservazione naturalistica rispetto a quella intrusiva perché, per esempio nello
studiare l’isolamento infantile, l’etica impedirebbe di ricreare la situazione in laboratorio, perciò bisogna
osservarlo in contesto naturale.
b. Osservazione intrusiva: sono quelle osservazioni in cui lo sperimentatore manipola la scena, di solito per
verificare una teoria. La maggior parte delle ricerche in psicologia utilizzano l’osservazione intrusiva.
I tre metodi di osservazione intrusiva sono:
1. Osservazione partecipata: può avvenire non in incognito, ovvero lo sperimentatore partecipa alla scena
che sta osservando e chi viene osservato sa che è presente lo sperimentatore. Dunque lo sperimentatore
oltre ad osservare partecipa attivamente → questo però può causare reattività delle persone, ovvero
sapendo di essere osservate da uno sperimentatore tendono a modificare il loro normale
comportamento.
Si può altrimenti usare l’osservazione partecipata in incognito: lo sperimentatore partecipa attivamente
nella situazione ma le persone non sanno che egli è uno sperimentatore → esempio: un ricercatore che
vuole indagare sul razzismo verso gli afroamericani da parte dei bianchi, potrebbe infiltrarsi in chat
razziste, ma ovviamente non potrebbe farlo sotto l’identità di sperimentatore. Questo permette ai
ricercatori di osservare i comportamenti e le situazioni che in genere non sono aperte all’osservazione
scientifica. Questo potrebbe comportare dei problemi etici (privacy e consenso informato), da risolvere
prima dell’inizio della ricerca.
In generale il rischio dell’osservazione partecipata è che lo sperimentatore, essendo immerso
attivamente nella situazione, potrebbe perdere l’obiettività tipica della ricerca scientifica identificandosi
troppo con le persone e la situazione.
2. Osservazione strutturata: i ricercatori intervengono per esercitare qualche forma di controllo sugli
eventi che stanno osservando, nonostante esso sia comunque minore del controllo effettuato
nell’esperimento sul campo. Queste osservazioni sono predisposte per documentare comportamenti che
possono essere difficilmente osservabili con osservazione naturalistica: lo sperimentatore interviene per
provocare reazioni o eventi che in maniera naturale magari non avverrebbero.
Esempio: studio sulla cecità di distrazione → i ricercatori esaminano la capacità delle persone di notare
eventi insoliti mentre sono distratti, per esempio al cellulare; in questo tipo di osservazioni strutturate di
soli si usa un confederato (un individuo istruito a comportarsi in un certo modo per creare una
situazione in cui osservare il comportamento), che nel caso di questa osservazione dovrebbe vestirsi da
clown e girare intorno a una statua.
L’osservazione strutturata si trova a metà tra la passività del non intervento nell’osservazione
naturalistica e la manipolazione delle variabili indipendenti negli esperimenti di laboratorio.
3. Esperimenti sul campo: quando un ricercatore manipola una o più variabili indipendenti in una
situazione naturale, per determinare l’effetto sul comportamento, sta conducendo un esperimento sul
campo; esso rappresenta la forma più intrusiva di osservazione. Esempio: confederati che si fingono ladri
per studiare la reazione delle persone di fronte a un crimine, manipolando il numero di altri confederati
che presenziano alla scena, influenzando ancora di più l’intervento delle persone presenti.
• OSSERVAZIONE INDIRETTA: Il comportamento può anche essere osservato indirettamente attraverso documenti
e altre prove del comportamento delle persone, utilizzando quindi misure non intrusive perché il ricercatore
non interviene nella situazione e gli individui non sono consapevoli di essere osservati. Un importante vantaggio
di questi metodi è che non sono reattivi, e quindi è impossibile per i partecipanti reagire e cambiare il proprio
comportamento.
Si divide in:
● INDIZI FISICI: sono prove fisiche che provengono dall’uso (o non uso) di un oggetto. Sono le tracce del
comportamento passato. Esempi: le lattine in un bidone per la raccolta differenziata, le pagine sottolineate di
un testo, il logoramento dei comandi di videogame. Possono essere classificati in:
a. INDIZI D’USO NATURALE: prevedono che non ci sia alcun intervento da parte del ricercatore e
riguardano eventi che accadono naturalmente (es. studente che evidenzia il libro).
b. INDIZI D’USO CONTROLLATO: vi è qualche intervento del ricercatore (es. studente che dimostra di
aver studiato perché sposta i sigilli posti nel libro dal ricercatore).
c. PRODOTTI: creazioni, costruzioni o altri artefatti del comportamento. È un metodo molto
importante per gli antropologi, che attraverso i prodotti delle antiche culture (pitture, attrezzi...)
possono descrivere modelli di comportamento di migliaia di anni fa. Esempio – paradosso francese:
si riferisce al fatto che obesità e mortalità legata ad essa sia molto più basso in Francia che in USA,
nonostante i francesi mangino più grassi → si è ipotizzato che i francesi semplicemente mangiassero
meno nonostante i cibi più calorici.
L’osservazione indiretta con indizi fisici quindi serve a studiare il comportamento: la validità delle misure
usate (indizi fisici) deve essere però in grado di informarci fedelmente sul comportamento delle persone (es.
le sottolineature in un libro sono il comportamento di uno studente o di più che hanno usato lo stesso libro?)
● DOCUMENTI D’ARCHIVIO: Sono documenti pubblici e privati che descrivono attività, eventi e
comportamenti di individui, gruppi... (Esempi: registrazioni di squadre sportive, accessi a facebook e
Twitter). I ricercatori possono usufruire degli archivi per valutare anche l’effetto di un accadimento naturale,
cioè un evento che accade nella storia e che ha un impatto significativo sulla società e sugli individui
(terrorismo, calamità, morte, divorzi…). I ricercatori tuttavia devono essere consapevoli dei limiti e problemi
dei documenti di archivio. Tre sono i problemi in tal senso:
1. DEPOSITO SELETTIVO: si verifica quando vengono selezionate alcune informazioni, ma non altre, per
essere inserite nei depositi degli archivi.
2. SOPRAVVIVENZA SELETTIVA: si presenta quando i documenti sono andati perduti o sono incompleti,
cosa di cui a volte non si è neppure consapevoli.
3. RELAZIONE SPURIA: esiste quando i risultati indicano erroneamente che due o più variabili sono
associate. Può essere l’esito di un’associazione accidentale oppure di un uso non corretto delle
tecniche statistiche. Di norma la correlazione tra due variabili può avvenire quando una terza
variabile in genere non identificata, spiega tale relazione (esempio: consumo dei gelati >>> aumento
criminalità >>> temperatura come terza variabile).
Possono inoltre essere usate registrazioni elettroniche/monitoraggi per misurare il comportamento in modo
selezionato; oppure un altro strumento elettronico è il diario giornaliero online: i partecipanti registrano
quotidianamente eventi (umore, strategie, situazioni) → questo però si basa sulle dichiarazioni e non
sull’osservazione diretta.
L’INFLUENZA DELL’OSSERVATORE
Il problema della reattività si presenta quando l’osservatore influenza il comportamento che sta osservando.
I partecipanti alla ricerca possono regolare il proprio comportamento per rispondere alle caratteristiche della
richiesta nella situazione di ricerca. Tra i metodi di controllo della reattività, ci sono l’osservazione partecipata in
incognito/osservazione naturalistica/osservazione indiretta e l’adattamento → consiste nell’assuefazione e nella
desensibilizzazione (abituare alla presenza dell’osservatore).
I ricercatori, quando tentano di controllare la reattività, devono prestare attenzione ai problemi etici.
Un altro problema è rappresentato dall’etica del provare a ridurre la reattività dei soggetti osservati: osservare le
persone senza consenso informato può essere una violazione della privacy. Per ovviare a questo problema si può
sottoporre le persone appena osservate al debriefing, chiedendo il loro permesso di trattare i dati appena raccolti.
Il bias dell’osservatore
Il bias dell’osservatore si verifica quando il ricercatore determina quali comportamenti scegliere di osservare e
quando le aspettative dell’osservatore sul comportamento conducono ad errori sistematici nell’identificare e
documentare il comportamento.
L’effetto aspettativa può presentarsi quando gli osservatori conoscono le ipotesi di uno studio o conoscono i risultati
di studi precedenti. Il primo passo per riconoscere il bias dell’osservatore è riconoscere che può essere presente.
Questo può essere ridotto mantenendo l’osservatore all’oscuro degli obbiettivi e delle ipotesi dello studio
precedente.
Capitolo 6- Inchiesta
L’inchiesta viene impiegata per valutare i pensieri, le opinioni e i sentimenti delle persone: lo scopo può essere
circoscritto e specifico, oppure più ampio. Talvolta le inchieste possono essere sponsorizzate, e questo pone
problemi etici: infatti ogni volta gli esiti sono favorevoli all’agenzia che ha sponsorizzato la ricerca, si ha
l’impressione che i risultati siano distorti. Per stabilire se lo sono, il modo migliore è quello di esaminare le procedure
e le analisi effettuate.
L’utilizzo dell’inchiesta è molto frequente nella ricerca correlazionale → fornisce la base per delle predizioni, in essa
vengono valutate le relazioni tra variabili allo scopo di identificare le relazioni predittive.
Tuttavia non possiamo, semplicemente conoscendo una correlazione, determinare la causa della relazione. Siamo
quindi impossibilitati a stabilire la direzione della relazione (cioè se è X a causare Y o viceversa) → (esempio: nel
caso di correlazione tra essere estroversi e l’essere soddisfatti della propria vita:).
Quando una relazione tra due variabili può essere spiegata da una terza variabile, allora questa è una relazione
spuria. In questo caso sono solo elementi aggiunti, variabili che erano sfuggite e non erano state misurate, che
permettono unicamente di comprendere meglio il “perché” (nell’esempio di prima, una terza variabile potrebbe
essere il “numero di amici”).
CARATTERISTICHE DELL’INCHIESTA
Il metodo dell’inchiesta comporta il campionamento (selezione di un campione), e l’utilizzo di un predeterminato
insieme di domande, uguali per tutte le persone che partecipano alla ricerca.
Una volta deciso che l’inchiesta è metodo migliore per rispondere ad un certo quesito, e si è definito la popolazione
d’interesse, il passo successivo è selezionare attentamente il campione: più è corretta la scelta del campione, tanto
più esso sarà rappresentativo della popolazione, e sarà quindi possibile per i ricercatori generalizzare i risultati della
ricerca, sia che si tratti della popolazione di un’intera nazione, che una molto più stretta (per esempio un’etnia o gli
studenti dell’università).
L’identificazione e la selezione degli elementi o unità che costituiscono il campione sono alla base delle tecniche di
campionamento; il campione è scelto da una popolazione di riferimento o lista di tutti gli elementi o unità che
costituiscono la popolazione di interesse.
● POPOLAZIONE: ogni componente della popolazione è un elemento, ed essa è l’insieme di tutti i casi/elementi
di interesse. Per selezionare il sottoinsieme che farà da campione rappresentativo, bisogna prima stilare una
lista di campionamento, che è una definizione operativa della popolazione di interesse. Tanto più riflette la
popolazione, tanto più è adeguato.
Il sottoinsieme che ne viene realmente estratto è ciò che chiamiamo campione.
● CAMPIONE: sottoinsieme di interesse della popolazione di riferimento. L’oggetto di primario interesse di ogni
ricercatore rimane sempre l’elemento all’interno del campione, non il campione stesso.
● RAPPRESENTATIVITÀ: essa è la base per cui è possibile generalizzare dal campione alla popolazione. Un
campione è rappresentativo della popolazione nella misura in cui mostra la stessa distribuzione di
caratteristiche della popolazione (per esempio, se una popolazione è formata dal 40% di femmine e dal 60% di
maschi, ma il nostro gruppo che fa da campione è invece formato per il 30% maschi e il 70% da femmine, esso
potrebbe non essere rappresentativo).
● BIAS DELLA SELEZIONE: è la minaccia maggiore alla rappresentatività, è la distorsione delle caratteristiche del
campione rispetto alla popolazione di riferimento. Da esso ne deriva un campione distorto, in cui la
distribuzione delle caratteristiche è sistematicamente diversa da quella della popolazione di interesse. Due
sono le possibili fonti di distorsione:
1. IL BIAS DELLA SELEZIONE: si presenta quando per selezionare il campionamento vengono usate delle
procedure che portano ad una sovrarappresentazione di alcuni segmenti della popolazione, o al contrario
alla loro sottorappresentazione.
2. PERCENTUALE DI RISPOSTA: fa riferimento alla percentuale di persone che completano il questionario.
Una percentuale bassa di risposte potrebbe minacciare la rappresentatività del campione (fra le ragioni
per cui ciò accade ci possono essere: problemi di alfabetizzazione, grado di istruzione basso, problemi visivi,
scarso interesse nella ricerca). La percentuale media di restituzione dei questionari postali si aggira attorno
al 30%. Ci sono dei modi per aumentare la percentuale, come rendere il questionario più personale, usare
domande che richiedano il minimo sforzo, rendere l’argomento interessante ecc.
Procedure di campionamento
Ci sono due approcci di base al campionamento:
● CAMPIONAMENTO NON PROBABILISTICO: non abbiamo garanzie che ogni elemento abbia una certa
probabilità di essere incluso nel campione, e non c’è modo di stimare la probabilità di inclusione di ogni
elemento. La più comune forma è il campionamento di convenienza, che implica la selezione degli interpellati
soprattutto sulla base della loro disponibilità o sollecitudine a rispondere. Il campione di convenienza, come
qualsiasi altro campione, risulta distorto se non c’è una forte evidenza che confermi la sua rappresentatività.
● CAMPIONAMENTO PROBABILISTICO: tutti gli elementi hanno la stessa possibilità di essere inclusi nel
campione. Il campionamento probabilistico assicura che i campioni selezionati abbiano più probabilità di
rappresentare la popolazione rispetto a quello non probabilistico. I due tipi più comune di questo
campionamento sono:
a. CAMPIONAMENTO CASUALE SEMPLICE: ogni elemento ha le stesse probabilità di essere incluso.
Inoltre è importante decidere la grandezza del campione (cioè quante unità estrarre dalla nostra
checklist) → essa dipende dalla variabilità della popolazione (quante gli elementi sono simili o diversi tra
loro).
Estrazione di un campione casuale semplice
1. Una volta stilata la lista, numera ogni unità del campionamento.
2. Decidi la grandezza del campione che vuoi utilizzare (per esempio diciamo 5, quindi da una lista
estrarrò 5 nomi).
3. Scegliere un punto di inizio nella tabella dei numeri casuali nell’appendice (per esempio puntare un
dito con gli occhi chiusi).
4. Identifica i numeri da includere nel campionamento spostandoti nella tabella (quelli ottenuti andando
alla cieca) (ignorano le ripetizioni di numeri già selezionati).
5. Elenca i nomi che corrispondono ai numeri selezionati.
Un altro sistema, anche più semplice, per ottenere un campione casuale semplice è il campionamento
sistematico (per esempio: in una lista di 40 nomi scegliamo una persona a caso, che sarà la prima, e le
altre verranno scelte sistematicamente ogni 8 persone).
Costruire un questionario
Costruire un questionario che fornisca misure attendibili e valide è un compito difficile, e l’esperienza è un fattore
fondamentale. Quando si è alle prime armi, è bene memorizzare e seguire delle precise fasi:
1. Decidere quali informazioni cercare: è una decisione che determina la natura delle domande da includere nel
questionario. L’importante è che il questionario che ne deriva sia ben costruito, così da ottenere dei risultati
interpretabili che risponderanno alle domande dello studio.
2. Decidere come somministrare il questionario: cioè prendere decisioni come scegliere quale metodo d’inchiesta
adottare, se scegliere per la presenza di un intervistatore, o se utilizzare gli item già preparati e approvati da altri
ricercatori
3. Scrivere una prima versione del questionario
4. Riesaminare e rivedere il questionario: è essenziale. Prima di procedere a questa fase è opportuno fare
revisionare il lavoro da esperti, o comunque da un altro valido punto di vista, in modo tale di risultare sicuri di essersi
focalizzati sull’argomento scelto, e che le domande da noi proposte, risultino essere obbiettive e non ambigue come
crediamo, e non tendenziose.
5. Fare un test-pilota del questionario: cioè una somministrazione reale del questionario a un piccolo campione di
persone, che dovrà essere rappresentativo di chi formerà il campione finale. Serve quindi come “prova generale”.
6. Rivedere il questionario e specificare le procedure per il suo utilizzo: per raggiungere con successo questa fase
finale è importante avere presenti le linee guida per un’efficace formulazione del questionario e per un ordine
corretto delle domande.
Linee guida per un’efficace formulazione del questionario
I ricercatori devono sapere che il modo in cui viene formulata una domanda ha un grande impatto sulla risposta.
Le persone presumono che il significato di una domanda sia ovvio. Questo ha importanti implicazioni: più si usano
termini vaghi, più le persone tendono a interpretarli secondo le loro personali distorsioni, ovvero secondo ciò che
loro intendono per “ovvio”. Per ovviare problemi come minimo deve essere riportata la formulazione esatta delle
domande cruciali per l’inchiesta con i dati che descrivono le risposte fornite dai partecipanti. In genere si sceglie tra
due formulazioni di domande:
● A RISPOSTA APERTA: i rispondenti possono dare senza alcun limite la risposta. L’evidente vantaggio è un
maggior flessibilità. Lo svantaggio è la difficolta che può nascere nel registrare e codificare le risposte.
● A SCELTA MULTIPLA: sono più facili e veloci, permettono di focalizzarsi meglio, sono facili da ricapitolare, ma
hanno come svantaggio una riduzione di spontaneità ed espressività.
Dei buoni item per un questionario dovrebbero:
● Usare un linguaggio semplice, diretto e familiare a tutte le persone.
● Essere chiari e specifici.
● Non contenere domande tendenziose (per esempio: “molte persone sono favorevoli al nucleare: tu cosa ne
pensi?”), e non devono contenere parole cariche di emozioni come “radicale” o “razzista”.
● Essere più brevi possibile (20 o meno parole)
● Evitare potenziali risposte distorte
● Essere sottoposte a verifica per la leggibilità.
Inoltre bisognerebbe evitare la possibilità di bias della risposta → cioè quando i rispondenti usano solo i punti
estremi nelle risposte che hanno un punteggio a scala, oppure solo punti neutri nel mezzo: per evitare ciò è
importante formulare alcuni item invertiti.
Randomizzazione a blocchi
È una procedura comune per effettuare un’assegnazione casuale.
Supponiamo di avere un esperimento con cinque condizioni (A, B, C, D, E).
Un blocco è costruito ordinando casualmente tutte e cinque le condizioni → D, A, E, C, B.
Si costruisce quindi un blocco alla volta, in base a quanti ne vogliamo costruire, assegnando a ciascun blocco 5
soggetti quante le condizioni, e a ciascuna condizione un soggetto; e così via per tutti i blocchi che si decide di creare,
per esempio 10.
Dato che abbiamo deciso 5 condizioni, nel primo blocco dovremo assegnare un soggetto ad ogni condizione, e così
via per ognuno dei 10 blocchi. In totale avremo quindi 50 soggetti e 10 blocchi.
Il vantaggio della randomizzazione a blocchi è che permette di bilanciare (cioè distribuisce allo stesso modo) le
caratteristiche soggettive (come la comparsa di un evento traumatico, cambio degli sperimentatori ecc.) nelle varie
condizioni dell’esperimento.
● Indicatori di dispersione (/di variabilità): indicano la variabilità presente nei dati e accompagnano sempre le
misure della tendenza centrale. Infatti, per esempio, due insieme di punteggi possono avere medie molto
simili, ma avere distribuzioni alquanto diverse. Gli indicatori di dispersione ci permettono appunto di
sintetizzare la variabilità delle distribuzioni che notiamo nei grafici. Le due misure di variabilità più comuni
sono:
⮚ Range (/campo di variazione): esso può essere calcolato sottraendo il punteggio più basso dal
punteggio più alto della distribuzione. Prende quindi in considerazione solo i valori estremi, e non
quelli intermedi.
⮚ Deviazione standard: ci fornisce una misura della dispersione dei dati attorno alla media. Non è altro
che la radice quadrata della varianza, ossia della somma degli scarti della media dei singoli punteggi,
ciascuno elevato al quadrato, diviso il numero di casi. La deviazione standard della popolazione è
indicata con la lettera “sigma” greca, mentre la deviazione standard di un campione è indicata con s.
Se entrambe le variabili sono su scala metrica, il ricercatore può utilizzare l’indice di correlazione di Pearson (r).
infatti esiste una correlazione quando i punteggi di una variabile covariano con i punteggi di un’altra variabile.
L’indice di correlazione fornisce una misura della forza (=il grado in cui al modificarsi di una variabile tende a
modificarsi anche l’altra) e della direzione della relazione fra le due variabili. L’r di Pearson può assumere valori
compresi fra -1,0 (inversamente proporzionali), oppure 1,0 (direttamente proporzionali). Un valore di 0,0 sta ad
indicare che non c’è relazione tra le variabili. (se nel grafico la retta è inclinata verso il basso, allora avremo un valore
di Pearson che tende al negativo, verso l’alto uno che tende al positivo). Come era già stato detto nei capitoli
precedenti, esso non permette di fare inferenze causali.
Grafici di dispersione: grafici che mostrano la correlazione tra due variabili:
● Correlazione positiva: i punteggi più elevati di una variabile sono associati a punteggi più elevati di una
seconda variabile
● Correlazione negativa: i punteggi più elevati di una variabile sono associati a punteggi più bassi di una
seconda variabile
Esempio:
Utilizzo del computer per l’analisi dei dati
I ricercatori in genere utilizzano il computer per condurre analisi statistica dei dati (tra i più famosi software
abbiamo: BMDP, SAS, SPSS, STATA). Per potere usare al meglio il computer, bisogna avere bene in mente le risposte
che di stanno cercando: bisogna quindi avere chiara una buona conoscenza del disegno di ricerca e della statistica.
Confermare ciò che i dati rivelano: la statistica inferenziale (D*)
La statistica inferenziale permette di raggiungere delle conclusioni, statisticamente affidabili o significative su intere
popolazioni, sulla base dei dati raccolti dal ricercatore su un campione rappresentativo di quella popolazione. Per
comprendere se i dati confermino o meno l’ipotesi della ricerca, il ricercatore può farsi aiutare dalla statistica,
utilizzando o la Verifica dell’ipotesi nulla (NHST), chiamata anche significatività statistica, o gli intervalli di
confidenza. Per calcolare la statistiche inferenziali, impieghiamo la media campionaria come stima della media della
popolazione, cioè usiamo un singolo valore (X) per stimare (inferire) la media della popolazione (mi greca).
Frequentemente si rivela utile conoscere la quantità di errore che si commette stimando mi greca a partire da X. In
matematica il teorema del limite centrale ci dice che, se estraiamo un numero infinito di campioni della stessa
dimensione e calcoliamo per ciascuno la media X, la media delle medie campionarie (mi greca con una piccola x in
basso a destra), sarà uguale alle media della popolazione (mi greca), e la deviazione standard delle medie
campionarie sarà uguale alla deviazione standard della popolazione (sigma greca) divisa per la radice quadrata della
dimensione del campione (N). La deviazione standard di questa distribuzione campionaria teorica delle medie
prende il nome di errore standard della media (sigma greco con una piccola X in basso a destra), e si esprime con
una specifica formula (la trovi sul libro, pagina 364). Solitamente non conosciamo la deviazione standard della
popolazione, perciò anche in questo caso la stimiamo utilizzando la deviazione standard del campione (s). Quindi
possiamo calcolare un errore standard stimato della media (s con una piccola X in basso a destra), impiegando la
formula (che trovi sul libro a pagina 365). Tanto più i valori dell’errore sono grandi, tanto più probabilmente
indicando che la nostra stima della media è approssimativa.
Verifica dell’ipotesi nulla
Utilizziamo la verifica dell’ipotesi nulla per stabilire se, in una ricerca, le differenze fra le medie dei gruppi siano
maggiori delle differenze che ci aspetteremmo a causa della variabilità dovuta all’errore di misura. Questo metodo si
basa sulla probabilità di quanto i dati, osservati nei campioni selezionati dai ricercatori, contraddicono un’ipotesi di
partenza (detta appunto ipotesi nulla H con un piccolo zero in basso a destra), che ipotizza la non presenza di
differenze, effetti o legami nella popolazione di riferimento, e dunque che la variabile indipendente non abbia avuto
alcun effetto. Come possiamo decidere se accettare o rifiutare l’ipotesi nulla? Le teoria della probabilità permette di
determinare la probabilità di ottenere la differenza osservata fra i gruppi della nostra ricerca (ossia l’effetto della
variabile indipendente) se l’ipotesi nulla fosse vera. La probabilità p-value indica la probabilità di ottenere il risultato
osservato, se l’ipotesi nulla fosse vera, ossia in modo casuale. Se è molto piccola, allora rifiutiamo l’ipotesi nulla; i
risultati che ci consentono di rifiutare l’ipotesi nulla vengono definiti statisticamente significativi. Ma quanto deve
essere bassa la probabilità? Per convenzione si considerano statisticamente significativi quei risultati hanno una
probabilità inferiore al 5% (oppure <0,05). Questa quantità prende il nome di livello di significatività.
In sostanza, quando si conduce un test statistico di tipo inferenziale, si possono trarre solo due tipi di conclusioni: o
si rifiuta l’ipotesi nulla o si sbaglia a rifiutare l’ipotesi nulla (attenzione!: fra le alternative non c’è l’opzione “accettare
l’ipotesi nulla”, e adesso si spiega perché). Quando in una ricerca non si osservano effetti significativi nei risultati,
non si rifiuta l’ipotesi nulla, ma questo non ne comporta l’accettazione, dal momento che ci possono essere molti
effetti che potrebbero concorrere. C’è sempre una certa probabilità di commettere un errore. Abbiamo due possibili
errori potenziali:
● Errori di I tipo: il livello di significatività rappresenta la probabilità di commettere un errore di I tipo, cioè
rifiutare l’ipotesi nulla quando questa è vera. La probabilità di commetterlo può essere ridotta
semplicemente scegliendo un livello di significatività più piccolo, per esempio 0,01.
● Errori di II tipo: consiste nel non rifiutare l’ipotesi nulla quando essa è falsa. Con l’accorgimento di prima
(livello di significatività più basso), diminuiamo la possibilità del I tipo, ma aumenta la probabilità di
commettere l’errore di II tipo.
Gli errori di I e II tipo ci ricordano sempre che l’inferenza statistica non può mai sostituire la replica della ricerca
quale migliore test possibili per verificare l’attendibilità del risultato di un esperimento.
Intervallo di confidenza
Un approccio importante per confermare quanto i dati sembrano suggerirci consiste nel calcolare gli intervalli di
confidenza per i parametri della popolazione, come la media o la differenza fra due medie.
La media di un campione casuale estratto da una popolazione è una stima della media della popolazione. Dobbiamo
sempre aspettarci un errore, e quindi la stima dell’errore standard della media (s, con una piccola X in basso a
destra) fornisce informazioni sulla gamma “normale” dell’errore di campionamento. Più è grande l’intervallo di
confidenza, maggiore sarà la nostra certezza che la media vi sia inclusa. Tuttavia più gli intervalli sono grandi, meno
specifiche sono le informazioni sul valore esatto della media della popolazione. I ricercatori hanno stabilito che gli
intervalli di confidenza del 95% e del 99% sono i migliori da impiegare quando si desidera una stima dell’intervallo
della media della popolazione.
Le due formule per calcolare i limiti dell’intervallo si trovano sul libro, pagina 368. Per calcolare i livelli di alfa greca,
nel caso degli intervalli di confidenza, alfa greca= 1 – livello di confidenza, viene espresso come proporzione.
Conseguentemente:
● Per un intervallo di confidenza del 95%: alfa greca= (1 – 0,95) = 0,05
● Per un intervallo di confidenza del 99%: alfa greca= (1 – 0,99) = 0,01
L’unico elemento non noto dell’equazione per calcolare gli intervalli di confidenza è la statistica t. Nel caso di una
sola media, i gradi di libertà (ovvero numero di parametri che sono liberi di variare, necessari per identificare il valore
di t) sono pari a N-1 (dove N è la dimensione del campione). E per i valori di t bisogna necessariamente consultare la
tavola di distribuzione della statistica t (che si trova in qualsiasi manuale di statistica). L’aumento della dimensione
del campione migliora la stima dell’intervallo della media.
Sensibilità sperimentale e potenza statistica
Per sensibilità si intende la probabilità che un esperimento trovi l’effetto di una variabile indipendente quando essa
ha realmente un effetto (il termine si riferisce solo ad un “esperimento”). Per potenza si intende la probabilità che un
test statistico permetta di rifiutare correttamente l’ipotesi nulla di assenza di differenze (il termine si riferisce solo ad
un “test statistico”). La potenza ci fornisce la probabilità di cogliere un effetto quando esso esiste realmente, ed è
una stima della replicabilità dell’esperimento. La potenza di un test statistico dipende dall’interazione di tre fattori:
il livello di significatività statistica, la dimensione dell’effetto dovuto al trattamento e l’ampiezza del campione
(quest’ultimo è il fattore principale su cui lo sperimentatore agisce per controllare la potenza). I disegni a misure
ripetute sono più sensibili e hanno una maggiore potenza statistica dei disegni dei disegni a gruppi indipendenti,
perché le stime degli errori di variazione sono sensibilmente più piccole nei disegni a misure ripetute. Inoltre gli
errori di II tipo (dovuto generalmente ad una scarsa potenza statistica) sono più frequenti degli errori del I tipo nelle
ricerche psicologiche che impiegano la verifica dell’ipotesi nulla: questo perché molti studiosi sostengono che
l’ipotesi nulla definita come mancanza di differenze è sempre falsa, oppure, in modo più conservativo, è raramente
vera. Ne consegue che l’effetto (cioè se c’è una qualche differenza fra le medie) esiste sempre o quasi sempre, e
allora non è possibile, o quasi, commettere un errore di I tipo.
Quando i risultati non sono statisticamente significativi (p > 0,05), non è corretto concludere che l’ipotesi nulla è
vera.
Misure della dimensione dell’effetto
Le misure della dimensione dell’effetto forniscono informazioni sulla forza della relazione esistente fra variabile
indipendente e variabile dipendente a prescindere dalle dimensioni del campione. Una misura della dimensione
dell’effetto, comunemente utilizzata nella ricerca sperimentale quando si confrontano due medie, è il d di Cohen,
che è il rapporto fra la differenza fra le medie e la deviazione standard entro gruppi (per la formula vai sul libro,
pagina 373, 374, 375).
Significatività statistica e significatività scientifica e clinica
I test di significatività statistica sono uno strumento utile per l’analisi dei risultati delle ricerche. Tuttavia bisogna
porre attenzione nell’interpretare correttamente i risultati statisticamente significativi; bisogna anche stare attenti a
non confondere un risultato statisticamente significativo con uno scientificamente significativo. Infatti la
significatività statistica non coincide con la significatività scientifica. Essa dipende dalla natura della variabile dalla
natura della variabile oggetto di studio (gli effetti di alcune variabili sono più importanti di altri), da quanto risulta
attendibile lo studio (infatti anche studi non molto attendibili possono produrre risultati statisticamente significativi)
e da altri criteri come la dimensione dell’effetto. La significatività statistica non coincide nemmeno con la
significatività pratica/clinica, che dipende da fattori diversi, come la validità esterna dello studio, la dimensione
dell’effetto, e altre considerazioni di natura pratica (incluse quelle finanziarie).
Confronto fra due medie: verifica dell’ipotesi nulla
Disegni a gruppi indipendenti: il test statistico (inferenziale) appropriato per un disegno di questo tipo è il t-test, che
serve a confrontare le medie ottenute da due gruppi differenti di individui. Quando si usa un test per la verifica
dell’ipotesi nulla, è sempre auspicabile riportare anche una misura della dimensione dell’effetto.
Disegni a misure ripetute: per questo disegno possiamo utilizzare il t-test per misure ripetute (within subjects), che
confronta le due medie ottenute dallo stesso gruppo di individui (o gruppi appaiati). Se il valore di t è statisticamente
significativo, allora si può concludere che le due medie sono diverse. La valutazione della dimensione dell’effetto in
un disegno a misure ripetute è più complessa rispetto ai gruppi indipendenti.
Raccomandazioni nel confronto tra due medie: ci sono delle precauzioni da prendere nel confrontare due medie.
Esistono più metodi per ottenere prove, ed è consigliato di usare sempre il più semplice. Inoltre tieni sempre in
mente i limiti di ciò che puoi permetterti di dire sulla base dei risultati ottenuti.
Presentazione dei risultati dello studio sul vocabolario (pagina 378).
Potenza dell’analisi: conoscendo le dimensioni dell’effetto, possiamo calcolare la potenza statistica di un’analisi, che
come si è già detto, è la probabilità di ottenere un effetto statisticamente significativo.
Analisi della varianza a una via per disegni a gruppi indipendenti
L’analisi della varianza (ANOVA) è un test statistico inferenziale impiegato per determinare se una variabile
indipendente abbia avuto un effetto statisticamente significativo su una variabile dipendente, ed è fortemente
consigliato quando ci sono più di due livelli della variabile indipendente, oppure più variabili.
La logica dell’analisi della varianza si basa sull’identificazione delle sorgenti della varianza dell’errore e sulla varianza
sistematica dei dati. Il test-F (per la formula guarda pagina 381) è una statistica che rappresenta il rapporto fra
varianza fra gruppi e varianza entro gruppi (o varianza d’errore, che deriva dalle differenze individuali tra gli individui
e non può essere eliminata, ma solo bilanciata dall’assegnazione casuale), e ci permette di sapere se la variazione
dovuta alla variabile indipendente sia più grande di quella che ci aspetteremmo a causa della sola varianza d’errore. I
risultati di una prima analisi globale di un test-F onnicomprensivo vengono presentati in una tabella riassuntiva; il
confronto fra due medie può essere utilizzato per identificare delle sorgenti specifiche della varianza sistematica di
un esperimento. Anche se l’analisi della varianza può essere impiegata per decidere se una variabile indipendente
abbia avuto un effetto significativo, si esaminano le statistiche descrittive per interpretare il significato dei risultati
dell’esperimento. La misura della dimensione dell’effetto per i disegni a gruppi indipendenti è l’eta quadrato (per la
formula guarda pagina 385). Prima di realizzare lo studio bisognerebbe condurre un’analisi della potenza per disegni
a gruppi indipendenti allo scopo di determinare la probabilità di trovare un effetto statisticamente significativo, e la
potenza andrebbe sempre comunicata ogni volta che non si trova un effetto significativo. Si possono effettuare
confronti tra le due medie per identificare le sorgenti specifiche della varianza che contribuiscono a determinare la
significatività statistica del test-F
Analisi della varianza per misure ripetute
Le procedure generali e la logica per la verifica dell’ipotesi nulla dell’analisi di varianza per misure ripetute sono simili
a quelle utilizzate con l’analisi della varianza per gruppi indipendenti. Prima di iniziare l’analisi della varianza di un
disegno completamente a misure ripetute, dobbiamo calcolare un punteggio complessivo (come la media o la
mediana) per ciascun partecipante in ogni condizione. I dati descrittivi vengono calcolati per riassumere la
prestazione in ciascuna condizione della variabile indipendente attraverso tutti i partecipanti. La principale
differenza fra l’ANOVA per misure ripetute e quella per gruppi indipendenti consiste nella stima della varianza
d’errore, o varianza residua; la varianza residua è la varianza che rimane quando la varianza sistematica e quella
dovuta ai soggetti sono state rimosse dalla stima della varianza totale.
Analisi della varianza a due vie per disegni a gruppi indipendenti
È già stata spiegata nel capitolo 9, e come già detto in quel capitolo, l’analisi di un disegno complesso può procedere
in modo differente a seconda che il test-F globale rilevi o meno un effetto di interazione
Analisi di un disegno complesso con un effetto di interazione
Se l’analisi globale della varianza mette in luce un effetto di interazione statisticamente significativo, la fonte
dell’effetto di interazione viene identificata usando, semplicemente, le analisi degli effetti principali e i confronti tra
le due medie. L’effetto semplice è l’effetto di una variabile indipendente a un livello di una seconda variabile
indipendente; in tal senso infatti una definizione di effetto di interazione è che gli effetti semplici nei diversi livelli
sono diversi. Se una variabile indipendente ha tre o più livelli, si possono fare ripetuti confronti fra le medie, prese a
due per volta, per individuare la fonte di un effetto principali semplice.
Analisi in assenza di un effetto di interazione
Quando l’analisi di varianza globale non evidenzia un effetto di interazione statisticamente significativo, il passo
successivo è determinare se gli effetti principali delle variabili siano statisticamente significativi. La fonte di un
effetto principale significativo può essere meglio individuata confrontando le medie due alla volta e costruendo gli
intervalli di confidenza.
Analisi della varianza a due vie per disegno misto
In un disegno misto le variabili indipendenti sono almeno una fra soggetti e almeno una entro i soggetti. I risultati
della statistica F si riferiscono agli effetti della variabile fra soggetti, all’effetto della variabile entro soggetti e
all’effetto di interazione. L’interpretazione dei risultati segue la stessa logica dei modelli di analisi della varianza fra
ed entro soggetti.
Capitolo 13- La comunicazione in psicologia
La comunicazione in psicologia
La ricerca scientifica è un’attività pubblica. La pubblicazione è una parte indispensabile della scienza. Secondo
Bartholomew, è preferibile una rivista refereed perché le riviste con revisioni scientifiche prevedono un processo di
peer review. I manoscritti presentati vengono esaminati da altri ricercatori (peer) esperti, nello specifico campo
della ricerca affrontata nel manoscritto in esame. Questi reviewer decidono se la ricerca è metodologicamente solida
e se fornisce un contributo sostanziale alla psicologia, per poi decidere se deve essere pubblicata. A prendere questa
decisione sono gli editori scientifici. Le loro decisioni sono basate su:
● 1. La qualità della ricerca
● 2. L’efficacia della sua presentazione nel manoscritto valutato dall’editore scientifico e dai colleghi revisori
In genere solo un manoscritto su tre, di quelli proposti a più di due dozzine di riviste APA, viene accettato per la
pubblicazione.
Internet e la ricerca
L’accesso a internet è già diventato uno strumento indispensabile, in particolare per le comunicazioni via posta
elettronica, che è efficiente, semplice e conveniente. Su internet sono anche archiviate la banche dati. Le riviste
elettroniche sono diventate molto comuni. Alcune riviste sono offerte esclusivamente in forma elettronica, in
abbonamento o ad accesso libero (open access). Le discussioni di gruppo permettono agli interessati di discutere di
argomenti di psicologia di cui condividono l’interesse. Alcuni gruppi di discussione sono aperti a chiunque desideri
prendere parte alla discussione, inclusi quelli che desiderano partecipare solo passivamente (“lurkare”).
Linee guida per una scrittura efficace
Ci sono delle linee guida da seguire, anche se niente può sostituire l’esperienza:
● Conoscere l’audience: qualsiasi sia l’audience scelta, è importante selezionarla prima di iniziare a scrivere e
tenere sempre presente quel pubblico in ogni passaggio.
● Identificare l’obiettivo: gli obiettivi principali di un articolo di una rivista sono quelli di descrivere e di
convincere.
● Scrivere con chiarezza
● Essere concisi
● Essere precisi
● Seguire le regole grammaticali
● Scrivere onestamente: Il Publication Manual fornisce informazioni importanti per raggiungere una
comunicazione imparziale:
⮚ Descrivere le persone con un appropriato livello di specificità, come uomini e donne piuttosto che
solo uomini.
⮚ Essere sensibili alle etichette quando ci si riferisce alle persone, per esempio quando si usano
termini per riferirsi all’identità razziale o etnica delle persone.
⮚ Scrivere in modo da identificare chiaramente i partecipanti allo studio. Per farlo si può usare termini
specifici per indicare i partecipanti alla ricerca, come colleghi, studenti, bambini ecc. piuttosto che
qualcosa di impersonale come “soggetti”
● Scrivere un rapporto interessante
Struttura di una comunicazione di ricerca
La struttura di una comunicazione di ricerca è utile sia all’autore sia al lettore:
● 1. Pagina del titolo: indica di cosa parla la ricerca, chi ne ha fatto parte, dove è stata fatta la ricerca e la nota
dell’autore.
● 2. Abstract: è il riassunto conciso, di un paragrafo, del contenuto e dello scopo della comunicazione di
ricerca. In genere l’abstract di uno studio empirico in genere identifica quanto segue:
⮚ a. il problema oggetto della ricerca
⮚ b. il metodo, inclusi i test e gli apparecchi utilizzati, le procedure di raccolta dati e le caratteristiche
pertinenti dei partecipanti
⮚ c. i risultati principali
⮚ d. le conclusioni e le implicazioni dei risultati
● 3. Introduzione: essa deve soddisfare tre obiettivi:
⮚ a. introdurre il problema che è stato studiato e indicare perché il problema è così importante da
essere studiato
⮚ b. riassumere brevemente la letteratura importante precedente pertinente allo studio e descrivere
le implicazioni teoriche dello studio.
⮚ c. descrivere lo scopo, la logica e il disegno dello studio con uno sviluppo logico delle predizioni o
delle ipotesi che guidano la ricerca.
● 4. Metodo: si descrivono il numero e la natura dei partecipanti che prendono parte allo studio, i materiali
particolari, la strumentazione o gli apparecchi che sono stati utilizzati e come si sia condotto esattamente lo
studio.
● 5. Risultati: costituisce il culmine della comunicazione di ricerca. Tra i risultati non dovrebbero essere inclusi
i dati grezzi dello studio, ma usare piuttosto la statistica descrittiva e riportare tutti i dati della statistica
inferenziale. Poi per presentare i dati in maniera concisa, i mezzi più efficaci sono le tabelle, oppure i grafici,
dove sull’asse delle x di solito si mettono le variabili indipendenti, mentre sull’asse delle y si mettono le
variabili dipendenti.
● 6. Discussione: solitamente inizia con una dichiarazione succinta dei risultati essenziali. In particolare si
mettono a confronto i propri risultati con i risultati di altri nella stessa area. Se i risultati non sono coerenti
con le ipotesi originali, si dovrebbe suggerire una spiegazione per la discrepanza.
● 7. Bibliografia: nella maggior parte delle comunicazioni di ricerca si trovano in genere quattro tipi di
materiale bibliografico: articoli di riviste, libri, capitoli di libro e risorse internet.
● 8. Note a piè di pagina: sono molto rare negli articoli delle riviste, e ancora più rare nelle comunicazioni di
ricerca degli studenti. Quando appaiono, dovrebbero essere numerate in ordine consecutivo nel testo e
posizionate in una pagina separata che segue la sezione Bibliografia
● 9. Appendici: anche queste sono abbastanza rare. Quando è destinata ad un articolo da pubblicare,
un’appendice inizia su una pagina separata dal manoscritto e viene allegata alla fine dello scritto dopo la
bibliografia. Ogni appendice viene identificata da una lettera
Presentazioni orali
Il tempo concesso per la presentazione di norma è di 10-15 minuti, pertanto una buona presentazione orale deve
fornire una breve panoramica del problema, della metodologia, dei risultati principali e delle conclusioni. È per molti
aspetti come un abstract, ma in forma orale.
Proposte di ricerca
Segue gli stessi punti della comunicazione di ricerca, ma l’abstract non è incluso, e l’introduzione è probabile che
includa una revisione più estesa della letteratura rilevante.