Sei sulla pagina 1di 94

CAPITOLO 1

METODOLOGIA
La metodologia è la disciplina che studia l'evoluzione (teorico-
pratica) del lavoro di ricerca sulla base del metodo scientifico.
Oggi, in campo epistemologico (“discorso sulla scienza”,
sinonimo di “filosofia della scienza”), abbiamo una sorta di crisi.
L’epistemologia si occupa dei problemi del sapere scientifico sia
nel suo procedere logico che nei metodi di verifica.
Siamo in una fase della psicologia particolare che viene
considerata una scienza in crisi. Questa crisi nasce dalla
replicabilità, aspetto fondamentale della ricerca in psicologia:
molte ricerche che confermano determinate teorie ora non hanno
trovato conferma. La PSICOLOGIA è la scienza che studia il
comportamento, le funzioni psichiche e i processi mentali
(intelligenza, memoria, percezione, ecc.), le esperienze interiori o
soggettive (sentimenti, aspettative, ecc.), gli aspetti coscienti e
inconsci del comportamento umano. È, quindi, una disciplina
scientifica.
Quando la psicologia è nata è diventata una disciplina empirica.
La nascita di essa come disciplina scientifica viene attribuita al
1879, anno in cui Wundt fonda il primo laboratorio di p.
scientifica presso l’università di Lipsia, in Germania distaccandosi
dalla filosofia (“ancella”) e assumendo i criteri metodologici della
sperimentazione e della quantificazione. Wundt è il padre della
psicologia perché in quel laboratorio si sono formati tutti i più
grandi psicologi del mondo che hanno appreso metodo e teoria
portandolo in tutti i paesi. È una colonna portante della psicologia.
Lui dice che c’è quindi un oggetto di studio nella psicologia
perché fondando un laboratorio vuol dire che esiste per forza
qualcosa da studiare. Avendo un oggetto di studio empirico (si
basa sull’esperienza, può essere spiegato sperimentalmente) era
una teoria rivoluzionaria bensì prima aveva un oggetto di studio
legato all’aspetto filosofico, ermeneutico (interpretazione dei testi
scritti). Quindi la psicologia era considerata una branca della
filosofia. A un certo punto c’è un oggetto di studio e ci si pone il
problema di come studiarlo quindi il problema del metodo,
tematiche del nostro corso.
In psicologia si fa ricerca che è lo studio sistematico di un
argomento, al fine:
• di scoprire nuove informazioni e/o (DATI);
• di individuare delle relazioni tra gli elementi (TEORIA).
La ricerca può essere fatta in due modi diversi (non solo in
psicologia):
RICERCA DI BASE O PURA: Condotta col fine di primario di
far progredire la conoscenza e la comprensione teorica su un dato
argomento. Cerco di fare ricerca al fine di conoscere e non ho un
fine pratico e applicativo. Es. Se studio meccanismi con i quali
funziona il cervello produco una conoscenza che magari non
servirà mai a nulla. Queste conoscenze possono dimostrarsi utili,
in seguito, in molte applicazioni.
RICERCA APPLICATA: Utilizzazione sistematica delle teorie e
dei metodi della ricerca pura per la soluzione pratica di problemi
concreti. Quindi la ricerca applicata non è indipendente perché
dipende da quella di base che inventa strumenti e teorie per la
conoscenza e inventa nuovi paradigmi. È come se la ricerca di
base fossero i cavalli che trainano quella applicata. Questa ricerca
applicata utilizza tutti i metodi della ricerca di base per risolvere i
problemi pratici.
Esempio: se studio l’aggressività, ovvero il meccanismo di essa,
questo è una ricerca di base; se utilizzo questi strumenti e teorie
che io ho elaborato facendo ricerca di base per risolvere, per
esempio, il problema del Femminicidio: alcuni uomini utilizzano
la violenza sulle donne perché sono donne e questa è una
applicazione. Oppure si può utilizzare la ricerca sull’aggressività
pura per studiare l’aggressività simbolica e verbale che si ha in
situazioni di conflitto. Si finanzia sempre più la ricerca applicata e
non la pura perché la considerano una ricerca fine a se stessa.
Mentre quella applicata viene finanziata per risolvere il problema
ma in realtà un’applicazione senza una ricerca pura questa diventa
una ricerca selvaggia.
La psicologia non è una disciplina umanistica e filosofica ma è
una disciplina scientifica, anche accademicamente ed è
riconosciuta come tale.
COS’È UNA SCIENZA?
Una scienza è un modo di ottenere conoscenza in base a
osservazioni obiettive, dove per obiettività si intende che persone
normali, poste nello stesso luogo e nello stesso tempo
arriverebbero allo stesso risultato. Quindi la scienza è un qualcosa
di chiaro e informativo ed elegante: se ti dico una cosa ti do la
massima informazione per capire quel fenomeno. Come, per
esempio, l’elica del DNA (modello elegante e informativo e
chiaro) ha messo insieme tutte le info precedenti. Cioè una
informazione che sia sistematica, importante e che non sia
ridondante (principio di parsimonia di ?, )non dica cose che sono
esoteriche (incomprensibili) che vanno oltre quello che si può
descrivere, asciutta ed elegante. Anche la scienza psicologica
quindi deve essere pubblica e replicabile cioè quando noi
facciamo scienza non deve essere privato ma deve essere pubblico
non solo per motivo etico bensì perché gli atri devono entrare nel
merito di ciò che io faccio per poter criticare il mio lavoro.
Mettere in evidenza tutti gli aspetti critici che il mio aspetto ha.
Esempio: ricerca su 10 persone estendo i risultati a tutti gli esseri
umani qualcuno quindi potrebbe criticare la mia ricerca. Un altro
motivo per renderla pubblica è che la mia ricerca deve essere
replicabile. C’è crisi di replicabilità ovvero di credibilità.
Infatti lungo il corso della storia del pensiero occidentale la
garanzia della verità scientifica è andata via via decadendo. Se
vengono rese pubbliche delle ricerche un atro ricercatore può
provare a costruire una teoria psicologica più robusta. Uno dei
problemi della psicologia è stato quello di non fare ricerca di
replica (non replicare la ricerca).
Questi sono alcuni concetti di base che riguardano la metodologia
della ricerca. La metodologia della ricerca è un aspetto di un
qualcosa che viene considerato più ampio che è la psicometria
(misurazione degli aspetti psichici). Essa è quella parte della
psicologia che si occupa di creare strumenti validi di ricerca
psicologica e mettere appunto delle metodologie che permettono
una buona conoscenza. Serve per creare strumenti che ci
permettono di fare un’analisi psicologica attendibile. È importante
fare una diagnosi corretta perché quando si fa una misurazione di
aspetti comportamentali o processi psichici delle persone si
quantificano questi aspetti (q.i. esempio) che ci permettono di
avere un quadro più chiaro della situazione e ci permettono di
capire che ogni volta che noi facciamo una misurazione facciamo
anche un errore. In psicologia noi usiamo gli strumenti di misura:
produciamo e quantifichiamo determinati fenomeni quindi
rischiamo di arrivare ad un errore il quale va quantificato ovvero
valutato all’interno della misurazione in psicologia. Quindi questo
è un aspetto abbastanza importante essendo un aspetto
controverso. La psicologia quantifica i fenomeni psicologici
ovvero si associano dei punteggi a dei comportamenti. Questi
sono numeri che hanno un senso ovvero permettono di fare
prognosi etc. Se ho una persona avanti a me che ha un q.i di 100 è
nella normalità ma se ho un ragazzo in via di sviluppo con un q.i.
di 70 io devo intervenire. Quindi il numero che si considera
riduttivo, impropriamente, è importante se lo strumento di misura
è attendibile per poter programmare un trattamento.
Ci sono tre concezioni della scienza:
DIMOSTRATIVA: Nei primi secoli della Grecia Classica abbiamo
una distinzione tra scienza, conoscenza certa, e opinione,
conoscenza priva di certezza. Crede nella verità assoluta e per
arrivarci bisognava raggiungere la scienza oltrepassando le
opinioni. Secondo l’ideale classico la scienza garantiva la propria
validità dimostrando, con il metodo deduttivo, (a livello
matematico, logico) le proprie affermazioni, connettendole in un
sistema unitario dove ogni affermazione era necessaria. Aristotele
diceva che la scienza permette di conoscere la causa di un oggetto,
cioè si conosce perché l’oggetto non può essere diverso da come è
-> l’oggetto della scienza è necessario. Questo ideale venne
riportato in “Gli Elementi” di Euclide (III sec a.C.) in cui la
matematica viene portata a livello di scienza deduttiva senza
appelli all’esperienza e induzione, modello di scienza per molti
secoli. Infatti le uniche discipline in cui fu raggiunta la scienza:
matematica e logica formale. Anche la scienza moderna condivide
il necessitarismo di Aristotele e riconosce la matematica come
scienza perfetta per la sua organizzazione dimostrativa. La scienza
odierna viene ugualmente considerata una totalità organizzata e la
non contraddittorietà non implica un’unità sistematica. L’esigenza
di sistematicità viene ridotta a quella di compatibilità. Non esiste
un mondo reale che è qualcosa che non è contemplato. È come se
ci fosse un castello chiuso in se stesso, una torre d’avorio in cui
tutto è logico e tutto torna e tutto è vero stando nella torre. In
questa concezione dimostrativa che si basa sulla dimostrazione
matematica non c’entra il mondo reale.
DESCRITTIVA: entra il mondo reale perché c’è qualcosa da
scrivere. A partire da Bacone si è formata questa concezione. Ha
fondamento nell’interpretazione banconiana della natura ->
<<condurre gli uomini davanti ai fatti particolari e ai loro
ordini>>. Quindi l’interpretazione è l’osservazione dei fatti e
l’induzione a partire da essi. Newton sviluppa questa concezione
basandosi sul metodo di analisi (contrapponendo il metodo della
sintesi cioè assumere che le cause sono state scoperte) che
comporta fare esperimenti e osservazioni ovvero interpretare la
natura. Con l’Illuminismo viene esaltato l’ideale scientifico di
Newton: dopo aver osservato il mondo reale vengono fatte delle
inferenze. Con il Positivismo ottocentesco si ha l’esistenza di un
ordine logico e di principi organizzatori dei fenomeni del mondo.
Tutti i fenomeni sono soggetti a leggi di Natura, come diceva
Comte, che lo scienziato deve scoprire e ridurre al minimo
numero possibile ( Cours de philosophie positive). L’universo è
considerato un insieme unitario e spiegabile secondo le leggi
deterministiche. I 3 punti fondamentali di questa filosofia sono:
a) i fatti empirici sono oggettivi ovvero il mondo reale esterno è
veramente come noi ce lo rappresentiamo;
b) la natura è razionale e le leggi scientifiche esistono già in
natura prima che lo scienziato le scopra; [Persico, 1947]
c) <<natura della ragiona>>: le categorie logiche della ragione
non dipendono dalla mente umana bensì corrispondono ai
nessi reali e naturali [Amsterdamsky 1982]. Quindi la
ragione è capace di cogliere i reticoli segreti della natura che
sono universalmente validi e sovrastorici [Aperl 1973].
Il Positivismo sottolinea il carattere attivo e operativo della
scienza. Ciò rende possibile all’uomo l’agire sulla natura e
dominarla mediante la previsione dei fatti. Inoltre il Positivismo
mette in luce l’aspetto attivamente orientato della descrizione
scientifica, aspetto che diventerà uno dei punti di forza delle teorie
auto correggibili.
Tra le concezioni descrittive di scienza ricordiamo:
• Il POSITIVISMO LOGICO (empirismo logico,
neopositivismo)
È una scuola filosofica che prese piede negli anni 20 a Vienna i
quali membri emigrarono negli Stati Uniti negli anni ’30. Si
raggruppa una serie di pensatori importanti che collaboravano per
costituire una conoscenza di carattere generale valida per sempre.
L’aspetto fondamentale di questa corrente era un’inclinazione
positivista intrinseca che si associava alla fiducia nel progresso
grazie all’avanzare della scienza. All’origine di ogni conoscenza
ci sono i dati sensoriali e gli enunciati che li descrivono, quindi
ogni sapere scientifico si basa sulle osservazioni (nel mondo reale)
che nelle volute condizioni possono essere considerate oggettive
(meglio, tra le osservazioni soggettive vi è possibilità d’accordo).
Per gli autori di questa scuola l’oggettività è intersoggettiva. La
scienza viene posta in una dimensione sovrastorica quindi si tratta
di sapere inequivoco. Nei fenomeni osservati sono riscontrate
delle regolarità e grazie all’induzione si ricavano delle leggi,
punto di partenza per formulare teorie le quali propongono nuove
ipotesi che vanno verificate sperimentalmente o osservandole. È
così che si arricchisce il sapere scientifico. Il sapere scientifico è
comulativo.
Critiche. Alla fine degli anni ’50 si hanno critiche prima nei
riguardi dell’aspetto empirico, ovvero contro la credenza che
l’esperienza sia all’origine di ogni conoscenza; non esiste
un’osservazione pura indipendente da qualsiasi presupposto
teorico e da ogni aspettativa, come affermava la scuola. Quindi ci
si pone il problema fra teoria ed esperienza e del ruolo di ognuna
di esse. Le critiche sono rafforzate dall’avanzamento scientifico:
la teoria della relatività di Einstein metteva in luce che i concetti
di spazio e di tempo non possono intendersi come dimensioni
assolute, bensì relative dipendenti dal sistema di riferimento in cui
è collocato un osservatore. Quindi abbiamo un’insufficienza del
metodo osservativo e induttivo arrivando all’adozione del metodo
ipotetico-deduttivo.
Positivismo logico e psicologia. L’empirismo logico trova cultori
nella psicologia: Feigl (Harvard 1930) che realizza l’incontro tra
empirismo logico e psicologia scientifica in una sua opera, Rudolf
Carnap (professore a Chicago dal 1936 a 1952 e alla University of
California di L.A. dal 1954 a 1962), Egon Brunswik il quale diede
un contributo psicologico all’opera neopositivista “International
Encyclopedial of Unified Science” con il saggio “The Conceptual
Framework of Psychology (1955). Anche il Behaviorismo riprese
la formulazione della scuola viennese. Per i Behavioristi una
teoria scientifica è la descrizione dei dati sensoriali raccolti nei
cosiddetti protocolli di osservazione, nati nel circolo di Vienna.
Determinanti per questi sono la misurazione e formulazioni
matematiche in uso nelle scienze naturali astratte. Alla base di
tutto abbiamo i principi della scientificità per eccellenza proposti
dal positivismo logico: oggettività e possibilità di confronto
intersoggettivo delle osservazioni. Hull fu uno degli esponenti del
comportamentismo che più degli altri applicò le tesi del
positivismo logico in psicologia.
• L’EPISTEMOLOGIA GENETICA (cambiamenti
qualitativi)
Piaget con questa disciplina intende spiegare i processi cognitivi
ricostruendo le fasi del loro sviluppo dall’infanzia al mondo
adulto. Secondo Piaget numerosi problemi relativi ai concetti
scientifici (tempo, spazio etc.) possono essere studiati
empiricamente per come si vanno formando nel corso dello
sviluppo genetico (considerato da lui parallelo a quello storico).
L’Epistemologia deve riconoscere che alcune soluzioni ai suoi
problemi provengono dalla sperimentazione. Piaget sosteneva che
la conoscenza scientifica si evolve attraverso cambiamenti
qualitativi nel modo di pensare, piuttosto che con incrementi
quantitativi.
L’AUTOCORREGIBILITA’: si abbandona ogni tipo di garanzia
assoluta e si apre lo sguardo verso lo studio analitico degli
strumenti di indagine di cui le scienze dispongono. Non crede che
la scienza produce verità assolute ma transitorie cioè conoscenze
che vanno bene oggi ma possono essere superate domani, non è
detto che migliorino, si cambiano. Non esiste la verità assoluta ma
è relativa.
IL RAZIONALISMO CRITICO DI POPPER. Ricordiamo
Karl Popper, filosofo nato a Vienna da genitori ebrei all’inizio
del secolo scorso e morto in Inghilterra. Negli anni ’20, a Vienna,
Popper, in solitaria, elabora una teoria che avrà molto più successo
la quale può essere contestata dal punto di vista logico. Popper
parte da una semplice idea di logica elementare: una proposizione
generale non può essere confermata empiricamente ma solamente
falsificata o confutata. Affermare che tutti i “cigni sono bianchi”
solo perché tutte le volte che vedo un cigno esso è bianco non
vuol dire che non possa imbattermi in un cigno nero. Quindi è
un’affermazione che non può essere provata a livello empirico
perché trovare un solo cigno nero proverebbe che la constatazione
è falsa. Quindi basta un solo caso contrario alla legge che la mette
in crisi (la presunta legge della concezione descrittiva) ovvero una
teoria non può mai essere definitivamente dimostrata perché il
caso n+1 potrebbe smentirla. Lui dice che dobbiamo cercare
quindi quell’esempio che mette in crisi la conoscenza accumulata.
Lo scopo della scienza quindi non è verificare una cosa ma ciò che
conta è la confutazione ovvero falsificare. La vera scienza non è
quella che trova conferme ma sconferme. Era una cosa
rivoluzionare a quei tempi. Solo le confutazioni sono logicamente
convincenti. Lo scopo scientifico è trovare una teoria n+1 che
spieghi meglio della teoria n’. Popper si chiese quante volte
doveva osservare regolarità per farle diventare leggi ma il numero
delle osservazioni dice ben poco, in quanto una teoria non è mai
certa infatti lo scopo dello scienziato è quello di falsificarle, specie
le più potenti.
Popper propone il criterio di demarcazione tra le scienze
propriamente dette e le abusive riconosciute come tali. Popper
considera scienza tutto ciò che è falsificabile ovvero ciò che
permette delle previsioni precise che possono essere smentite dai
dati sperimentali. Mentre teorie che non permettono ciò non
dovrebbero essere riconosciute come tali: teorie non falsificabili,
le pseudoscientifiche. Lui è contro la psicoanalisi e il marxismo
(definite da lui “bestie nere”): sono una serie di ideologie che
spiegano tutto ma non possono essere falsificate. Le pseudo
scienze si salvano con ipotesi ad hoc. Non hanno mai una
propulsione nel miglioramento, hanno macigni che non
cambieranno mai.
Un esempio dell’ipotesi a hoc che si applica alla psicoanalisi
classica: l’etnologo Malinowski scopre che le tribù delle isole
Trobriand (nel Pacifico) ignorano il rapporto tra concepimento e
procreazione. Dato che 9 mesi era un periodo lungo non
pensavano ci fosse un legame diretto. Avevano la concezione della
donna come (diversa dall’occidentale) auto-procreazione. Questa
prova dimostra che il complesso di Edipo (secondo Freud i
bambini maschi provano una certa di attrazione verso la propria
mamma e sentimenti negativi verso il proprio padre, ovvero
fantasie sulla sua uccisione per la gelosia della mamma) non era
possibile perché in alcune culture non esiste il padre sia come
fecondatore che come presenza. Ciò mette in crisi l’universalità
del complesso di Edipo sulla base delle osservazioni etnologiche.
Psicoanalisti, come Ernest Jones, sostengono che si tratta di una
forte manifestazione del complesso: gli abitanti conoscono in
maniera inconscia la relazione tra concepimento e procreazione e
consciamente la ignorano spingendo l’odio del padre fino a negare
il legame biologico con esso. La conclusione di Popper è che era
più convincente l’ingegnosità che il contenuto. Veniva utilizzata
una spiegazione ad hoc -> giustificazione di una vera teoria che
non può essere falsificata quindi non può essere una vera scienza.
Popper dice che la scienza nasce dai problemi (contraddizione tra
una o più teorie espressi mediante un asserzione), ovvero non
sviluppiamo teorie perché osserviamo. L’osservazione serve solo
per verificare le ipotesi ma non per risolvere problemi perché
serve l’intuizione dello scienziato: creatività e fantasia. Una teoria
per essere accettata nel corpus delle scienze empiriche, deve
essere confrontata coi fatti: importanti sono i processi reali di
ricerca in cui l’analisi critica dello scienziato deve rivolgersi alla
ricerca dell’errore. Metodo di Popper: problemi-teorie-critiche.
Metodo positivisti logici: osservazioni-induzione-ipotesi e
verifica.

PERCHE’ ALCUNE TEORIE NON SI POSSONO


FALSIFICARE? IL RICORSO A IPOTESI <<AD HOC>>
Il ricordo a spiegazioni ad hoc può essere dovuto a molteplici
cause:
a) Scarsa precisione: una teoria non è falsificabile quando è
troppo poco precisa (es. concetti vaghi o operazionalizzati
male);
b) Incompletezza: non contiene cioè tutti i fattori capaci di
interessare i fenomeni che essa pretende di spiegare;
c) Complessità: non dispone di tutte le info necessarie per
decidere se un’osservazione la conferma effettivamente.
Le ipotesi ad hoc: sono quelle ipotesi che, non aumentando il
contenuto informativo della teoria, proteggono quest’ultima dalla
falsificazione. Da un punto di vista logico la loro introduzione è
sempre possibile ma al contempo quasi sempre scorretta.
Le ipotesi ad hoc ammissibili: aumentano il contenuto
informativo dell’apparato ipotetico in cui vengono introdotte,
possono diventare il punto di partenza di nuove ricerche.
ESEMPIO. Nel 1903 Blondot, fisico francese, annuncia i raggi N i
quali avevano strane proprietà che però potevano essere verificate.
Molti scienziati rifecero gli esperimenti senza trovarne conferma,
quindi dal loro punto di vista la teoria di Blondot era falsificata.
Lui utilizzò una giustificazione ad hoc: i raggi N hanno
caratteristiche che possono essere viste solo da razze latine fornite
da sensibilità intellettuale e sensoriale per rilevarle. Questa
sensibilità non faceva parte né degli anglosassoni in quanto
stavano sempre in mezzo alla nebbia e né dei teutonici in quanto
bevevano troppa birra.
PARADOSSO DEL CORVO:
Alcune tesi di Popper sul metodo deduttivo e induttivo furono
sviluppate da Hempel nel 1942-45. Secondo questo paradosso
anche un oggetto non nero diverso da un corvo è una conferma
dell’ipotesi che tutti i corvi sono neri. La base di partenza di tale
paradosso è il metodo induttivo e l’individuazione di come esso
possa giungere a conseguenze paradossali. Se affermiamo
induttivamente che tutti i corvi sono neri non potremo mai essere
sicuri di tale affermazione, come diceva Popper. Se vogliamo delle
conferme dovrebbe cercare tutti i corvi e verificarlo ma ciò
sarebbe arduo per questo arriviamo a un metodo più semplice.
Bisogna individuare un equivalente logico: “tutti i corvi sono
neri”, quindi se è vero deve anche essere vero che “tutte le cose
non nere non sono corvi”. Quindi osservare una macchina rossa o
un dentifricio bianco sono prove ripetute che i corvi sono neri. Il
paradosso è tanto più evidente se pensiamo di presentare a un
giudice, come prova che una pistola ha sparato, un qualsiasi altro
oggetto che non ha sparato, come un sasso.

THOMAS KUHN, FISICO: negli anni 60 scrive “La struttura


delle rivoluzioni scientifiche” (opera utilizzata più da sociologi
che storici nonostante Kuhn non fosse un filosofo) con il quale si
avrà influenza sulle scienze sociali. Come Popper contrastava il
positivismo logico e si interessava all’aspetto dinamico
dell’evoluzione scientifica ma si differenziava da egli perché basa
la nascita della scienza sul concetto di “paradigma” mediante il
quale la scienza si evolve. Sostiene che il compito della scienza
consiste nel risolvere “enigmi”, quindi di arricchire le teorie e non
verificarle contrastando sia Popper che l’empirismo logico. Il
Paradigma è una conquista scientifica universalmente
riconosciuta per un certo periodo di tempo, è un modello di
riferimento per risolvere problemi. Secondo Kuhn una scienza nel
corso della sua storia presenta vari cicli pragmatici. Ogni ciclo
comprende una fase preparatoria durante la quale varie scuole di
pensiero della stessa disciplina si confrontano. Si può passare da
disciplina, con la maggioranza, a una fase di scienza straordinaria
ad una fase che lui chiama scienza normale. Durante la fase di
scienza normale i ricercatori lavorano all’interno di un paradigma
senza metterlo in discussione, si tratta quindi di qualcosa di
dogmatico. Kuhn insiste sul carattere sociale del paradigma: è ciò
che una comunità ha, ovvero ciò che i ricercatori di un medesimo
settore hanno in comune e si insegna agli studenti. Ogni
osservazione è carica di teoria (theoty-laden) modellata dalle
nozioni teoriche e dai precedenti ricercatori. Il paradigma si
trasmette anche mediante lavori manuali. Cioè Il paradigma
dominante fornisce non solo teorie ma anche strumenti per vedere
il mondo (esempio: gabbia di Skinner e molti altri studiosi
useranno il suo strumento) e comprende anche nozioni implicite.
Caratteristica importante dei paradigmi è l’incommensurabilità:
ognuno ha i propri criteri di validità ovvero sono incomparabili.
Quindi non ci può essere passaggio dall’uno all’altro per una
trasformazione graduale, continua. Il nuovo, dunque, può
sostituire il precedente solo totalmente, ovvero con una
rivoluzione. Ci sono periodi in cui c’è un paradigma egemone, che
viene rispettato e non messo in discussione, alternati a periodi di
crisi del paradigma e dopo si instaura un altro paradigma. Come
avviene il passaggio? Anche nel periodo di scienze normale
accadono delle anomalie ovvero contraddizioni per quanto
riguarda alcune prove, si trova che due asserzioni all’interno di
uno stesso complesso teorico sono contraddittorie. Quando ci sono
le anomalie nella fase normale vengono giustificate e ricondotte
nel paradigma (simile a Popper) però succede che le anomalie si
accumulano e si entra in un periodo di crisi quindi il paradigma
viene messo in discussione e sostituito da un altro (rivoluzione). Il
nuovo paradigma entra in competizione con il vecchio; con la
rivoluzione tutto viene sconvolto e si hanno teorie, strumenti e
oggetti di studio diversi e la visione del mondo differente.
Lo sviluppo della scienza, secondo Kuhn, è discontinuo,
ateleologico (negazione della finalità dei fenomeni). In psicologia
un esempio di trasformazione radicale è fornito dal passaggio dal
behavourismo al cognitivismo, avvenuto intorno agli anni 60.
Il concetto di Paradigma porta con sé l’irrazionalità: se non esiste
una teoria naturale sui dati di base e se le discipline costituiscono
la loro propria pratica scientifica dove sono i criteri di verità? La
teoria del paradigma porta ad una concezione del consenso della
verità, in cui non vi sono prove indipendenti sulla natura di tale
consenso. Quindi Feyerabrend sostiene che la scienza fa uso di
una pluralità di standard e che gli scienziati lavorano meglio se
non vincolati a paradigmi (svincolati anche dall’autorità della
ragione). Sostiene una posizione di anarchismo metodologico:
secondo cui le violazioni alle norme del metodo sono necessarie
per lo sviluppo della scienza. Ma ciò può essere al contempo
molto pericoloso perché, ad esempio, una persona con problemi
psicologici necessita di cura quindi di diagnosi. Ma se da una certa
persona abbiamo una diagnosi e da altre persone ne abbiamo
differenti questo è un problema -> noi in psicologia dobbiamo
ridurre le incertezze ovvero avere diagnosi consensuali ovvero
condivisa dalla facoltà scientifica. Feyerbrand, quindi,
contrappone al modello monistico dello sviluppo scientifico il suo
pluralismo teorico.

DIFFERENZE STORICHE: Il primo atteggiamento visto,


quello di Popper, è astorico ovvero non influenzato dal proprio
tempo. Il criterio di base del sapere è infatti l’empirismo. Il
metodo è fondamentale nell’indagine scientifica. Mentre il
secondo atteggiamento riconosce al progresso scientifico una
dimensione storica: non vi è solo una crescita quantitativa ma
anche qualitativa. Non esiste, quindi, un metodo valido per tutte le
scienze e tutti i tempi. La scienza non è più ricerca bensì azione.
Questi due atteggiamenti presi singolarmente sono sbilanciati: da
una parte lo scientismo dogmatico di Popper e dall’altra
Feyerbrand secondo il quale tutto può andar bene, facendone della
scienza una prassi manipolatoria dipendente dal cambiamento
sociale.
Oggi: la scienza non è unica e né immutabile. È fondamentale la
presenza di regole per stabilire i principi regolativi comuni che
devono essere rispettati per non cadere nella pseudoscienza e
nell’anarchia.
OGGI:
Recentemente, nel settore del pensiero psicologico, si ha una
nuova concezione di scienza alle proposte auto correggibili: la
teoria realista. Con essa si ha la concezione che non esiste
qualcosa che può essere considerato fatto puro, ovvero si ha la
convinzione che la conoscenza sia un prodotto sociale e storico.
Gli scienziati generano i criteri razionali indicanti le teorie da
accettare e rifiutare. Questi devono essere razionali. Lo scienziato
può sempre essere in errore in quanto si tratta di mondo
conosciuto e non quello reale. Lui crede che l’uomo grazie alla
scienza acquisisce gradualmente sempre più conoscenza
riguardante il mondo. Il realismo critico, differentemente dal
positivismo logico, sostiene che una spiegazione scientifica valida
può ricorrere a ciò che non è osservabile. La scoperta di queste
“cose nuove” implica la transdizione ovvero inferenza
dall’esperienza verso ciò che è sostanzialmente al di là
dell’esperienza. Per il realismo critico sia il mondo che la scienza
sono stratificati ovvero le “cose” del mondo sono dei composti
complessi. Per il mondo della psicologia è lo stesso: i fatti
comportamentali vanno considerati a più livelli, a più sfere di
influenza tra loro interagenti, a più stratificazioni. Questa
concezione di stratificazione delle cose comporta il rifiuto del
riduzionismo del positivismo logico.
Inoltre il realismo critico respinge sia il concetto di causa di Hume
sia quello tradizionale di legge ma propone che “quando è
presente C, A necessariamente tende a phi in virtù della sua
struttura S”. Quindi in questo contesto le leggi scientifiche si
riferiscono alle strutture o alle proprietà disposizionali degli eventi
o a classi di eventi. Quindi il realismo critico sostiene che le cose
non operano sotto condizioni di completa chiusura come vogliono
le leggi deterministiche.
La psicologia ha avuto dei riscontri: non esiste un uomo
“universale” ma esistono solo uomini storicamente e
culturalmente situati che agiscono in base alla logica della
situazione, ovvero le loro azioni si basano sull’osservanza di
regole. Il ricercatore come oggetto di studio ora ha un soggetto
della sua stessa natura considerato come complesso particolare e i
vari comportamenti come risultato di complesse transazioni di
molte strutture differenti. I comportamenti umani non possono
essere spiegati in una sola legge o principio ma comportano
numerosi livelli di stratificazione interagenti tra loro.

IL METODO INDUTTIVO
Segue questo ragionamento: se oggetti di una certa classe hanno
una proprietà “A” e godono di una proprietà “B”, tutti gli oggetti
con proprietà “A” godranno di proprietà “B” à <<Tutti gli A
godono della proprietà B>>. Ma questa conclusione può essere
falsa anche se tutte le premesse sono corrette, perché nelle
premesse non vengono considerati tutti i casi. Incluso in questo
metodo è il concetto di probabilità, ovvero un fenomeno
riscontrato non è mai una certezza ma una regola probabilistica. Il
metodo segue 4 tappe:
1. Osservazioni specifiche;
2. Individuazione di regolarità;
3. Formulazione ipotesi;
4. Formulazione teoria.

IL METODO DEDUTTIVO
Ha una sua formulazione: date alcune premesse di carattere
generale (tutte le uova sono ovali) e un caso particolare che
rientra nella categoria (questo è un uovo) si giunge a una
conclusione che ne consegue logicamente (questo uovo è ovale).
Se le premesse sono vere anche la conclusione lo è. Su questo
metodo si basa il sillogismo aristotelico. Segue, anch’esso, 4
tappe:
1. Formulazione di una teoria;
2. Formulazione di ipotesi specifiche;
3. Osservazioni;
4. Verifica ipotesi.
CAPITOLO 2
Il processo di ricerca
Sia nella ricerca di base che in quella applicata abbiamo il
medesimo processo di ricerca. Le fasi sono le seguenti:
1. Identificazione del problema di ricerca, formulazione delle
ipotesi e delle domande di ricerca;
2. Pianificazione del disegno sperimentale;
3. Raccolta dei dati (osservazione);
4. Analisi dei dati (risultati);
5. Interpretazione dei risultati;
6. Comunicazione dei risultati;

1) Come sosteneva Popper, la ricerca nasce da problemi, teorici o


sociali. Un problema teorico è di due tipi: una contraddizione
tra un asserto teorico e un altro asserto teorico (aporia); una
contraddizione tra un aspetto teorico e un dato di fatto. Un
problema sociale nasce dalle contraddizioni della società. La
difficoltà sta nel trovare problemi rilevanti in quanto quelli
banali portano solo ad esiti scontati. Da dove vengono i
problemi di ricerca? Come si individuano? Per esempio a
Poincarè l’idea lo colpì in sogno: scoperta delle funzioni
fuchsiane (possono essere usate per risolvere l’equazione
differenziale lineare di secondo ordine con coefficienti
algebrici). Le fonti comuni dei problemi di ricerca sono:
a) Interessi personali del ricercatore: sono importanti in
quanto lo stimolano. Possono riguardare vari temi:
emozione, memoria, creatività ecc. che possono essere
punto di partenza per le ricerche. Come per esempio
Pavlov scopre i riflessi condizionati osservando il cane;
Freud analizza singoli pazienti in maniera intensiva;
Ebbinghaus studia intensamente se stesso per approfondire
i processi della memoria;
b) Fatti paradossali e fortuna: su uno di questi si basa la
ricerca di Darley e Latanè. A New York nel 1964, di notte,
una donna, Kitty Genovese, venne accoltellata da un
uomo. Ben 38 persone si affacciarono alle proprie finestre
e non prima di mezz’ora chiamarono la polizia. Durante
questo tempo l’uomo ebbe modo di tornare indietro per
finire la donna. Ci si chiese quindi “quali sono i
meccanismi alla base dei comportamenti inerti e passivi di
fronte a evidenti richieste di aiuto?”, l’ipotesi da loro
proposta era che più persone sono e meno è probabile che
si interviene perché c’è una diffusione della responsabilità.
Si ha l’aspetto spettatore: sono spettatore di un evento
negativo e resto passivo.
c) Fatti dovuti al caso: Per quanto riguarda il caso o la
fortuna possiamo fare l’esempio della Serendipità (i tre
principi di Serendip): un esempio di serendipità attuale
viene riportato da McBurney nel 2001 e riguarda la
scoperta dell’induzione dei topi (per il 90%) a mangiare
dopo avergli pinzettato la coda.
d) Tentativi di risolvere problemi pratici: basta osservare
per identificare problemi concreti.
e) (il più importante) Le teorie e i risultati delle ricerche:
le teorie possono essere il punto di partenza di nuove
problematiche e quindi di ricerche. Per esempio la teoria di
Freud, la Gestalt, i dati di Skinner sull’apprendimento.
Sorgono i problemi in due maniere: euristicamente e
sistematicamente. L’influenza euristica si ha quando una
teoria genera enorme interesse e numerose ricerche;
l’influenza sistematica si ha invece quando le teorie o le
ricerche fanno affermazioni esplicite o direttamente
verificabili come è successo, ad esempio, con il
condizionamento operante.
f) Strumenti creati apposta per l’identificazione dei
problemi (convegni, discussioni, letture, pubblicazioni,
biblioteche, ecc): più conoscenze possiede uno studioso
più probabilità ha di proporre nuove problematiche di
indagine.
g) Competizione: Meccanismi istituiti per aumentare la
qualità della ricerca, basati sulla competizione tra
ricercatori. I ricercatori tendono a formulare delle ipotesi
sulla base di fattori esterni piuttosto che sulla base del
valore intrinseco delle ipotesi stesse.

DOMANDA DI RICERCA E IPOTESI DI RICERCA:


Per risolvere il problema, il ricercatore si pone domande di ricerca
e formula ipotesi di ricerca. La domanda di ricerca è un quesito
che nasce da mancanza di conoscenza o da lacune nella teoria e
che guidano l’intera ricerca. Le domande di ricerca permettono di
focalizzare l’attenzione del ricercatore su alcuni aspetti e di
eliminarne altri, divenendo così selettiva.
L’ipotesi di ricerca che ne consegue è una congettura sulle
relazioni esistenti tra le variabili che il ricercatore intende
verificare, espressa tramite un’affermazione condizionale (“Se …,
allora …”). “Se accade X, allora si osserva Y” Esempio: “Se i
soggetti subiscono una frustrazione, allora diventano aggressivi”.
L’ipotesi di ricerca che collega almeno due variabili deve essere
operazionalizzata, deve essere verificabile a livello empirico ed
espressa in modo matematico, ovvero il concetto va reso
misurabile.
ESEMPIO:

ipotesi di ricerca: <<Se le persone subiscono una frustrazione, allora divengono aggressive>>
operalizzazione: <<Se un telefono pubblico non restituisce la moneta all’utente, allora egli
metterà in atto comportamenti distruttivi nei confronti del telefono stesso>>
Rapp. Matematica: y=f(x) in cui: x=frustrazione y=aggressività
Rapp. Grafica: frustrazione à aggressività

L’ipotesi di ricerca dà luogo a due ipotesi statistiche: nulla(H ) 0

che afferma la mancanza dell’effetto, alternativa(H ) che afferma 1

la presenza dell’effetto. Le due ipotesi statistiche si escludono


reciprocamente.
ESEMPIO:
• ipotesi nulla: <<la frustrazione non ha effetto
sull’aggressività: le due variabili sono indipendenti>>;
• ipotesi alternativa: <<la frustrazione ha effetti
sull’aggressività: all’aumentare del livello di frustrazione,
aumenta il livello di aggressività>>.
2) Comporta procedimenti complessi, sistematici e dinamici.
Vengono fatte scelte per delineare il disegno della ricerca
riguardanti l’oggetto da osservare, le condizioni per condurre
l’osservazione, strumenti di misura più affidabili e i metodi
appropriati per codificare i dati.
3) Il ricercatore mette in atto le procedure stabilite nella fase
precedente e raccoglie i dati che saranno oggetto di studio
durante le tappe successive. Le osservazioni empiriche sono i
fatti della ricerca. Secondo la fondamentale teoria della
misurazione, proposta da S. Stevens nel 1946 e nel 1950, la
misurazione è un’associazione tra una categoria (o simbolo
formale) e un evento, un oggetto o un individuo, in base a
regole. Abbiamo quindi tre fondamentali elementi in questa
descrizione:
a) Da un lato, la “realtà” costituita da ciò che viene misurato:
·Eventi che accadono nel tempo ·Oggetti presenti nel mondo
reale ·Individui che attuano dei comportamenti;
b) Dall’altro, “insieme di categorie” che si applicano alla
“realtà” per eseguire la misurazione: Sistemi di categorie con
i quali etichettiamo, codifichiamo, organizziamo gli eventi,
gli oggetti o gli individui che fanno parte del mondo e della
nostra esperienza sensibile.
c) In mezzo, le regole di corrispondenza da rispettare per
misurare in maniera corretta e accurata.

In modo più formale si dice che deve esistere:


· Un sistema empirico che ha determinate caratteristiche (la
“realtà”);
· Un sistema “numerico” (leggi: formale) che deve: riflettere
le caratteristiche del sistema empirico (le categorie);
· Una funzione di omomorfismo che lega il sistema empirico
con quello numerico (regole).
La misurazione di un sistema empirico è la costruzione di un
sistema numerico in modo tale che sia in una relazione di
omomorfismo (stessa forma) con il sistema empirico.
Si dice caso o soggetto ciò a cui si applica una misurazione e
che solitamente viene assegnato a una delle condizioni
sperimentali. Il soggetto può essere formato sia da esseri umani
(partecipanti) che oggetti o eventi. Quando si esegue una
misurazione su un soggetto si utilizza un sistema di categorie
detto variabile. Questo termine indica qualsiasi caratteristica,
fisica o psichica, del soggetto che può assumere differenti valori
in un dato intervallo e che varia da individuo a individuo.
Quindi la variabile può essere misurata con differenti unità di
misura. Ciascuna variabile è formata da un insieme (a volte
anche infinito) di categorie che esprimono l’ambito di
variazione della variabile stessa e che vengono dette: livelli o
modalità.
LA NATURA DELLE VARIABILI: Ci possono essere 4 tipi
di variabili a seconda del rapporto che intercorre tra le categorie
(o livelli) che compongono le variabili stesse. Per identificare in
quale delle quattro categorie ricade la nostra variabile è, perciò,
necessario capire che rapporto c’è tra i livelli della variabile
(cioè capirne la natura).
I 4 TIPI DI VARIABILI: (le prime due sono qualitative; le
ultime due quantitative o metriche)
i. Categoriali o nominali o mutabili: sono delle pure e
semplici categorie discrete, qualitativamente
diverse l’una dall’altra, e non possono essere
ordinate in nessun modo. Esempi: Genere
(maschi, femmine); Religione (cattolica, ebrea,
musulmana, protestante). Ai livelli della
variabile possono essere assegnati dei nomi,
come maschi e femmine, o dei codici astratti
(es., a, b, c, d), ma mai dei valori numerici (es.,
1, 2, 3, e 4) o ordinali (I, II, II, IV);
ii. Ordinali: quando i livelli oltre ad essere diversi
sono anche ordinati in modo che uno venga
prima dell’altro o viceversa e non hanno valore
numerico; Esempi: Classe sociale (alta, media,
bassa), ·Domande (da quelle più aperte a quelle
più chiuse). Ad ogni livello può essere quindi
assegnato un valore ordinale (I, II, II, IV) ma
mai un valore numerico che indichi che
l’intervallo tra i livelli è costante o che il
rapporto tra i livelli è costante (es., 1, 2, 3, e 4).
È possibile immaginare che le diverse categorie
di una variabile ordinale giacciano su di un
continuum che va da un polo col massimo della
proprietà della variabile ad un polo col minimo
della proprietà (es., le domande giacciono su un
continuum che va da massima a minima apertura
della domanda).
iii. A intervalli equivalenti: Se i livelli della variabile
possono essere, oltre che ordinati, anche
numerati, cosicché ciascun livello corrisponde ad
un numero, e se l’intervallo tra un livello e
quello adiacente è costante (unità). L’aspetto
fondamentale è che l’intervallo, cioè la
differenza tra i livelli, sia costante. Perciò, è
assolutamente equivalente se i valori attribuiti ai
livelli sono 0, 1, 2, 3 e 4, oppure –2, –1, 0, +1,
+2. Per esempio: ·Temperatura in Fahrenheit o in
centigradi ·QI ·Test di atteggiamento e
personalità. Poiché la scala viene attribuita
arbitrariamente ai livelli, anche il valore zero è
un valore arbitrario assegnato ad un livello, e
non uno zero assoluto o naturale. Perciò,
l’assegnazione del valore zero ad una
caratteristica psicologica non indica un’assenza
reale di tale caratteristica ma un punto arbitrario
del continuum nell’intensità con cui tale
caratteristica si può manifestare. Conseguenze:
Se lo zero è arbitrario, non si può dire che una
temperatura di 20° è doppia rispetto a una di 10°
(sebbene lo si faccia nel linguaggio quotidiano),
ma solo che la differenza che esiste tra 20° e 10°
è la stessa che esiste, per esempio, tra 30° e 20°.
iv. A rapporti equivalenti: quando, oltre ad avere
diversità, ordine ed equivalenza dell’intervallo,
nella scala la variabile contiene lo zero che
indica la vera assenza di quantità misurata. Ne
consegue che se il punteggio della variabile è
doppio dell’altra, anche la stessa quantità
misurata è il doppio dell’altra. Esempi: ·Il
numero di errori in un testo scritto ·Il numero dei
figli ·Età ·Peso ·Temperatura misurata sulla scala
Kelvin (lo zero implica la mancanza di
movimento delle molecole!).

Una misurazione con una scala qualitativa (1-2) produce una


classificazione o codifica che con elaborazione produce frequenza
(es. maschi sono 10 e le femmine sono 20). Sono quindi dette
anche variabili di frequenza ed esprimono quanti eventi o
individui o oggetti sono presenti in ciascun livello della variabile.
Una misurazione con una scala quantitativa (3-4) produce anche
un punteggio (es. questo soggetto ha un QI uguale a 110) che
spesso esprime l’intensità di un fenomeno.
L’individuazione della scala di misura è molto importante per
poter eseguire una misurazione corretta, un veloce metodo per
identificarla è:
1] I livelli della variabile sono ordinabili in un qualche modo
naturale?
No, allora la scala è nominale.
Sì, allora:
2] Gli intervalli tra i livelli della variabile sono equivalenti?
No, allora la scala è ordinale.
Sì, allora:
3] Lo zero indica veramente l’assenza della quantità misurata?
No, allora la scala è a intervalli.
Sì, allora la scala è a rapporti.

Nella logica della scala Stevens vedremo che è possibile passare


da un livello più alto ad uno più basso perdendo informazioni ma
non è possibile il contrario. Ogni livello più complesso incorpora
le caratteristiche del precedente.
Una volta eseguite le misurazioni per un determinato esperimento
queste vanno inserite in una matrice di dati. Questa è uno
strumento fondamentale per organizzare in maniera sistematica i
dati raccolti rispetto a ciascun soggetto e a ciascun caso. Di solito
i soggetti vengono posti in riga e le v. in colonna in modo tale che
in ciascuna cella all’incrocio tra un caso e una v. possiamo inserire
i dati.
IL RUOLO DELLE VARIABILI NELLA RICERCA
I ricercatori sono interessati due particolari variabili che sono
connesse in qualche modo: le v. sperimentali.
I criteri che sono alla base della distinzione dei paragrafi sono
molteplici:
a) In base alla precisione della misurazione vengono distinte in continue e discrete.
CONTINUE: Si dice continua quella variabile che può
assumere i valori di tutti i numeri reali, cioè di quei numeri
che contengono gli interi e tutti i punti frazionari presenti tra
di loro. Cioè, anche se il suo ambito di variazione è limitato,
può assumere un numero infinito di valori. Es., altezza, peso,
intensità scossa elettrica. Sono necessariamente solo le v.
quantitative.
DISCRETE: Si dice discreta quella variabile che può
assumere un numero finito di valori, solitamente non
frazionari, all’interno del suo ambito di variazione o tra due
suoi punti qualunque (es., numero di figli). Spesso “variabile
discreta” si usa erroneamente come sinonimo di variabile
qualitativa ma in realtà essa può essere tanto qualitativa (es.
colore occhi) che quantitativa (es. numero figli). Non ha
unità di misura.
b) In base al ruolo all’interno di una ricerca si distinguono in indipendenti e dipendenti.
DIPENDENTE: è la variabile che il ricercatore suppone
dipenda dalla variabile indipendente.
INDIPENDENTE: è la variabile che il ricercatore suppone
sia la causa di un determinato effetto sulle v. dipendenti.
Queste si distinguono a loro volta in:
manipolate: quelle che lo sperimentatore controlla e
modifica attivamente (es. quantità dosi di un farmaco);
Eseguo un disegno sperimentale o veramente sperimentale:
manipolazione comporta un disegno sperimentale;
non manipolate: quelle che il ricercatore non può controllare
a piacere e che spesso esistono in natura (es. QI, età,
appartenenza religiosa). Il ricercatore può solo assegnare i
soggetti ai gruppi suddividendoli in base a tali variabili e ha
la stessa probabilità di essere assegnato al gruppo
sperimentale che di controllo. La variabile non essendo
manipolabile rischio di fare errori perché devo rispettarne la
natura. La non manipolazione comporta un disegno quasi
sperimentale che non ha basi solide come il precedente.
c) In base al ruolo che possono avere nel confondere una relazione tra v. indipendente e una v.
dipendente si distinguono le confuse (“confunded” che viene confusa) e le confondenti
(“confunding” che induce confusione).
CONFONDENTE o DI DISTURBO (minaccia alla
validità interna): E’ una variabile che nasce da un errore
metodologico del ricercatore (artefatto), e quindi non è
controllata, che covaria con la V.I. ma è estranea ad essa. Es:
voglio verificare l’atteggiamento conservatorio (V.D) in base
all’appartenenza politica (V.I) dei politici di dx e sx ma
scegliendo i partecipanti all’esperimento introduco una terza
variabile quale è l’età in quanto scelgo persone anziane e
persone di 18 anni. Molto probabilmente quindi le differenze
derivano non dall’appartenenza politica bensì dall’età.
Spesso sono confondenti le variabili dovute alla selezione.
CONFUSA (minaccia alla validità di costrutto): E’ una
variabile teoricamente non prevista dal ricercatore, e quindi
non controllata, che covaria con la V.I. ed è intrinsecamente
associata alla V.I. e alla sua operazionalizzazione. ES.
Brewer fa l’esempio di un ricercatore che vuole studiare la
variabile indipendente dell’ “isolamento” (in una stanza con
altre persone, da solo per poco tempo, da solo per lungo
tempo). La situazione dell’isolamento porta modificazioni
dello stato del soggetto come per esempio la ruminazione. Le
variabili dovute alla situazione giocano un ruolo
fondamentale per la determinazione della v.d. Questo perché
la v. confusa mette in discussione la validità della
spiegazione dell’esistenza dell’effetto. Ad esempio si
asserisce che l’isolamento ha effetto sull’influenzabilità del
soggetto, mentre potrebbe essere vero che l’isolamento
produce diversi livelli di ruminazione cognitiva che hanno
effetto sull’influenzabilità del soggetto. Un altro esempio: la
pioggia dà un senso di tristezza quindi “x” (v.i. pioggia)
induce “y” (v.d. tristezza); una ricerca dimostra che non è la
pioggia a indurre tristezza ma dato che essa porta maggiore
restrizione, isolamento e le persone sono più a casa è il fatto
di isolarsi a determinare tristezza. In realtà non è la pioggia
che direttamente ci fa stare tristi. Ma ignoriamo la v. confusa
che è l’isolamento a renderci tristi.
Mentre il controllo delle v.confondenti si può esercitare, sia
esaminando il disegno di ricerca che controllando se le
variazione nella v.i. sono inavvertitamente correlate a
variazioni in v.estranee che si sospetta siano di disturbo, il
controllo delle v.confuse è più complicato e si compie solo
attraverso la corretta programmazione e pianificazione del
disegno di ricerca e della v.i.
d) In base all’ errore che si compie nella misurazione si distinguono i v. inducenti errori
casuali e v. inducenti errori sistematici.
ERRORI SISTEMATICI: Sono variabili che inducono
errori cha vanno tutti nella stessa direzione (detti errori
sistematici), a volte dovuti a errori del ricercatore nel
pianificare la ricerca (scelta sbagliata dei soggetti, l’uso di
una scala di misura sbagliata, ecc.). Se io assumo di far
infinite misurazioni della stessa cosa la sommatoria tende a
infinito. Es: Bilancia tarata male
ERRORI CASUALI: Errori dovuti alla situazione e alla
condizioni in cui si fa la ricerca, ai soggetti, agli
sperimentatori, ecc., che inducono fluttuazioni nei punteggi
che vanno in una direzione o nell’altra, compensandosi,
quindi se noi assumiamo infinite misurazioni vanno in
differenti direzioni. La sommatoria degli errori casuali tende
a 0. Es.: rispondere ad un questionario quando si è affaticati,
euforici, felici, stanchi, ecc.
Ogni volta che noi facciamo una misurazione compiamo
errori quindi il compito è limitarli non eliminarli.
e) In base alla possibilità di osservare direttamente la variabile si distinguono n v.latenti e
v.manifeste:
LATENTE: variabile che non può essere osservata ma di cui
si ipotizza l’esistenza per spiegare altre variabili che possono
essere osservate direttamente;
MANIFESTE: variabili che possono essere osservate
direttamente.
4) In questa fase vengono eseguite le elaborazioni descrittive sul
campione, anche in forma grafica, e i test statistici che
permettono di prendere delle decisioni e di verificare l’ipotesi
sulla popolazione a partire dal campione.
5) Dopo aver analizzato statisticamente i dati il compito del
ricercatore è di interpretarli, ovvero verificare due cose: a)se
i risultati danno una risposta all’ipotesi di ricerca e b)se tale
risposta contribuisce ad approfondire la conoscenza del
problema. Questo obiettivo comporta che le info raccolte
vengano inserite in un contesto collegato anche ad altre
tematiche del settore. In molti casi i risultati possono
suggerire la necessità di ampliare o modificare l’ipotesi di
partenza per aumentarne la potenza esplicativa e
l’accuratezza.
6) I risultati raggiunti vengono resi pubblici tramite: convegni,
riviste scientifiche e libri. Il resoconto prevede una
descrizione dettagliata delle procedure e dei risultati per
offrire gli elementi necessari per una eventuale ripetizione.
La ripetizione delle ricerche è importante in quanto
costituisce un metodo di controllo.

CAPITOLO 4 METODI DESCRITTIVI DI RICERCA


I metodi di ricerca sono delle tecniche costruite per identificare e
descrivere accuratamente le variabili di un comportamento o di un
fenomeno ed eventuali loro relazioni. Sono utilizzati nella ricerca
psicologica e prima erano utili per le analisi preliminari, mentre
oggi stanno divenendo simili ai metodi sperimentali.
Differenza tra metodi descrittivi e disegni sperimentali
Tutte le strategie di ricerca si racchiudono in tre categorie:
1. Metodi descrittivi che si collocano sul piano della
dimostrazione;
2. Veri esperimenti (o disegni sperimentali) che si collocano
sul piano della causalità e spiegazione;
3. Quasi-esperimenti che si collocano sul piano della causalità
e spiegazione.
Le prime due sono in opposizione mentre l’ultima è un insieme di
esperimenti a cui mancano le forme di controllo. Per disegno di
ricerca si intende l’organizzazione temporale e spaziale di una
ricerca al fine di aumentare i controlli e la sua validità; riguarda
particolarmente la manipolazione della v.i. e degli effetti sulla v.d.
al fine di escludere il più possibile l’intervento di altre possibili
variabili di disturbo.
Il disegno sperimentale avviene quando tutti questi controlli
vengono messi in atto efficacemente in particolare la
manipolazione della v.i.
Il disegno quasi sperimentale avviene quando non è stato
possibile esercitare uno o pochi controlli importanti in particolare
la manipolazione attiva della v.i. che viene quindi presa come è
costituita in natura. Possiamo dire che è un disegno sperimentale
privo di alcune garanzie.
Anche i metodi descrittivi prevedono una pianificazione
temporale, ma essa è molto più dipendente da elementi esterni
(per esempio l’osservazione naturalistica può protrarsi per giorni),
non è possibile esercitare controlli per esempio manipolare le v.i.;
il fine è identificare la presenza di alcuni comportamenti e
descriverli e eventualmente metterli in relazione tra loro.
Spesso le variabili indipendenti non esistono come nello studio dei
casi singoli o di ricerca naturalistica. In altri casi come nelle
ricerche longitudinali o trasversali, nell’inchiesta o nella ricerca di
archivio, esse possono esistere, anche se non manipolate, il che
può far avvicinare queste ricerca alle quasi sperimentali.

PRINCIPALI METODI DESCRITTIVI


1. Ricerca d’archivio o analisi secondaria
2. Osservazione naturalistica o etologica
3. Studio di casi singoli
4. Ricerche correlazionali
5. Studi longitudinali e trasversali
6. Inchiesta campionaria o Survey
7. Inchiesta tramite WEB o questionario online
8. Meta-analisi

1) Laricerca d’archivio si basa essenzialmente sull’analisi dei


dati d’archivio. Questi sono costituiti da osservazioni, misure o
rilievi di vario genere, raccolti da persone diverse dal
ricercatore, spesso in istituzioni che hanno uno scopo diverso da
quello del ricercatore. Dato che si basa su dati preesistenti,
raccolti da altri e conservati in appositi archivi, la ricerca
d’archivio viene anche detta analisi o ricerca secondaria in
contrasto con la ricerca primaria con cui il ricercatore raccoglie
i dati in forma diretta. In molti casi le ricerche primarie sono
utilizzate in modo complementare con la ricerca secondaria e
non come sostitute l’una dell’altra. Infatti la ricerca secondaria
svolge un ruolo preliminare per la definizione delle ipotesi e
degli strumenti da utilizzare e l’individuazione del tipo di
partecipanti. La ricerca d’archivio viene utilizzata per due
scopi:
1. Descrivere un particolare fenomeno (cambiamenti nella
crescita della popolazione, frequenza dei divorzi, ecc.);
2. Delineare una relazione tra variabili senza stabilire un
rapporto causale.
FONTI DELLA RICERCA D’ARCHIVIO:
a) prodotti della ricerca primaria: i dati o i risultati, raccolti o
prodotti originariamente per fini di ricerca da altri ricercatori,
presentati in articoli o report. Oltre che su libri e riviste possono
trovarsi in tre differenti archivi: fonti governative (ISTAT
istituto nazionale di statistica, Servizio Sanitario Nazionale
SSN), organizzazioni commerciali o non-profit, Internet (SSRN
Social Science Research Network, Google, ProQuest).
b) archivio in senso stretto (ibidem): non deriva dalla ricerca
ma dall’attività umana a diversi livelli. Comprende dati diretti
(cioè raccolti intenzionalmente dall’uomo: verbali di sedute
comunali o parlamentari, trascrizioni cliniche, scambi di email,
foto, audio, video, ecc.) e indiretti (i quali originano dall’attività
umana in modo non intenzionale: usura pavimento). Questi
ultimi possono essere concepiti come “archivi naturali” la cui
esistenza deve scoprirla il ricercatore.
c) metodi non-reattivi basati su Internet (data mining):
letteralmente significa “estrazione dei dati”, “mine” è il verbo
che si usa per l’estrazione mineraria. Questa ricerca analizza
database, informazioni e materiali presenti su Internet, come
forum, chat, depositi di immagini o video, social network, ecc.
Sono detti non-reattivi perché i dati vengono depositati in
Internet dal normale comportamento quotidiano delle persone (i
metodi reattivi invece implicano che il partecipante risponda a
un questionario o participi a una ricerca): file log, motori di
ricerca, social network. Il comportamento naturale delle
persone che navigano in Internet può essere analizzato tramite il
tracciamento nei file log: questi contengono la registrazione
delle operazioni effettuate da un utente su un sito. Un altro
modo è il conteggio delle volte in cui un determinato item viene
trovato sul web. L’ultimo modo sono i servizi forniti tramite
web per creare e mantenere social network in cui gli utenti
interagiscono.
VANTAGGI E LIMITI DELLA RICERCA D’ARCHIVIO:
Un modo per valutare i vantaggi e svantaggi della ricerca
d’archivio è porsi delle domande: chi e perché ha raccolto che
tipo di info in quale periodo, con quale metodo e quanto i
risultati sono coerenti con quelli di altri studi?
Selettività dell’archivio (chi e perché?): gli archivi non
contengono tutte le informazioni che il ricercatore vorrebbe
trovare, ma solo quelle che sono state raccolte. Contengono
solo info parziali, perciò si può rispondere solo a quelle ipotesi
che hanno un riscontro nell’archivio.
Sopravvivenza selettiva: vengono conservate a lungo solo certe
registrazioni e non altre. Dopo un tot di tempo alcuni dati
vengono distrutti da chi li ha raccolti perché considerati non
utili.
Affidabilità delle informazioni (che tipo di info e che
metodo?): dipende dalla precisione, spesso non verificabile,
con cui le persone hanno eseguito le registrazioni
originariamente.
Effetto di reattività (presenza del ricercatore provoca reazioni
nei soggetti esaminati): la gente tende a comportarsi in modo
differente dal normale quando sa di essere osservata. Gli studi
basati su dati d’archivio hanno il pregio di non produrre
l’effetto di reattività, in quanto sono stati registrati al di fuori di
un contesto di ricerca; tuttavia, quando ci si basa su dati raccolti
da altri, l’effetto di reattività può essersi verificato al tempo
della raccolta, e in più le modalità del suo eventuale
accadimento sono sconosciute al ricercatore attuale.
Tempo in cui vengono raccolte le info: può influenzare i
risultati ottenuti, le definizioni delle misure prese o può rendere
le informazioni stesse obsolete. Perciò, i dati d’archivio devono
essere sempre contestualizzati nel periodo in cui sono stati
raccolti.
Il vantaggio della ricerca d’archivio è quello di essere l’unico
mezzo di verifica su fenomeni passati. È importante
determinare il grado in cui i dati sono consistenti con quelli di
altre ricerche che utilizzano metodi differenti perché quando
essi sono coerenti aumenta anche la loro validità.
Altro vantaggio: la ricerca di archivio si qualifica come
“Metodologia «povera»” in quanto ha bisogno di poche
risorse; la difficoltà maggiore è richiedere i permessi per poter
accedere agli archivi. Un esempio di ricerca di archivio fu
quello di Phillips il quale sostenne che se veniva divulgata la
notizia di una morte per incidente stradale sarebbero aumentate
nei giorni successivi le morti suicida dovute a incidenti simili.
2) L’osservazione naturalistica è una tecnica che permette di
raccogliere dati sul comportamento delle persone senza
interferire sul loro modo di comportarsi (es., posizione del
corpo all’incontro, interruzioni). I soggetti osservati si
comportano in maniera naturale e non si verifica l’effetto di
reattività. I vantaggi di questo metodo sono:
a) Non intrusività: il ricercatore non manipola le variabili e
rimane in disparate in quanto la sua presenza deve essere
vissuta come parte dell’ambiente naturale;
b) Mancanza di artificiosità: i soggetti sono studiati nel loro
ambiente naturale dato che quello artificiale avrebbe scarsa
validità esterna.
c) Rispetta il fluire del comportamento, in quanto la strategia
di questo metodo è il rispetto assoluto dell’ambiente ecologico.
d)Sistematicità: il ricercatore da un’ampia quantità di
interazioni comportamentali sceglie solo determinati aspetti,
quelli che suppone siano più legati all’ipotesi da verificare.
Questo metodo ha anche diversi limiti:
a)non è utilizzabile quando il ricercatore vuole individuare le
cause di un comportamento perché non ha i mezzi per poter
isolare le variabili che compongono un comportamento;
b)i tempi sono molto lunghi.
Un esempio di osservazione naturalistica in etologia (disciplina
che studia il comportamento delle specie animali nel loro
ambiente naturale) è costituito dai lavori di Konrad Lorenz sul
comportamento di corteggiamento delle anatre. Lorenz riuscì a
identificare ben 20 comportamenti specifici diversi. Uno di
questi è il “fischio-grugnito” del germano e del codone: “il
maschio scuote il becco verso l’alto e all’indietro nell’acqua,
getta una pioggia di goccioline verso la femmina corteggiata,
quindi arretra e si impenna nell’acqua, e infine scuote la coda
dopo aver ripreso la posizione normale… un fischio viene
emesso durante l’esibizione, seguito da un basso grugnito”.
Lorenz riuscì a spiegare le relazioni evolutive di questi
comportamenti. Così poté formulare l’ipotesi che le specie di
anatre che hanno in comune il maggior numero di
comportamenti specifici sono tra loro più strettamente
imparentate. Durante una delle sue ricerche un cucciolo di
anatra ebbe l’imprinting con Lorenz invece che con i propri
genitori.
L’osservazione naturalistica può essere:
a) Libera: osservazione senza pregiudizi mentali à qualitativa.
Non si producono mai numeri ma solo descrizioni del
comportamento e interpretazioni; si parte dal livello descrittivo
e si arriva a livelli di analisi.
b) Sistematica: quantitativa (ci si riferisce a Steven); usa la
teoria della misurazione in quanto è una sorta di misurazione
applicata e quindi si producono numeri dotati di senso.
L’osservazione naturalistica non prescinde da regole di
conduzione fra cui la categorizzazione (la scelta del modo con
cui rappresentare i comportamenti osservati e la registrazione).
Se i sistemi di categorie vengono definiti o utilizzati male
l’osservazione sarà falsata. È importante non ricorrere
nell’errore categoriale (Ryle 1949) ovvero attribuire a categorie
differenti un oggetto reale e un oggetto che è puramente
mentale: invece è semplicemente lo stesso oggetto che
appartiene contemporaneamente a due diversi gradi di realtà,
l’uno concreto l’altro astratto. La differenza è solo di grado e
non può essere definita nei termini di attribuzioni categoriali
differenti: da qui l’importanza di non perdere mai di vista la
globalità di ciò che è osservato. Questo compito in psicologia è
reso più difficile dalla difficoltà di dare un’attribuzione univoca
ad un evento.
Tempo di osservazione: indica la quantità di tempo da dedicare
a una ricerca che varia a seconda di essa.
Durata di ciascuna sessione osservativa: può essere variabile
o fissa; ciò che definisce la durata è l’oggetto di studio.
Ci sono 5 strategie generali per rappresentare i dati raccolti:
a) Eventi Semplici: viene eseguita un’associazione tra categorie
di comportamento e comportamenti accaduti per stabilire la
frequenza di quei determinati comportamenti e anche la loro
successione. Esempio: registrerò la sequenza del “pianto” (A) e
del “riso” (B) di un neonato senza segnarne la durata. à A B A
B
b) Eventi Multipli: quando si assegnano più categorie
contemporaneamente a un comportamento. All’interno di ogni
evento viene codificato più di un comportamento per questo tra
una virgola e l’altra ci sono almeno due codifiche. à A B, A C,
AB
c) Stati: sono eventi semplici con l’aggiunta della durata dei
comportamenti. Gli stati permettono la registrazione simultanea
di due o più “flussi paralleli” di comportamento. Esempio: oltre
a codificare il comportamento del neonato posso codificare
anche quello della madre che interagisce con lui; oppure in una
situazione differente posso registrare il comportamento verbale
(primo flusso) e quello non verbale (secondo flusso) degli
interagenti. à A=2 B=3 A=3 B=5
d) Eventi Temporali: sono meno schematici e permettono una
codifica più ampia; permettono di registrare anche i
comportamenti di frequenza, o puntuali, comportamenti di cui
non ha senso raccogliere la durata di tempo (colpo di tosse).
Hanno anche il vantaggio di permettere l’uso di sistemi di
codifica non mutuamente esaustivi.
e) Intervalli: sono applicati in maniera diversa. Viene
predisposto un intervallo temporale dal ricercatore, per esempio
15 secondi, e allo scadere dell’intervallo si esegue la codifica.
Quindi si ha registrazione a intervalli che prima si chiamava
“campionamento temporale”. Prima si facevano lunghissime
sedute di registrazione nei contesti naturali come per esempio in
tribù esterne alle nostre società per osservare comportamento
mamma-bambino (le cose scontate per noi non accadevano).
Quando andavano a fare gli studi loro avevano sistemi di
categorie che avevano centinaia di comportamenti da tenere a
mente e dover codificare in maniera sistematica. La codifica la
facevano ogni intervallo ma non come accadeva negli eventi
semplici (appena accadeva il comportamento). Avevano dei
timer che ogni 15 sec davano un segnale per fare la codifica. Un
altro modo delle sequenze a intervalli è codificare tutti i
comportamenti che si verificano all’interno dell’intervallo
(sistemi di codifica non mutuamente esclusivi). Durante
l’intervallo c’è il rischio di perdere informazioni e la
sequenzialità degli eventi.
Nelle registrazione è importante distanziare la fase
dell’osservazione da quella dell’interpretazione. È importante
annotare le riflessioni, le connessioni causali e il grado di
coinvolgimento emotivo del ricercatore; anche il linguaggio ha
una sua importanza in quanto si mantiene la distinzione tramite
l’uso di termini descrittivi e operativamente definibili nei quali
non sia leggibile alcun giudizio valutativo o inferenza astratta.
La registrazione avviene attraverso:
a)Note di osservazione: la registrazione non va mai fatta
contemporaneamente all’osservazione perché l’osservatore
avrebbe una perdita di info derivante dall’interruzione della
sequenza osservativa e da parte dell’osservato perché la
registrazione potrebbe produrre una inibizione.
b)Audio.
c)Videoregistrazione digitale: i vantaggi sono la possibilità di
riprodurre in qualsiasi momento e a qualsiasi velocità il
comportamento registrato, rilevazione automatica degli errori,
possibilità di eseguire la codifica post hoc (individuare prima il
comportamento di interesse e poi codificarlo), selezionare parti
di materiale e utilizzarle per altri scopi. Gli svantaggi sono:
diminuzione dell’attenzione dell’osservazione, ampiezza del
campo visivo inferiore a quella umana, aumento dei problemi di
reattività.
COMPORTAMENTO MOLARE E MOLECOLARE:
COMPORTAMENTO MOLARE: comportamento indicativo
dello sviluppo, dotato di senso e intenzionalità anche se non
sempre consapevole come per esempio l’atto di dormire. La
componente temporale è determinata dal vissuto di chi la
compie. Esempi: fare un viaggio, scrivere una lettera… ovvero
si tratta di attività che si protraggono nel tempo e hanno una
struttura finalistica.
COMPORTAMENTO MOLECOLARE: comportamento
“puntuale” immediato e privo di riflessione. È d’obbligo una
anticipazione motivata da un evento scatenante. Esempi:
sorriso, colpo di tosse… il limite temporale va definito di volta
in volta.
Il tempo influisce anche sulle modalità di registrazione: per le
attività molecolari si ha una registrazione per “analisi
istantanea” (annotare ciò che il soggetto fa in un determinato
istante); “continua” quando comprende tutto quello che avviene
nell’arco del tempo definito. I due comportamenti sono
rappresentati tramite eventi temporali.
3) Lo studio dei casi singoli è lo studio profondo, intensivo e
dettagliato di una singola unità – una persona, un gruppo, un
evento, una comunità, un ente, una corporazione –, in genere
per un determinato periodo di tempo, attraverso una
molteplicità di metodi, spesso qualitativi. Il caso si può
occupare di:
a) singolo individuo;
b) un gruppo (es., famiglia);
c) un posto come organizzato e frequentato (es., piazza);
d) un’organizzazione o una compagnia (o parti di esse:
dipartimento, …);
e) evento sociale o culturale;
f) classe/ reparto ospedaliero/ partito politico.
Il ricercatore può prevedere dei momenti di sintesi del materiale
raccolto; lo sviluppo del caso e la storia confluiscono in una
relazione scritta o in un report.
A seconda del tipo di caso, beneficia di una molteplicità di
metodi: colloqui e interviste non strutturate con pazienti o
osservatori privilegiati, documenti o archivi con informazioni
informali (diari, email, …) o formali (verbali, cartelle cliniche,
…), osservazione diretta e partecipante dell’attività umana e
sociale.
Il caso è spazialmente limitato, cioè si svolge di solito in un
unico contesto fisico, che di solito viene studiato per un periodo
di tempo limitato ma non breve, in modo da cogliere gli
sviluppi e i processi all’interno del caso stesso.
Lo studio del caso singolo può essere:
a) retrospettivo: se si basa su eventi successi in passato come
quando lo psicoanalista cerca di ricostruire la storia del paziente
tramite parole prodotte in analisi;
b) prospettico: se si basa su eventi che stanno accadendo
mentre il caso è sotto osservazione e si sviluppano nel tempo.
Dato che si struttura su un’analisi particolare della storia del
caso, sia esso un singolo partecipante o un gruppo di individui,
lo studio del caso singolo si basa su un approccio idiografico
piuttosto che nomotetico. Idiografico: l’oggetto di studio è un
caso particolare e specifico (non una classe di fenomeni dalla
cui analisi trarre leggi e regole generali).
DIVERSE TIPOLOGIE DEI CASI SINGOLI:
a) studio intrinseco: viene condotto quando è il caso in sé ad
essere unico e interessante, per le sue caratteristiche o per la sua
ordinarietà, o addirittura raro o poco frequente. Esempio:
individuo con personalità multipla, un ricercatore troverà con
difficolta 50 persone con questa caratteristica per condurre una
ricerca. Altro esempio: un ricercatore si trovò ad osservare il
primo caso di necrofilia omosessuale sul germano reale,
un’anatra selvatica.
b) studio sperimentale: il ricercatore non è interessato
all’unicità o alla particolarità del caso, ma al contrario alla sua
esemplarità o tipicità. Il ricercatore prima individua un
problema di suo interesse (malfunzionamento sistema sanitario
nazionale) o una parte di una teoria da sviluppare (teoria
sociologica sul funzionamento dei sistemi sanitari); poi
seleziona un caso che si adatta alla teoria (un bambino oggetto
di malasanità); Il ruolo del caso, in questo caso, è secondario,
facilità la comprensione di qualcosa che va oltre il caso stesso.
Rapporto tra caso e teoria:
1) completa una teoria (Freud intuì che i sintomi isterici
derivavano dalle pulsioni sessuali seguendo il caso di Dora);
2) illustra alcuni punti teorici nuovi o importanti (il caso del
piccolo Hans servì a illustrare in modo concreto la teoria
freudiana della sessualità infantile);
3) illustra alcune novità in ambito terapeutico (sempre tramite
Dora, Freud spiega il metodo di interpretazione dei sogni e il
metodo delle libere associazioni).
Nel primo caso la storia clinica stimola lo sviluppo di una
teoria, nel secondo e terzo esemplifica formulazione teoriche o
pratiche psicoterapiche.
Esempi di alcuni casi rimasti famosi: i casi clinici a
orientamento psicoanalitico in cui rientrano quelli di Freud,
come il caso di Anna O., di Dora, del piccolo Hans, dell’uomo
dei topi, del presidente Schreber, dell’uomo dei lupi e un caso
di omosessualità femminile. Esistono anche casi clinici
neurologici e neuropsicologici come il caso di Tan di Paul
Broca: un paziente riusciva a esclamare solo “tan”, post
mortem si verificò che aveva un danno nella regione del lobo
frontale sinistro à nascita dell’area di Broca. Noto è il caso di
Gage il quale mentre stava sistemando una carica esplosiva il
ferro che stava usando attraversò la parte superiore del suo
cranio: rimase vivo ma la sua personalità ebbe un mutamento.
Ricordiamo di Sack “L’uomo che scambiò sua moglie per un
cappello”. Esaminati sono anche i casi di bambini abbandonati
in precoce età e trovati un ina foresta in età avanzata come
Victor cresciuto in india dai lupi. Molti casi di bambini anche
tenuti in isolamento dalla più tenera età come il caso di Isabelle.
COME PUO’ ESSERE LO STUDIO DEL CASO
SINGOLO
a) descrittivo-fattuale: quando ii dati sono costituiti da
registrazioni, descrizioni dettagliate di comportamenti, ecc.; il
ricercatore produce una cronaca o profilo dei fatti;
b) interpretativo o configurativo-idiografico: se si colloca a
livello di interpretazione del fenomeno producendo una storia o
sintesi;
c) valutativo: valutazione dell‘effetto di un intervento.
VANTAGGI E SVANTAGGI DELLO STUDIO DEL CASO
SINGOLO
Vantaggi e svantaggi dipendono dal tipo di caso e di metodo.
Vantaggi: - Ricchezza dei dati. –Si può analizzare il flusso delle
interazioni umane e descrivere gli individui nella loro
complessità. -Informazioni su contesti non indagabili.
Svantaggi: - Soggettività: l’effetto sperimentatore è
particolarmente insidioso in questo tipo di ricerca in quanto ci si
basa su dati descritti e presentati dal ricercatore. - Scarsa
generalizzabilità. - Richiede tempo, risorse ed energie.
Un esempio di studio di casi singoli è quello dell’isterismo
della catena di montaggio (malattia psicogena di massa)
condotto da Smith, Colligan e Hurrell nel 1978. Si tratta di un
fenomeno che si riscontra qualche volta in certe industrie, e che
si manifesta con sintomi fisici come cefalea, nausea e
offuscamento della vista. In genere, la comparsa dei sintomi è
scatenata da uno strano odore, ma le indagini non rilevano la
presenza di sostanze odorose nell’ambiente. La causa principale
della patologia è costituita dallo stress fisico o psicologico
dell’ambiente di lavoro.
4) La ricerca correlazionale è volta a determinare il grado di
relazione tra due variabili, in genere, non manipolate, né
controllate dal ricercatore. L’approccio correlazionale consente
di fare delle previsioni e quando si conosce il valore dell’altra è
possibile determinare il valore di una di esse quando si riscontra
un’elevata correlazione. Per esempio, relazione tra svezzamento
e problemi di adattamento da bambini. Questa relazione
permette di predire la capacità di adattamento psicologico di un
bambino a partire dal modo in cui è stato svezzato. È possibile
però che i problemi di adattamento siano dovuti ad una terza
variabile à problema della terza variabile: quando la
correlazione non dipende solo dalle due variabili, si ha quindi
una relazione spuria. Come terza variabile potremmo avere “la
capacità dei genitori di allevare i figli”. Si può pensare che una
volta controllata la terza variabile non ci sia più relazione tra le
due variabili iniziali. Direzionalità: anche se due variabili
correlano positivamente non è sempre facile sapere quale delle
due influisce sull’altra (“gli studenti migliori scelgono uni
migliori” oppure “gli studenti sono migliori perché hanno scelto
uni migliori”?). Sic et simpliciter: si commette un grave errore
ritenere che la correlazione indica un rapporto di causa effetto
in quanto la ricerca correlazionale non comporta manipolazioni
delle variabili. La ricerca correlazionale è utile nelle ricerche
pre-sperimentali per identificare le variabili rilevanti e quando
gli esperimenti sono eticamente inammissibili. Permette la
verifica empirica di previsioni teoriche quando quella causale è
proibita.
5) Gli studi longitudinali e trasversali sono metodi ti descrittivi
che ci permettono di studiare i cambiamenti nel tempo dei
fenomeni psicologici. Gli studi longitudinali e quelli trasversali
analizzano i cambiamenti nello sviluppo che si manifestano nel
tempo, con modalità di approccio diverse.
STUDI LONGITUDINALI: studiano le stesse caratteristiche
dello stesso gruppo di soggetti in due o più momenti diversi nel
tempo (es. GRUPPO X1 X2 X3). STUDI TRASVERSALI:
studiano le stesse caratteristiche di due gruppi diversi soggetti,
ciascuno ad un livello evolutivo diverso rispetto all’altro (es.
GRUPPO 1 (poco evoluto) X1 GRUPPO 2 (mediamente
evoluto) X2 GRUPPO 3 (molto evoluto) X3). Permettono studi
sperimentali che portano a stessi risultati. Spesso però
divergono a causa dell’Effetto della coorte d’età (age-cohort
effect): gli studi longitudinali seguono nel tempo solo un gruppo
o una coorte di persone, così tutti gli individui di questo gruppo
sperimentano eventi ambientali simili. Gli studi trasversali
studiano gruppi di individui differenti o coorti diverse. A causa
dei cambiamenti degli eventi ambientali, i membri di queste
coorti non sono esposti alle stesse esperienze.
6) L’inchiesta è nata in modo sperimentale. Rispetto ad altre
scienze sociali, la psicologia si basa principalmente sulla
conduzione di esperimenti con campioni non rappresentativi,
formati da relativamente pochi partecipanti che solitamente, per
convenienza, sono studenti universitari. L’inchiesta è l’antidoto
per tale situazione, ovvero che la psicologia ha fatto analisi con
pochi soggetti. È una tecnica descrittiva ampiamente usata in
molte scienze sociali, come la sociologia, l’economia e le
scienze politiche. L’inchiesta consiste nella raccolta di dati su
un campione di persone rappresentative di una popolazione o
universo, per esempio tutte le donne avvocato d’Italia.
Possiamo dire quindi che il campione rappresentativo sarebbe
una piccola quantità di una totalità chiamata popolazione o
universo. Se “N”, la numerosità del campione, tende
maggiormente alla numerosità della popolazione avrò un
campione più rappresentativo.
Generalmente, l’inchiesta, indaga conoscenze, modi di vita,
opinioni, atteggiamenti, credenze e comportamenti o fatti
riportati dalle persone su temi sociali oppure l’impatto di nuove
politiche. Dato che raggiungere campioni numerosi e
rappresentativi è molto difficile, eseguire un’inchiesta è molto
costoso ma esse offre notevoli opportunità per generalizzare i
risultati delle proprie ricerche e per sviluppare teorie. LE
DOMANDE NELL’INCHIESTA: Sebbene esistano inchieste
basate su domande fatte da individui diversi dal ricercatore (dati
ISTAT) o senza uso di domande (dati Auditel), la maggior parte
delle inchieste usa questionari basate su domande. Le procedure
per le domande sono standardizzate:
a) formulare poche domande ma fondamentali;
b) in un ordine coerente;
c) spesso in un formato chiuso; (esiste già una risposta
predefinita tra le opzioni. Formato aperto -> tramite le
informazioni estrapolate l’intervistatore deve codificare)
d) con una scala di risposta strutturata e precodificata (per
esempio, scale tipo Likert oppure vero-falso).
Tali caratteristiche permettono di raggiungere facilmente tanti
partecipanti, in poco tempo, e immagazzinare i dati in un PC in
maniera concomitante, in modo da avere a disposizione in
tempi brevi il file-dati con la matrice dei dati su cui poter
effettuare le analisi.
MODALITÀ RACCOLTA CON QUESTIONARIO: Se si
basano su questionario, i dati possono essere raccolti tramite: a)
intervista; b) autosomministrati.
Le interviste faccia a faccia (a) sono molto costose e richiedenti
tempo; l’intervistatore utilizzerà un questionario cartaceo (PAPI
o Paper and pencil interview) a crocette e tramite le domande
che farà al soggetto lo compilerà, in maniera molto veloce.
Quando ci si avvale del computer si parla di rilevazione assistita
(CA Computer Assisted). Le interviste telefoniche sono quelle
che hanno avuto maggior successo specialmente in passato in
quanto con la mancanza di smartphone l’unico telefono era
quello fisso a cui quindi rispondeva sempre qualcuno. Oggi,
queste sono assistite dall’utilizzo del computer in quanto vi
immagazzinano direttamente i dati (CATI o Computer Assisted
Telephone Interview).
Con l’autosomministrazione (b) il partecipante compila il
questionario per conto proprio. Tramite i questionari “carta-e-
matita”. Prima che la tecnologia evolvesse, disponendo test
online, erano molto utilizzati specialmente negli USA, in cui
veniva anche immesso il francobollo per essere direttamente
inviati come per esempio l’exit poll. Attualmente è molto più
diffusa l’autosomministrazione di questionari online eseguiti sul
computer (CAWI o Computer Assisted Web Interview).
METODI:
Inchiesta trasversale (cross sectional survey.): la raccolta di
dati su un campione rappresentativo della popolazione avviene
in uno stesso “momento” (vale a dire, un intervallo in cui non
avvengono eventi rilevanti tali da condizionare,
differenzialmente nel tempo, le risposte alle domande). Questo
tipo di inchiesta tende a fare un’istantanea di quanto accade nel
momento in cui viene condotta. Spesso lo scopo è
semplicemente descrittivo (es. individuare la prevalenza di
determinate caratteristiche in una popolazione), ma può essere
anche quello di correlare alcune variabili tra loro senza che
questo implichi la verifica di nessi causali oppure può essere
quello di valutare l’impatto di un evento sociale.
Esiste anche l’inchiesta trasversale ripetuta, ovvero il
ricercatore conduce una serie di inchieste multiple nel tempo,
una indipendentemente dall’altra, estraendo più campioni
rappresentativi dalla stessa popolazione.
Inchiesta su panel (panel survey): consiste nel raccogliere i
dati sullo stesso campione di soggetti più volte nel tempo.
Seguendo una coorte si può valutare la stabilità dei costrutti
psicologici nel tempo. Essa può essere combinata con quella
trasversale.
DIFFERENZA TRA INCHIESTA E SONDAGGIO: Il
sondaggio indaga l’opinione o l’atteggiamento verso un
fenomeno, solitamente d’attualità o di pubblico interesse,
rimanendo su un piano descrittivo. L’inchiesta affronta
questioni più approfondite, anche di rilevanza teorica, che
spesso hanno bisogno di correlare alcune variabili. Il primo ha,
perciò, un’ottica più descrittiva, la seconda più confermativa.
ERRORI, VANTAGGI E SVANTAGGI
Errori più minacciosi nell’inchiesta:
a) Errori nella copertura della popolazione (sovra- o sotto-
copertura): si verificano quando il pool di potenziali
partecipanti non include porzioni della popolazione di interesse,
o al contrario, include porzioni che non la rappresentano;
b) Errori di campionamento: vengono prese persone con
caratteristiche diverse definite nella popolazione;
c) Mancanza di risposte da parte di alcuni soggetti del
campione;
d) Errori di costrutto: quando i costrutti sono misurati in modo
errato;
e) Errori di misurazione: dovuti ad errori sistematici ascrivibili
al rispondente (es. rispondere in base alla desiderabilità
sociale), all’intervistatore o al questionario;
f) Errori nei pesi utilizzati per le correzioni: i dati dell’inchiesta
vengono pesati ovvero corretti sulla base di alcuni pesi. Di
solito le correzioni vengono fatte per compensare eventuali
probabilità di selezione del campione sbilanciata, per
correggere gli effetti delle non-risposte.
g) Errori di elaborazione dovuti alla pulizia e trasformazione
dei dati della matrice dei dati grezzi.
VANTAGGI e SVANTAGGI dipendono dalla modalità e da
altri aspetti della ricerca, come il campionamento.
SVANTAGGI:
1) errori;
2) l’intervista F-F è molto onerosa e costosa ma i dati sono di
migliore qualità;
3) l’intervista telefonica raggiunge in poco tempo tante persone
in modo anonimo ma non c’è controllo sull’attenzione dei
partecipanti.
VANTAGGI:
1) campione rappresentativo della popolazione;
2) quantificazione e analisi dei dati in poco tempo (sondaggio
del lunedì del TG di La7 raggiunge circa 2000 persone tra
sabato e domenica).
3) usufruisce dei continui sviluppi tecnologici che favoriscono
il contatto diretto e indiretto con i partecipanti.
7) INCHIESTA TRAMITE WEB O QUESTIONARIO
ONLINE
Molta ricerca viene condotta tramite Internet. - Primo
questionario sul web: 1994 - Primi esperimenti: 1995. Da allora
gli studi eseguiti via internet sono cresciuti esponenzialmente.
RICERCA ONLINE può essere svolta tramite:
a) metodi non-reattivi (v. ricerca d’archvio): non ci sono stimoli
per i soggetti ovvero non viene chiesto ciò che faccio;
b) questionari condotti sul Web;
c) esperimenti sul Web. Consiste nell’uso di uno strumento
classico attraverso un nuovo medium.
Analizziamo il punto b:
VANTAGGI: apparente facilità con cui i questionari sono
costruiti e gli studi condotti, raggiungendo in breve tempo un
ampio numero di partecipanti.
SVANTAGGI:
1) L’inchiesta tramite web condivide alcuni dei problemi
dell’inchiesta tradizionale, per esempio non si conosce il grado
di serietà con cui il partecipante compila il questionario);
2) Spesso non si sa bene qual è il criterio con cui viene svolto il
campionamento e, quindi, se il campione è rappresentativo.
Dipende probabilmente da come si pubblicizza la ricerca e da
chi si invita a partecipare (es., social network, classe, dipendenti
di un’industria).
Alcuni ricercatori preferiscono invitare alcune platee a
partecipare ai loro casi. In quanto la scelta di chi può
partecipare al questionario aumenta il tasso di risposta. Alcune
ricerche dimostrano che il senso di anonimità nelle ricerche
online sia un difetto, in quanto influenza la frequenza di
abbandono dello studio, in altri casi invece viene ritenuto un
vantaggio, per esempio quando si studiano temi sensibili. La
ricerca di Mangan e Reips è stata in grado di raccogliere in
poco tempo un numero elevato di partecipanti sul tema della
sexsonnia, una sorta di sonnambulismo aggravato dal fatto che
il soggetto che ne è affetto ha rapporti sessuali, anche con
sconosciuti, che il giorno dopo non ricorda. I risultati di
ricerche tradizionali e online hanno dato risultati più
convergenti di quanto ci si aspettasse; attraverso questionari
online si possono anche somministrare strumenti psicologici
come per esempio scale di self-monitoring o questionari di
memoria prospettica, ma bisogna fare una validazione online
(es. Big Five nel 2005).
8) METANALISI: il comportamento umano è troppo complesso
per essere spiegato da una sola ricerca, quindi si devono
condurre numerose ricerche per ottenere una risposta esaustiva.
La replica è un aspetto fondamentale della ricerca; infatti su
determinati argomenti vengono svolti più studi che portano a
diversi risultati, per questo si sente il bisogno di integrare i
risultati di queste ricerche. L’approccio tradizionale per
compiere questo lavoro è la rassegna della letteratura di
ricerca (review of research), strumento molto utile anche oggi.
Esso implica la raccolta delle ricerche condotte su un dato
argomento, la valutazione della correttezza metodologica,
conclusioni basate sui risultati convergenti delle migliori
ricerche. Questo approccio, però, comporta inevitabilmente
l’introduzione di giudizi soggettivi, preferenze ed errori, che
sono diventati evidenti quando, in molti casi, si è visto che due
esaminatori arrivavano a conclusioni differenti analizzando la
stessa letteratura. I difetti della rassegna sono 4: a) criteri di
selezione degli studi spesso non esplicitati; b) Idem per
procedure per catalogare le caratteristiche degli studi e valutare
la qualità del metodo; c) quando i risultati differiscono, è
difficile capire se questo è dovuto alle differenze nei metodi; d)
si basano sui test di significatività piuttosto che su quelli di
dimensione dell’effetto (v. sotto), il che, in presenza di più studi
con campioni di diversa numerosità, porta a conclusioni
erronee. Questi difetti diventano più gravi quando gli studi
passati in rassegna aumentano di numero, rendendo le loro
conclusioni ancora più inattendibili. La metanalisi evita ciò
perché si basa su “analisi di analisi” (analizza risultati di altre
ricerche), ovvero sull’uso di una varietà di tecniche quantitative
ideate per integrare risultati degli studi in questione. Questo
termine viene introdotto da Glass, nel 1976, per indicare un
approccio quantitativo ideato per integrare i risultati di
numerose ricerche relative alla stessa tematica e indica
“un’analisi fatta successivamente”. Quindi possiamo dire che è
un analisi secondaria che si basa sui dati della ricerca primaria e
ha un elemento di somiglianza con la ricerca di archivio.
Esistono due classi di metanalisi: 1) stabilisce un risultato
globale combinando statisticamente gli indici di significatività
(p) dei risultati delle singole ricerche, quindi il valore della
probabilità (p) indica la probabilità di osservare una reazione
grande almeno come quella osservata, assumendo che l’ipotesi
nulla sia vera; il valore “p” per essere significativo non deve
essere maggiore di alfa (0,05). 2) si basa su indici di grandezza
dell’effetto tra le due variabili riscontrato nella ricerca; viene
indicata la forza della relazione tra due variabili, ovvero viene
indicata l’ampiezza dell’effetto che si va a studiare. Le varie
ampiezze di ricerche sullo stesso argomento vengono
combinate in un valore globale. Questi due approcci possono
essere applicati insieme; i primi variano al variare della
numerosità del campione, mente i secondi ne sono indipendenti.
La procedura per la metanalisi è composta da 4 passaggi:
1) definire concettualmente il fenomeno sotto studio, le
variabili o l’ipotesi di ricerca.
2) Individuare i criteri per campionare gli studi precedenti, i
principali sono: a) correlazione o causa; b) alcune volte, si usa
il «criterio della miglior prova» (best-evidence synthesis), cioè
si prendono solo studi di alta qualità seguendo la logica che se
si fa un’ottima analisi ma ricerche scadenti, i risultati sono
scadenti; esistono anche scale che permettono di valutare le
ricerche in un determinato ambito sulla base di standard di
qualità: c) omogeneità metodologica, che previene l’uso di
ricerche con metodi marcatamente diversi; d) inclusione o meno
di studi mai pubblicati.
3) Codificare sistematicamente le caratteristiche di base degli
studi selezionati (disegno utilizzato, le caratteristiche del
campione, variabili moderatrici, ecc). Importante è codificare le
variabili moderatrici. 4) Stimare gli indici di grandezza
dell’effetto di ogni studio, analizzarli statisticamente,
intepretare i risultati e diffonderli.
ERORRE SISTEMATICO NELLE PUBBLICAZIONI: si
riferisce al fatto che gli studi con risultati non significativi
hanno una probabilità minore di essere pubblicati e perciò
inclusi nel campione per la metanalisi. Gli autori tengono a non
inviare alle riviste ricerche con risultati non significativi
portando a un errore sistematico, in quanto gli studi che
accettano l’ipotesi nulla sono meno rappresentati. Quindi i
risultati della metanalisi tendono a dimostrare la presenza di un
effetto più di quanto sia vero. Ma lo scopo della metanalisi è
quello di descrivere l’universo degli studi su quel fenomeno,
perciò un buon studioso ha il compito di includere nel campione
studi non pubblicati.
USO DEI MODERATORI: l’effetto della variabile
indipendente sulla dipendente può variare da ricerca a ricerca a
causa dell’effetto di moderazione di una terza variabile;
l’analista deve trattare questa variabile come un moderatore. Un
moderatore è una variabile che influenza la direazione o la forza
della relazione tra due variabili; possono spiegare, in metanalisi,
parte dell’eterogeneità tra diversi studi e quindi contribuier a
una più ampia comprensione del fenomeno.

Uno studio di metanalisi: Tra il 1961 e 1984 vennero fatte


ricerche per attestare che la luna piena influenzasse il
comportamento umano- aumento di omicidi, suicidi durante
questo evento. Rotton e Kelly, nel 1985, raccolsero tutti gli
studi condotti tra 1978 e 1984 sull’ipotesi lunare e condussero
una metanalisi. Prima combinarono i valori p delle ricerche ma
non ebbero risultati; utilizzarono poi il secondo metodo,
relativo all’ampiezza dell’effetto: l’ampiezza combinata
dell’effetto della luna è estremamente piccola, tanto da essere
considerata trascurabileà l’ipotesi lunare non trovava conferma.

UN BILANCIO. I metodi descrittivi sono regolati da livelli di


costrizione, ovvero condizionamenti legati alle caratteristiche
della ricerca, tra cui: a) la natura del problema da indagare; b)
la quantità e il tipo di info disponibili su di esso. Sulla base di
questi due punti le scelte del ricercatore potranno essere più
aperte o meno. Possiamo ordinarli dal più flessibile al più
costrittivo:
1. Osservazione naturalistica: vieta ogni tentativo di
modificare l’ambiente e di condizionare il comportamento
dei soggetti; i ricercatori sono liberi di rivolgere la loro
attenzione a ogni comportamento che sembri loro
interessante ai fini della ricerca.
2. Studio dei casi singoli: il ricercatore deve in qualche
modo intervenire sul comportamento del soggetto, facendo
domande o sottoponendolo ad un questionario. Il
ricercatore può dirigere l’attenzione verso il tipo di
comportamento che gli sembra più rilevante.
3. Inchiesta e inchiesta online: comporta la scelta di un
numero sufficientemente grande di soggetti in poco tempo
e una somministrazione di domande strutturate, così che si
devono predisporre categorie di domande e di risposte
predefinite. Bisogna quantificare ciò che si misura, spesso
con semplici statistiche descrittive (percentuali).
4. Ricerca di archivio: è difficile rilevare esattamente il suo
grado di costrizione perché essa risente delle operazioni
che sono state fatte da altre persone precedentemente.
Anche la ricerca di archivio si basa in genere su statistiche
descrittive (tassi, distribuzioni di frequenza…).
5. Ricerca correlazionale: livello più elevato di costrizione.
Questo metodo può essere applicato sia a variabili
osservate in ambiente naturalistico che a quelle rilevate in
laboratorio. Poiché quantifica le relazioni tra due o più
variabili, comporta anche precise costrizioni legate alle
scale di misura adoperate nella raccolta dei dati e ai metodi
statistici della correlazione.
6. Studi longitudinali e trasversali: i gruppi devono essere
trattati esattamente nella stessa maniera fatta eccezione di
una variabile.
7. Quasi-esperimenti: è molto elevato il lvl. È simile a
quello sperimentale a eccezione del controllo
sull’estrazione e assegnazione casuale dei soggetti alle
condizioni.
8. La ricerca sperimentale: comporta maggiori restrizioni.
Si devono attuare espliciti confronti tra soggetti sottoposti
a differenti condizioni e richiede che i soggetti siano
estratti casualmente dalla popolazione, siano assegnati ai
gruppi o condizioni in modo randomizzato, che le variabili
di confusione siano strettamente controllate etc.
Man mano che si sale dai disegni a bassa costrizione a quelli più
controllati, le norme per condurre la ricerca diventano sempre più
numerose e rigide.

CAPITOLO 5
I VERI ESPERIMENTI
Costruire un disegno (o piano) sperimentale vuol dire mettere a
punto un insieme di elementi e di procedure che consentano di
dire che gli effetti riscontrati nella variabile dipendente sono
causati dalla manipolazione di quella indipendente e non
dall’influenza di variabili non controllate (Importante per gli
esperimenti online è verificare l’ipotesi manipolando la v.i. e
facendo sì che la procedura online assegni in modo casuale i
soggetti alle condizioni; ricordiamo i “priming”, esperimenti
online, che presentano degli stimoli per un determinato periodo di
tempo in modo da attivare un concetto o per misurare
atteggiamenti impliciti di cui i partecipanti non sono coscienti). I
piani di ricerca si distinguono in veri esperimenti e quasi
esperimenti.
I veri esperimenti consentono allo studioso di avere un controllo
completo su tutte le variabili della ricerca: chi, cosa, quando, dove
e come. Il controllo sul chi comporta che si possono assegnare in
modo casuale tramite la Randomizzazione i soggetti alle varie
condizioni sperimentali. Il controllo su che cosa, come, quando,
dove permette di padroneggiare tutte le modalità di esecuzione
dell’esperimento cioè il momento dell’esecuzione, il luogo e la
strumentazione. I quasi esperimenti, invece, non controllano tutte
le condizioni dato che i soggetti possono essere sottoposti alle
varie condizioni sperimentali solo in ragione di raggruppamenti
già costituiti. Il ricercatore non può manipolare a suo piacimento
la v.i. ma li prende così come sono in natura. Proprio perché si
basano su gruppi già esistenti i quasi esperimenti sono chiamati
anche ex post facto (dopo il fatto).
PROCEDURA PER IL DISEGNO SPERIMENTALE
Il disegno sperimentale viene fatto sulla diversa combinazione di
4 opzioni procedurali: la misura della variabile dipendente, il
modo di sottoporre i gruppi al trattamento, il numero delle
variabili indipendenti, e il tipo di controllo delle variabili estranee.
a) la misura della variabile dipendente può essere eseguita sia
prima che dopo il trattamento (pre-test e post-test) o solo
dopo il trattamento (post-test);
b) il modo di sottoporre i gruppi al trattamento sono: ogni
gruppo è sottoposto a un livello della variabile indipendente:
in questo caso si ha il disegno sperimentale tra i gruppi/tra i
soggetti (between groups design/subjects); ogni gruppo è
sottoposto a tutte le condizioni di trattamento: in questo caso
il disegno è entro i gruppi (within groups design), ed è
chiamato anche entro i soggetti (within subjects) o disegno a
misure ripetute.
c) il numero delle variabili indipendenti. Possono essere: una
sola, o due/ più di due. Nel secondo caso si ha un disegno
fattoriale (factorial design).
d) il tipo di controllo delle variabili estranee avviene mediante
randomizzazione, pareggiamento o metodo dei blocchi.

DISEGNI PRE-SPERIMENTALI (non veri esperimenti)


Questi disegni non forniscono alcuna garanzia di validità e sono
lontani sia da prospettiva scientifica che sperimentale ma sono
vicini al modo di ragionare comune. Sono (non validi ma
costituiscono il mattone su cui si costruiscono i veri e i quasi
esperimenti):
a) disegno con un solo gruppo e una sola prova: viene
eseguito il trattamento e il post-test a un solo gruppo di
soggetti e ciò comporta carenza di validità interna. Esempio:
una maestra adotta un nuovo metodo di insegnamento
(trattamento), i bambini sono più veloci nella lettura (post-
test): non possiamo sapere se l’aumento di velocità dipende
dal nuovo metodo o qualche altra variabile. Inoltre si ha
anche assenza di qualsiasi punto di paragone fisso: ovvero il
risultato post-test non può essere confrontato con uno pre-test
o di un gruppo di controllo.
b) disegno con un solo gruppo e due prove (una prima e dopo
il trattamento): è simile al precedente ma in aggiunta
contiene la prova preliminare. Seguendo l’esempio di prima
si aggiunge come primo punto la rilevazione della velocità di
lettura degli studenti prima del trattamento, così dopo da
poter fare un confronto tra i risultati del pre-test e del post-
test. Successivamente verrà fatto un test statistico per
determinare se l’eventuale differenza riscontrata è
significativa. Ma questo disegno non assicura che il
trattamento sia il solo o anche il maggiore fattore della
differenza dei risultati tra le due misurazioni e non controlla
le minacce alla validità interna dovute: alla storia che può
aver influenzato il trattamento, alla maturazione, per
esempio, tra una prova e l’altra il bambino può avere perso
l’entusiasmo, all’effetto delle prove in quanto l’esperienza
del pre-test può aver aumentato la motivazione del bambino,
agli effetti della strumentazione, ogni cambiamento che sia
nel trattamento o nel test può renderli non comparabili, alla
regressione statistica, quando un gruppo estremo viene
comparato nel rendimento delle due prove, alla mortalità se
un soggetto non effettua sia il pre-test che il post-test le
differenze possono essere dovute a caratteristiche non
controllate o a fattori relativi solo a questa differenza.
c) disegno con due gruppi non equivalenti e una prova.
Questo prevede un gruppo di conforto, il quale non è un vero
e proprio gruppo di controllo perché non è randomizzato. In
questo disegno un gruppo di soggetti viene posto al
trattamento mentre l’altro no, ovvero la v.i. comprende in
questo caso due livelli: la sua presenza e la sua assenza. Ciò
viene spiegato tramite un esperimento condotto da Brown:
dopo aver scelto, in modo non randomizzato, due gruppi di
studenti, a uno solo di questi viene offerta la consulenza
(gruppo sperimentale), all’altro no (gruppo di controllo).
Terminata la serie di sessioni, ambedue i gruppi furono
sottoposti a parecchi test per valutare gli effetti del
programma. I risultati del g.s. furono superiori rispetto a
quelli del g.c. Il procedimento sembra essere giusto ma il
motivo è che nella comparazione finale si assume che i due
gruppi fossero equivalenti in partenza ma questa equivalenza
non è vera in quanto i gruppi non sono stati randomizzati (R).
Quindi non si può sapere se altre variabili abbiano
influenzato il risultato. Quindi anche questo disegno come i
precedenti non porta a conclusioni scientifiche.

ILLUSTRAZIONE DEI TRE DISEGNI PRE-


SPERIMENTALI
Pre-test trattamento Post-test
a) no sì sì
b) sì sì sì
d) g.s - g.c no - no sì - no sì - sì

DISEGNI CON UNA SOLA VARIABILE INDIPENDENTE


A. Disegni tra i gruppi/ soggetti: i soggetti sono scelti in modo
casuale dalla popolazione, assegnati casualmente ai vari livelli
della v.i. e di conseguenza a diverse condizioni di trattamento;
ogni soggetto (o gruppo) deve essere sottoposto a una sola
condizione sperimentale, per cui si avranno una sola
prestazione e un solo punteggio per ogni soggetto, e il numero
delle osservazioni corrisponderà al numero dei soggetti. Quindi
si parla di misure indipendenti. Si tratta quindi di formare tanti
gruppi di soggetti quanti siano i livelli della variabile
indipendente o del trattamento. La pluralità dei gruppi controlla
le influenze delle v. di disturbo. L’effetto di un trattamento
viene evidenziato confrontando il rendimento di un gruppo
sottoposto a un livello della variabile indipendente con quello di
un gruppo differente che non riceve il trattamento o che è
sottoposto a una condizione sperimentale dello stesso tipo ma di
livello diverso. Possiamo trovarvi il:
DISEGNO CLASSICO: comporta la presenza di due gruppi
randomizzati, due prove e il trattamento per un solo gruppo. Così
un gruppo sperimentale randomizzato (GSR) viene sottoposto al
pre-test, al trattamento e al post-test, e un gruppo di controllo
randomizzato (GCR) esegue il pre-test e il post-test ma non
subisce il trattamento.

a) disegno classico o tra gruppi indipendenti :


pre-test trattamento post-test
(GSR) T 1 sì T
2

(GCR) T 1no T
2

1) Si scelgono i soggetti da una popolazione


casualmente;
2) si assegnano i soggetti in uguale numero al gs e
al gc con la randomizzazione;
3) sia i soggetti del gc e del gs sono sottoposti al
trattamento;
4) si tengono costanti tutte le condizioni per
ambedue i gruppi tranne il trattamento;
5) si sottopongono i due gruppi al post-test e si
trovano le medie dei punteggi;
6) si confrontano e si verifica se il trattamento si
associa a un cambiamento a favore del gs
rispetto al gc;
7) si applica un test statistico se la differenza tra i
due post-test è significativa cioè per rigettare
l’idea di ipotesi nulla H secondo cui la
0

differenza sarebbe dovuta al caso


Per quanto riguarda la validità interna, in questo disegno si
possono escludere gli effetti della regressione statistica, della
selezione, e della mortalità; la presenza di un GC equivalente
permette di analizzare gli effetti dovuti alla storia, alle fluttuazioni
dello strumento di misura e alla interazione tra mortalità e
trattamento. Un possibile effetto del pre-test non porta confusione
in quanto entrambi i gruppi sono stati sottoposti al pre-test. La
validità esterna può essere delineata:
I. l’interazione tra pre-test e trattamento non può essere
controllata e se il pre-test influisce sui soggetti la validità è
compromessa;
II. interazione tra selezione e trattamento : se i soggetti hanno
caratteristiche diverse da quelli a cui si vuole generalizzare
non sarà possibile eliminare eventuali errori sistematici;
III. interazione tra trattamento e altri fattori come la storia: si
limita la possibilità di generalizzazione, ovvero i soggetti
possono rispondere in modo differente a seconda della
situazione in cui si trovano rispetto a come avrebbero
risposto in una situazione normale;
IV. effetti dovuti alla reazione ai procedimenti sperimentali:
possono compromettere la generalizzazione, per esempio
determinati soggetti possono cooperare con eccessivo
entusiasmo;
Ci sono variazioni del disegno classico: il GCR è sottoposto al
trattamento ma a livello differente dal GSR (prime due righe).
b) disegno con tre gruppi indipendenti e tre condizioni:
pre-test trattamento post-test
I GSR T1 X
a T
2

II GSR T 1 X b T 2

III GCR T
1 no T2

In questo caso il disegno sarebbe ancora più affidabile. Anche in


questo caso la verifica dell’effetto del trattamento si ha nelle prove
finali. La validità interna è rafforzata rispetto al disegno A)
perché gli eventuali fattori di disturbo tra le due sessioni (T T )
1 2

sono controllati. L’unico problema è che col crescere del numero


dei gruppi si può avere una difficoltà ad ottenere gruppi
omogenei. Per la validità esterna le osservazioni sono le stesse
rispetto al disegno classico.
DISEGNO DI SOLOMON
Campbell e Stanley hanno chiamato un disegno a 4 gruppi
randomizzati di Solomon. Richiede 4 gruppi di soggetti
sottoposti alle condizioni sperimentali. Lo sviluppo di questo
disegno è dovuto al fatto che né il disegno classico e né le sue
varianti consentono di isolare gli effetti di disturbo dovuti alla
prova preliminare (pre-test), all’interazione tra pre-test e
trattamento, agli effetti combinati della maturazione e della storia.
Il suo principale difetto è che è difficile da attuare perché è molto
articolato e perché chiede la disponibilità di un gran numero di
soggetti. Tutti gruppi devono essere randomizzati. Questo piano
permette tre tipi di controllo:
1) Effetto principale del trattamento: incorporo il primo e terzo
gruppo in quanto subiscono il trattamento e il secondo e il
quarto in quanto non lo subiscono.
Se la differenza è positiva vuol dire che l’effetto è maggiore
nel gruppo che ha ricevuto il trattamento, ovvero va nella
direzione voluta; se è negativa l’effetto sarà contrario a
quello che mi aspettavo; se è 0 il trattamento non ha avuto
effetto. -

2) Effetto principale del pre-test: incorporo primo,secondo


gruppo e terzo,quarto in quanto hanno fatto il pre-test. Se la
differenza è positiva vuol dire che purtroppo l’effetto è
presente, quindi si spera il risultato sia “0”. -

3) Effetto di interazione tra pre-test e trattamento: se il


risultato sarà “0” non ci sono effetti di interazione (risultato
sperato). -

4) Inoltre, confrontando la media di T con quella di T si


3 4

possono misurare gli effetti combinati della maturazione e


della storia.

Pre-test Trattamento Post-test


I gruppo (R) T1 Sì T2
II gruppo (R) T3 No T4
III gruppo (R) No Sì T5
IV gruppo (R) No No T6
Variazione del piano di Solomon: utilizzare 2 gruppi randomizzati,
omettere il pre-test e il trattamento per il gc à disegno con gruppi
randomizzati senza pre-test. Nonostante l’assenza del pre-test il
disegno è intrinsecamente esatto poiché, essendo i gruppi
equivalenti in quanto scelti in modo casuale, qualora fossero
sottoposti alla prova pre-test dovrebbero dare le stesse prestazioni.
Per quanto riguarda la validità questo piano elimina la possibile
interazione tra pre-test e trattamento. È un disegno utile quando il
pre-test non è reperibile o troppo costoso.

B. Disegni entro i gruppi/ soggetti: i soggetti sono sottoposti a


tutte le condizioni sperimentali. In questi disegni ciò che viene
assegnato casualmente è l’ordine di esposizione alle prove. Se
questo ordine non viene randomizzato, alcuni effetti, come ad
esempio storia e maturazione possono essere responsabili della
variazione della v.d. Ogni soggetto serve da controllo a se
stesso. Abbiamo due tipi di disegno:
DISEGNO A MISURE RIPETUTE SEMPLICE. Le
modalità di attuazione sono:
I) ogni soggetto è sottoposto a tutti i livelli della variabile
indipendente; perciò i punteggi di ogni condizione sono
correlati tra loro, ovvero dipendenti in quanto il
rendimento in una condizione è correlato a quello in ogni
altra condizione;
II) ogni soggetto è valutato più di una volta sulla v.d. (dopo
ogni condizione sperimentale);
III) il confronto critico sarebbe calcolare la differenza dei
punteggi ottenuti dai soggetti nelle due o più condizioni
sperimentali.
Esempio di questo disegno. L’esperimento di Marshall e
Teitelbaum sul fenomeno della reattività sensoriale: una piccola
lesione all’ipotalamo laterale produce un’alterazione del
comportamento alimentare e un’alterazione di risposta nei ratti
di laboratorio. Quindi furono operati gli ipotalami laterali a 12
ratti lasciando intatta l’altra parte del cervello, per studiare
meglio il fenomeno. La lesione unilaterale permetteva di usare
ciascun animale come controllo di se stesso, ovvero le funzioni
percettive di un lato del cervello fungevano da controllo per
quelle dell’altro lato del cervello. Quindi la prima condizione
sperimentale consisteva nel sottoporre i ratti a stimolazioni che
interessavano la parte del cervello lesionata, la c. controllo era
di inviare stimolazioni verso la parte del cervello sana.
Quando questo tipo di disegno è usato in modo consono
presenta vantaggi:
1) garantisce l’equivalenza dei gruppi nelle condizioni in
quanto gli stessi soggetti sono sottoposti a tutte le condizioni;
2) è più sensibile agli effetti della v.i. rispetto al disegno
precedente. Dato che lo scopo di un esperimento è quello di
individuare l’effetto di una v.i. su una v.d. questo è favorito al
disegno tra i gruppi. Eliminando la varianza dovuta alle
differenze dei soggetti, questi disegni, eliminano la varianza
dell’errore;
3) comporta un numero di soggetti minore di disegno tra
gruppi, in quanto viene svolto all’interno di un gruppo;
4) Non è necessario impartire la istruzioni più volte perché a
essere sottoposti sono gli stessi soggetti più volte.
PRE-TEST TRATTAMENTO POST-TEST
Condizione s. Sì Sì Sì
Condizione c. Sì No Sì

CONTROBILANCIAMENTO. Agli stessi partecipanti vengono


somministrate molte condizioni indicate con lettere maiuscole
(A,B,C..) e chiamate prove. Vengono usati disegni particolari
basati sul controbilanciamento. Negli esperimenti in cui ciascun
soggetto è posto a più condizioni sperimentali è possibile che
l’esecuzione delle prime prove influisca sul rendimento di quelle
successive.
Si distinguono, quindi, due tipi di effetti:
a) Effetto dell’ordine: è dovuto all’ordine delle condizioni,
indipendentemente dalla specificità delle condizioni stesse.
Vi è la possibilità che la pratica e la familiarità acquisite nella
prima prova influiscano sulle prove successive. Pratica e
familiarità diventano variabili di confusione. Però si possono
avere anche variabili “negative” come fatica e stanchezza,
quali saranno causa di diminuzione di performance nelle
prove successive. In generale il controllo degli effetti
dell’ordine consiste: nel far sì che ogni prova si realizzi lo
stesso numero di volte in ogni posizione
(controbilanciamento della posizione), in modo che gli errori
stessi dovuti all’ordine si distribuiscano in modo uniforme
per ciascuna prova. Se si eseguono 4 prove (A,B,C,D)
ognuna di esse deve essere presentata lo stesso numero di
volte per prima, per seconda, per terza e per quarta.
b) Effetto della sequenza: è dovuto alla parziale dipendenza di
una condizione sperimentale da quella che la precede. Ad
esempio se compio la prova B dopo la prova A, l’effetto sarà
dovuto al fatto che la prova B accada dopo la prova A. Si
chiama anche effetto residuale perché come se la prova
precedente lasciasse un residuo alla seguente e indica un
cambiamento temporaneo o permanente del comportamento
del soggetto causato da uno specifico tipo di esposizione a
uno o più dei trattamenti sperimentali precedenti. Esempio.
Si parla di effetto di contrasto: un uomo solleva un peso
elevato e successivamente un oggetto più leggero ma che
percepirà molto più leggero di quello che è a causa della
prova precedente; se un uomo è colpito da flash abbaglianti
per svolgere la prova seguente dovrà prima aspettare che gli
si normalizzi la vista. Il controllo sugli effetti della sequenza
si realizza: nel far sì che ogni prova sia preceduta lo stesso
numero di volte da qualsiasi altra prova
(controbilanciamento delle prove). Se B è preceduta da A un
tot di volte, allora B dovrà essere preceduta da C, D o da
nessuna prova lo stesso tot di volte. Con Fisher ci fu uno
studio su un caso: una signora affermava che la sequenza di
versare latte e caffè aveva un effetto sul sapore.

Il controbilanciamento, quindi, controlla gli effetti dell’ordine e


della sequenza e sono:
I) Controbilanciamento tra i soggetti: vengono creati gruppi
con ugual numero di partecipanti. Ogni gruppo viene
sottoposto a una sequenza di prove diversa. ES: 2 gruppi
per AB e BA. A seconda se vengono somministrate tutte le
prove o solo alcune, si dividono rispettivamente in:
a) Completo: utilizza tutte le combinazioni possibili e
sottopone ciascuna di esse a un gruppo diverso. Se
abbiamo due prove A e B, a metà dei soggetti viene
somministrata la sequenza AB mentre all’altra metà BA.
Quando ci sono tre prove le sequenze possibili sono 6.
(tabella sotto)

SOGGETTI ORDINE ORDINE ORDINE


1 A B C
2 B C A
3 C B A
4 A C B
5 B A C
6 C A B
b) Incompleto: non vengono adoperate tutte le possibili
combinazioni di prove. Ricordiamo il quadrato latino
(TABELLA dopo ), tecnica che deve attenersi a due criteri:
i) ogni prova deve apparire un uguale numero di volte in
ogni posizione;
ii) ogni prova deve precedere sempre un tipo di prova e
seguire sempre un altro tipo di prova un ugual numero di
volte.
SOGGETTI ORDINE ORDINE ORDINE ORDINE
1 A B C D
2 B C D A
3 C D A B
4 D A B C
Se ogni soggetto facesse le prove nello stesso ordine i dati
sarebbero alterati perché le prove successive risentirebbero
della fatica dovuta al superamento della prova precedente.
Bisogna quindi controbilanciare l’ordine delle 4 prove in
modo che l’effetto dell’affaticamento sia lo stesso per
ciascuna di esse. Ovviamente il numero delle sequenze
controbilanciate è uguale al numero delle prove. Se per
esempio ho 20 soggetti, 5 farebbero la prima sequenza e
così via. I criteri detti sono rispettati. Possiamo dire che c’è
controllo solo sull’effetto dell’ordine e non su quello della
sequenza: per averlo bisogna ricorrere al quadrato latino
bilanciato (tabella in basso) dove ciascuna condizione è
immediatamente preceduta per una sola volta da ogni altra
condizione. Il quadrato latino riduce il numero di soggetti
da esaminare.
SOGGETTI ORDINE ORDINE ORDINE ORDINE
1 A B C D
2 B D A C
3 C A D B
4 D C B A

II) Controbilanciamento entro i soggetti: il controllo si


esercita sottoponendo ciascun soggetto a tutte le prove, più
volte, in diverse combinazioni. ES. Se ho due prove A e B
ogni soggetto verrà sottoposto alla combinazione AB e alla
combinazione BA. Quindi nel disegno tra soggetti si
controbilanciano gruppi di soggetti, in quello entro i
soggetti si controbilanciano i singoli soggetti. Anche per
questo controbilanciamento abbiamo il completo e
l’incompleto e i quadrati latini per quest’ultimo, l’unica
differenza sarà che non ci saranno più gruppi bensì
soggetti sottoposti più volte alle diverse sequenze.
Esistono inoltre altre tre soluzioni per questo tipo di
controbilanciamento:
1) Randomizzazione delle prove: se, per un esperimento,
ciascuno stimolo va presentato innumerevoli volte la
migliore soluzione consiste nel randomizzare l’ordine
delle prove per ciascun soggetto. Quindi un soggetto
sarà sottoposto più volte alle diverse prove in
successioni casuali assumendo 12 ripetizioni di 4 prove,
per esempio.
2) Controbilanciamento inverso: un modo per
controllare solo gli effetti dell’ordine. Consiste nel
sottoporre ogni soggetto a tutte le prove prima in un
ordine e poi nell’ordine inverso. ES. Se le prove sono
due (A,B) la sequenza sarà AB-BA. Questo metodo è
pratico quando si hanno due condizioni: (a) il campione
è piccolo, le condizioni numerose e possono essere
applicate poche volte; (b)quando si sospetta che le
possibili variabili di disturbo agiscano in modo lineare,
ovvero costante, per ogni posizione successiva della
sequenza.
3) Randomizzazione a blocchi: controlla
contemporaneamente sia effetti dell’ordine che della
sequenza. I blocchi sono insiemi di prove; all’interno di
ogni insieme viene presentata una sola volta una
determinata prova e, in generale, tante volte quanti sono
gli insiemi. Le sequenze all’interno dei blocchi sono
casuali. Se per esempio abbiamo 4 condizioni
(A,B,C,D) e dobbiamo costruire due blocchi ciascuna di
esse comparirà due volte e avremmo la sequenza
seguente: CDBA-BDAC.

DISEGNI CON PIÙ VI o DISEGNI FATTORIALI


Il disegno fattoriale sarebbe lo studio di più variabili indipendenti
combinate fra loro e la variabile dipendente è quantitativa
(punteggio in una scala di atteggiamento, intensità del ritmo del
polso). La tecnica statistica per questi disegni è detta analisi della
varianza (ANOVA acronimo di Analysis of Variance) o anche
analisi della varianza fattoriale. (N.B. Nell’ANOVA il termine
fattore indica una v.i. che può essere tra o entro i gruppi, e che si
pensa abbia un effetto sulla v.d., nell’analisi fattoriale invece
indica una dimensione psicologica che raggruppa molti item che
correlano tra loro).
Un esempio di questi disegni è tratto da un ricerca di Graziano e
Raulin (1989): si vuole chiarire la ragione per cui certi bambini
quando si mettono a letto la sera hanno paura del buio. A seguito
di interviste fatte sia a genitori che bambini si può notare che la
paura del buio non c’è tutte le notti, in quanto la v.d. (paura)
dipende anche da una terza variabile indipendente quale è
l’attività immaginativa del bambino.
CARATTERISTICHE DEI DISEGNI FATTORIALI
1. Presenza di due o più VI chiamate fattori; ognuno di questi è
composto da due o più livelli: uno è di controllo e l’altro/gli
altri prevede/prevedono un trattamento differente.
2. Presenza (eventuale) dell’effetto esclusivo di ciascuna v.i.
sulla v.d. àeffetto principale di ciascun fattore.
3. Presenza (eventuale) dell’effetto dovuto
contemporaneamente alle due o più v.i. àeffetto di
interazione dei fattori.
Prendendo l’esempio precedente per verificare che ci sia un effetto
di interazione fra le due v.i. si procede nel manipolare le due v.i.: il
fattore buio (A) può essere manipolato in due condizioni: buio e
illuminazione; e il fattore immagini (B) in altre due: immagini
paurose e neutre. Quindi le v.i. hanno due livelli e combinandoli
insieme avremo una matrice a celle con 4 combinazioni di
trattamento. Il risultato sarà un disegno fattoriale 2 x 2 (tabella
giù). Ma possiamo anche creare 3 livelli per ciascuna variabile
creando così un disegno fattoriale 3x3 con una matrice di 9 celle.

V.I. B
B 1 B
2

B1 A1 B2 A1

B1 A2 B2 A2

A 1 V.I.A

A 2

SISTEMA DI NOTAZIONE DEI DISEGNI FATTORIALI


Un disegno fattoriale viene indicato con: AxB; AxBxC; AxBxCxD;
etc... Ognuno dei fattori implicati nel disegno (A e B; A,B e C;
A,B,C, e D; etc…) vengono espressi con un numero che indica i
livelli della variabile (A=2; B=2). Il segno <<x>> o <<*>> sta a
indicare che i fattori sono in interazione tra loro. La v.d., che è
sempre metrica (a rapporti o a intervalli) non viene riportata.
Esempi:
• Disegno fattoriale 2x2: ciascun numero separato dal segno
“x” indica una v.i. o fattore; perciò ci sono due fattori A e B;
ciascun fattore ha 2 livelli, come indicato dal numero “2”.
• Disegno fattoriale 2x2x2: sono coinvolti tre fattori, A,B e C.
Ciascuno di questi ha due livelli.
• Disegno fattoriale 2x2x3: il terzo fattore © avrà tre livelli
mentre i primi due solo due livelli.
• Disegno fattoriale 2x2x2x2: sono coinvolti 4 fattori ciascuno
di 2 livelli.
AVVERTENZE: A volte si può trovare il disegno fattoriale con i
nomi delle variabili; bisogna non confondere il disegno fattoriale,
in cui “2x2” vuol dire presenza di tre variabili di cui una
dipendente, con il modello log-lineare, in cui tutte le v. coinvolte
sono quantitative e con “2x2” si indica la presenza di due sole
variabili ciascuna con due livelli.
EFFETTI PRINCIPALI E INTERAZIONI
Si parla di interazione quando l’effetto di una v.i. sulla v.d. risulta
diverso nei differenti livelli dell’altra v.i. o delle altre v.i. Ad
esempio una ricerca medica indica che sia il fumo (fattore A)
aumenta il rischio di infarto e sia l’assunzione della pillola
contraccettiva (fattore B). Ognuna di queste due variabili
indipendenti hanno un proprio effetto principale sulla frequenza
degli infarti. Se le due variabili vengono combinate si avrà un
effetto di interazione. Fu riscontrato che la frequenza di infarto
per le donne che fumavano e assumevano la pillola era maggiore.
In questo esempio vedremo che l’effetto di una v.i. intensifica
quello dell’altra. ESEMPIO. Supponiamo che mezzo litro di vino
rosso produca nei soggetti uno stato di ebrezza che possa essere
misurato da 0 a 10 passi. Per dimostrare ciò bisogna avere anche
un terzo gruppo (di controllo) a cui non viene somministrato nulla.
Quindi il gruppo che beve vino avrà un effetto di ubriacatura +2
rispetto al g.c. à si ha un effetto principale. Supponiamo che
facendo lo stesso esperimento ma col vino bianco esso induce nei
soggetti un livello più altro rispetto al vino rosso, +3. Per
verificare l’ipotesi, che se “mischiando” i due vini, il livello di
ubriacatura sarebbe maggiore si realizza un disegno fattoriale 2x2
e si misura il livello di ebrezza dei soggetti. Per ipotesi ci saranno
10 soggetti che bevono solo rosso, altri 10 bianco e altri 10
nessuno. Se l’effetto congiunto del bere contemporaneamente i
due vini avrebbe dovuto portare ad un livello “+5”, ovvero la
somma dei due effetti principali, questo non si è verificato. à non
c’è stato l’effetto di interazione , ma avremmo potuto averlo.
L’effetto interattivo si verifica tutte le volte che il risultato è
diverso dalla somma degli effetti principali. L’effetto interattivo si
divide in:
c) Inibitori: l’effetto della prima v.i. viene diminuito
dall’effetto della seconda v.i. per esempio se stiamo al sole
e ci mettiamo la crema questa diminuirà la nostra
abbronzatura, ovvero l’effetto del sole;
d) Facilitatorio: l’effetto delle due v.i. aumentano il risultato
rispetto alla somma degli e.principali.

POSSIBILI ESITI DI UN DISEGNO FATTORIALE


Di un disegno fattoriale 2x2:
ESITI INTERPRETAZIONE
A. Nessun effetto I fattori non hanno effetto sulla v.d.
B. A Esiste solo un effetto principale di A
C. B Esiste solo un effetto principale di B
D. A+B Esistono solo i due effetti principali di A e B (azione sommativa)
E. AxB Esiste solo l’effetto di interazione tra A e B (azione interattiva)
F. A+(AxB) Esistono l’effetto principale di A e l’effetto interattivo di A e B
G. B+(AxB) Esistono solo l’effetto di B e l’effetto interattivo di A e B
H. A+B+(AxB) Esistono i due effetti principali e l’effetto interattivo di A e B

Per spiegare la tabella riprendiamo l’esempio del vino bianco (B)


e rosso (A).
1) Sia A che B non hanno effetto;
2) Solo A induce ebrezza;
3) Solo B induce ebrezza;
4) Sia A che B inducono ebrezza indipendentemente, ovvero i loro
effetti principali si sommano e non c’è interazione à effetto
sommativo delle VI quando esse sono compresenti;
5) A e B si combinano in modo interattivo per influenzare il livello
di ebrezza; da soli non hanno effetto ma se assunti insieme si à
interazione antagonista;
6) B non ha effetti;
7) A non ha effetti;
8) A e B ubriacano in modo indipendente e insieme producono un
effetto che, presumibilmente, è maggiore della somma dei
singoli effetti principali.

ESEMPIO. Supponiamo di avere un campione di 40 soggetti


estratti dalla popolazione averli assegnati casualmente a ciascuna
delle 4 combinazioni delle condizioni. Quindi in ciascuna cella
saranno presenti 10 soggetti ad esempio n =10. Questo disegno A1B1

prevede che 20 soggetti ricevano il trattamento A e così via. Ci 1

viene offerta anche la media relativa a ciascuna combinazione ad


esempio la media di A B è x Ci offre anche la media di ciascuna
1 1 A1B1.

variabile per esempio la media di A è x . Se le media di x è


1 A1 A1

diversa da quella di x esiste un effetto principale di A, se invece


A2

sono simili non esiste. Riprendendo l’esempio: se la media


dell’ubriacatura di chi ha bevuto vino rosso (x ) è uguale a quella A1

del rispettivo gruppo di controllo (x ) allora l’effetto principale di


A2

A(vino rosso) sarà 0. Quindi l’effetto principale è presente solo se


la differenza tra le medie delle v.i. è significativa. In questo caso
l’effetto principale esiste in quanto la media di chi beve vino rosso
è superiore a chi non lo beve idem per il vino bianco. Dalle
differenze delle medie sappiamo che il vino bianco è più pesante
del rosso (4,5 vs 3,5).
In un disegno fattoriale l’effetto di interazione può essere e non
essere presente. Tecnicamente un effetto interattivo tra due
variabili, A e B, si realizza quando l’effetto di una v. sulla v.i. è
diverso nei diversi livelli dell’altra variabile. Ad esempio l’effetto
del vino rosso (A) sull’ubriacatura quando si beve vino bianco
(B )è diverso da quando non lo si beve (B ). Bere vino rosso
1 2

quando non si è bevuto vino bianco (celle A B e A B ) comporta 1 2 2 2

un’ubriacatura corrispondente a +2(2-0), bere vino rosso quando


si è bevuto vino bianco (celle A B e A B ) comporta un
1 1 2 1

incremento di ubriacatura pari a +5(8-3). Si deve tener conto che


quando si mischiano i due tipi di vini lo stato di ebrezza è +8,
quando non si assumono vini è “0”, quando si beve solo rosso è
“+2” e quando si beve solo bianco è “+3”. Queste difformità tra le
celle indica la presenza di un effetto interattivo.

V.I. B
B
1 B 2

Cella A1 B1 Cella A1 B2
nA1B1=10 nA1B2=10
xA1B1=8 xA1B2=2

Cella A2 B1 Cella A2 B2
nA2B1=10 nA2B2=10
xA2B1=3 xA2B2=0

n =20
A1 n = 20
B1 A 1

x =5
A1 x = 5,5
B1

N =20
A2 N = 20
B2

x =1,5
A2 X =1
B2 A 2

N=40; X =3,258
n

PROGETTAZIONE DI UN DISEGNO FATTORIALE


È simile ai disegni con una sola variabile ma più complicato
soprattutto nella verifica delle ipotesi e nel controllo dei fattori di
confusione. Segue le fasi del processo di ricerca:
a) Stabilire il problema;
b) Definire le variabili operazionalmente;
c) Sviluppare e definire le ipotesi di ricerca;
d) Assegnare in modo randomizzato i soggetti alle condizioni;
e) Determinare le misure dipendenti;
f) Scegliere con cura i metodi statistici per misurare le risposte
dei soggetti;
g) Scopo: verificare una o più ipotesi causali, come nei disegno
con un solo fattore.
Il disegno fattoriale 2x2 dato che ha due v.i. che devono essere
manipolate, ha una validità interna più fragile di un disegno con
una sola v.i. perché le potenziali minacce sono più complesse.
Contiene più di una sola ipotesi nulla dato che è composto da due
disegni. Ad esempio in un disegno fattoriale 2x2 vi sono tre
ipotesi nulle per ogni misura dipendente. Sono:
I. nessuna differenza tra i livelli del fattore A (assenza
dell’effetto principale di A);
II. nessuna differenza tra i livelli del fattore B (assenza
dell’effetto principale di B);
III. nessuna interazione significativa tra i fattori A e B.
Se in un disegno fattoriale, l’analisi della varianza non indica la
presenza di effetti principali significativi o dell’effetto di
interazione, si deve concludere che i dati non confermano le
ipotesi della ricerca e così l’idea della presenza di una relazione
causale tra le v.i. e la v.d. deve essere scartata.

ALCUNI DISEGNI FATTORIALI


A. disegno fattoriale completamente randomizzato (o tra i
soggetti). È considerato di base in quanto da esso si possono
ricavare conclusioni sulla relazione causale tra le variabili
con una considerevole fiducia, dato che i soggetti vengono
assegnati alle condizioni in modo perfettamente corretto. In
questo disegno sono presenti contemporaneamente:
1. due o più variabili i. manipolate, con due o più
livelli per ciascuna di esse;
2. quando ogni v.i. è completamente incrociata con
ogni altra variabile indipendente, cosa che
comporta che ogni livello di una v.i. sia
combinato con ogni livello dell’altro fattore;
3. quando i soggetti sono assegnati in modo
randomizzato a ogni gruppo;
4. quando ogni gruppo è sottoposto solamente a
una combinazione delle v. i.
B. Disegno fattoriale entro i soggetti (o a misure ripetute). In
questi piani, i gruppi (o singoli soggetti) sono sottoposti a
tutte le combinazioni dei fattori invece che una sola di esse.
Poiché i risultati ottenuti con questo disegno sono tra loro
correlati, per verificare la significatività statistica si ricorrerà
all’analisi della varianza per gruppi correlati e non per gruppi
indipendenti. Questo disegno comporta degli svantaggi
derivanti dal fatto che ogni soggetto è sottoposto a ogni
condizione. Questo può consentire la presenza dell’effetto
dell’ordine e della sequenza àcomporta lo sconsiglio dell’uso
di questo disegno. Ma se controllati, questo disegno,
comporta vantaggi:
1. Maggiore sensibilità agli effetti della variabile
indipendente, in quanto riducono la varianza di
errore dovuta alle differenze individuali;
2. L’equivalenza dei gruppi all’inizio e durante
l’esperimento, poiché i sogetti sono gli stessi in
ogni condizione;
3. L’esigenza di un minor numero di soggetti
(notevole vantaggio quando è difficile trovare
soggetti);
4. Una migliore efficienza.

C. Disegni misti: quando le v.i. sono di tipo diverso. Questo


termine si usa in due modi differenti:
Piano che include una variabile indipendente tra i soggetti e
una entro i soggetti; si ha un cambiamento nella scelta delle
formula dell’analisi della varianza. La forma più semplice di
questo disegno implica una situazione in cui 2 variabili i. variano
in due maniere diverse. Uno dei fattori richiede tanti gruppi di
soggetti quanti sono i suoi livelli di variazione, e l’altro fattore
comporta che tutti i soggetti siano sottoposti a tutti i livelli. In
questo disegno i soggetti sono assegnati in modo casuale ai
differenti livelli del fattore tra sogggetti, mentre per il fattore entro
i soggetti la casualizzazione è superflua perché tutti i soggetti sono
sottoposti a ogni livello. Questo disegno consente di verificare gli
effetti principali di ciascun fattore, come pure l’effetto di
interazione (se c’è) tra le due v.i. La verifica inoltre è attuata con
un minor numero di soggetti rispetto al disegno A perché tutti i
soggetti sono sottoposti a tutti i livelli di variazione di un fattore
solo. Si richiede quindi un numero di soggetti che sia multiplo del
numero di livelli del fattore tra soggetti. ESEMPIO. Un
insegnante propone due tecniche differenti per far imparare ai suoi
alunni la poesia a memoria. Si suppone che utilizzi due poesie di
medesima lunghezza. Prima tecnica: solo lettura per la prima
poesia; seconda: delle immagini per la seconda poesia. Poi divide
gli alunni in ordine casuale in due gruppi: a uno fa imparare le
poesie con la prima tecnica e poi con la seconda; all’altro le due
poesie invertendo l’ordine delle tecniche. Si tratta di un disegno
fattoriale 2x2, in cui il primo fattore (ordine della tecnica) è
misurato tra i soggetti (cioè i soggetti che sono sottoposti in un
ordine non lo sono in un altro), mentre il secondo fattore (tipo di
tecnica) è misurato entro i soggetti (cioè tutti i soggetti sono posti
a tutti i livelli, ovvero le due tecniche);

Disegno fattoriale che comprende un fattore manipolato e uno


non manipolato. I soggetti sono assegnati in modo randomizzato
alle condizioni della v. manipolata, mentre ai livelli del fattore non
manipolato vengono assegnati sulla base delle caratteristiche
preesistenti (come maschio e femmina). Il problema presentato da
questo disegno riguarda l’interpretazione dei risultati, perché le v.
non manipolate comportano sempre degli effetti di confusione, per
cui è difficile fare inferenza causali basate sull’analisi degli effetti
principali delle v. indipendenti.

CAPITOLO 6
I QUASI ESPERIMENTI
Secondo Donald Campbell si utilizzano i quasi esperimenti
quando vi è impossibile utilizzare i veri, in quanto offrono qualche
possibilità di fare inferenze casuali. Questi disegni possiedono gli
aspetti essenziali dei veri esperimenti ma come indica il “quasi”,
non esercitano un controllo totale su tutte le possibili variabili di
disturbo dell’esperimento. Quindi non sono molto affidabili,
questo limite è dovuto a:
a) Non si può manipolare la v.i. a piacimento, bensì prenderle
come sono in natura;
b) Non si possono scegliere in modo casuale dalla
popolazione i soggetti che formano il campione;
c) Non si possono assegnare i soggetti ai gruppi in modo
randomizzato.
Quindi i quasi esperimenti vengono detti anche esperimenti ex
post facto.
BILANCIAMENTO: costituire i gruppi in maniera uguale; nel
caso dei veri esperimenti si associano mediante la
randomizzazione i soggetti ai gruppi quindi si ha una miglior
garanzia per la creazione di gruppi uguali. Dato che nei quasi
esperimenti non è possibile la randomizzazione il ricercatore deve
costruire gruppi bilanciandoli e rendendoli uguali fatta a eccezione
per la v.i. (es. maschi e femmine), devo prendere le stesse
caratteristiche per i diversi gruppi, ovvero variabili critiche.
Quindi nei q.s. è possibile:
I) formulare ipotesi causali;
II) determinare le VI ma non manipolarle;
III) attuare la verifica delle ipotesi;
IV) includere alcuni controlli sulle minacce alla validità;
V) assegnare i soggetti alle condizioni ma non casualmente.

I PIANI SPERIMENTALI sono:


1. Con gruppo di controllo non equivalente;
2. A serie o sequenze temporali interrotte;
3. Simulati prima-dopo.

1) È simile al disegno classico dei veri esperimenti a eccezione che


i gruppi non sono randomizzati per cui manca la loro
equivalenza.

Mentre nel disegno classico, avendo gruppi equivalenti T del g.s. e


1

T del g.c. sono uguali quindi ciò che conta è la differenza tra i due
1

T , nel secondo disegno, avendo gruppi non equivalenti i risultati


2

del pre-test generalmente sono differenti quindi ciò che conta è il


confronto dell’incremento per ciascun gruppo. Sono utili in
particolare quando i gruppi sono entità naturali, cioè gruppi che
devono essere mantenuti intatti per conservare le proprie
caratteristiche (come le classi scolastiche). L’analisi statistica si
esegue sulla differenza tra le medie del post-test e del pre-test
Cioè: (T2 – T1).
Quindi i limiti di questo disegno sono:
a) Mancanza di paragone fisso con cui confrontare i risultati del
gruppo sperimentale;
b) Mancanza di equivalenza dei gruppi; (per limitare questo si
forma un g.c. quanto più simile al g.s.)
c) Impossibilità di controllare con l’assegnazione casuale tutte
le v. parassite.
Vari casi in cui il ricercatore può trovarsi:

in a) e d) gli incrementi del pre-


test al post-test sono identici nel
gruppo con trattamento e in
quello senza, il che indica, in
generale, una mancanza di
efficacia del trattamento. In c) il
trattamento sembra addirittura
inefficace. In b) i due gruppi
sono equivalenti nel pre-test,
invece nel post migliora solo il
gruppo sperimentale: il
miglioramento sembra dovuto al trattamento, anche se non si
possono escludere fattori confondenti dovuti a selezione e
maturazione. Anche in e) sembra che il cambiamento sia dovuto
all’effetto del trattamento, anche se non viene controllata le
regressione verso la media. Nel grafico f) il fatto che il
rendimento del gruppo sperimentale superi quello del controllo
indica efficacia del trattamento e la sua interpretazione, chiamata
crossover effect, è la più sicura rispetto agli esiti degli altri grafici.
La validità interna può risultare controllata quando (anche se
tutti i punti sono rispettati non si può escludere che a causa della
non randomizzazione ci possono essere differenze contaminanti i
risultati del post-test):
• I gruppi hanno medie e deviazioni standard simili
nel pre-test;
• Il gruppo di controllo permette di evidenziare gli
errori dovuti alla storia, al pre-test, alla
maturazione, alla strumentazione e al
trattamento;
• L’effetto dovuto alla mortalità è controllato
mediante il confronto tra risultati del pre-test e
quelli del post-test;
• La regressione statistica è eliminata mediante
qualche verifica;
• L’interazione tra selezione-maturazione e
selezione-storia viene controllata.

Per la validità esterna valgono le stesse cose dette per il disegno


classico. L’unico vantaggio in più per questo disegno è quello di
rispettare l’integrità naturale dei gruppi e di non toglierli dal
contesto della vita quotidiana. Così la validità esterna e quella
ecologica sono meglio salvaguardate.

2) Sono caratterizzati dalle numerose misurazioni fatte sia nel pre-


test che nel post-test in quanto è difficile reperire più soggetti.
Si può definire come una variazione dei disegni entro i soggetti.
La molteplicità delle misurazioni protratta nel tempo ha un
ruolo molto importante, ovvero evidenziare la tendenza dei dati
prima della condizione sperimentale, chiamata linea di base
(baseline), utilizzata come punto di paragone fisso per
l’andamento dei dati raccolti dopo il trattamento. Questi disegni
permettono al ricercatore di evidenziare sia i cambiamenti di
livello sia quelli di tendenza (inclinazione) tra la linea di base e
quella conseguente al trattamento per capire se il trattamento ha
avuto effetto. Questo confronto ha la funzione di controllo
perché elimina gran parte dell’inaffidabilità. Grazie alla
molteplicità delle misurazioni (sostituisce il gruppo di
controllo) questi disegni controllano gli effetti dovuti alla
regressione verso la media ma non quelli dovuti alla storia. Le
serie temporali hanno due applicazioni: a interventi ed
esperimenti sui singoli soggetti.
Abbiamo due tipi di questo disegno:
• A serie temporali interrotte semplici:

Vediamo che dopo il trattamento si ha una


ricrescita ciò vuol dire che il trattamento non ha
avuto effetto; se, per esempio, nel post-test ci
sarebbe stata una sequenza di sessi numeri
(es.tutti “6”) il trattamento non avrebbe
eliminato i sintomi (es) ma avrebbe reso la linea
costante ed eliminato la crescita.
Questo tipo di segno si dispone di un solo
gruppo di soggetti; è utile nelle circostanze in cui
è impossibile trovare un gruppo di controllo
come per esempio per gli studi clinici. Un
esempio di esperimento è quello di Graziano
volto a studiare il comportamento violento di 4
bambini autistici. La serie di misurazioni prima
del trattamento dura un anno intero (da
settembre 1964 a 1965); poi viene applicato il
trattamento: un training di rilassamento della
durata di alcuni mesi; interrotto il trattamento
viene ripresa la serie di misure per un altro anno
solare. Anche durante il trattamento vengono
prese delle misurazioni le quali presentano
oscillazioni molto forti questo perché è molto
probabile che il trattamento essendo efficacie
determini una reazione di difesa da parte del
bambino. Durante il post test si ha un calo
drammatico fino ad arrivare a 0 comportamenti

violenti.

Uno studio interessante fu quello di Guerin e


MacKinnon per verificare gli effetti della nuova
legge California Child Passenger Restraint
Requirement. Questa impone di porre i bambini,
al di sotto dei 4 anni, che viaggiano in auto,
neglli appositi seggiolini. Utilizzando questo tipo
di disegno fu possibile esaminire che il numero
degli incidenti per i bambini era diminuito dopo
l’entrata in vigore di questa legge.

• A serie temporali interrotte multiple: si


aggiunge il gruppo di controllo che però non è
sottoposto al trattamento. Sono entrambi non
randomizzati.

Come al disegno precedente si fa un confronto


tra gli andamenti del pre-test e post-test.
Questo disegno permette, rispetto al precedente,
di controllare gli effetti di confusione dovuti alla
storia.
Ci possono essere cambiamenti controllati dalla
natura e non dal trattamento: es. sintomi che
crescono per l’irritabilità di prima mattina,
decrescono fino a stabilizzarsi durante il
pomeriggio. L’interazione tra selezione e storia è
tanto più probabile quanto più i gruppi sono
differenti. Non si può controllare l’interazione
tra trattamento e prove, poiché l’introduzione
dell’intervento è successiva alla serie di misure
pre-sperimentali. Un altro limite è il carattere
graduale o differito dell’effetto del trattamento
per cui non è sempre facile sapere se gli effetti
sono dovuti al trattamento o alla presenza di v.
estranee.

3) Questo disegno presenta due gruppi non randomizzati: al gruppo


sperimentale non è previsto il pre-test mentre al gruppo di
controllo non è previsto il post-test. Possiamo avere due
disegni:

a) Piani a campioni differenti nel pre e nel post-test. Il


procedimento del disegno si svolge:
1. Si misurano i risultati del g.c. prima del trattamento;
2. Si misurano poi i risultati del g.s.;
3. Si confrontano i dati ottenuti nel pre dal gruppo controllo e
nel post-test da quello di sperimentale.
b) Piani a campioni differenti nel pre e nel post-test con o
senza trattamento: quando il gruppo di controllo,
equivalente o comparabile al primo, non può essere
sottoposto alla condizione sperimentale.
In questo tipo di disegni si parla di soggetti equivalenti. ES. Ad
agosto viene fatta una riforma universitaria e quindi vengono fatte
delle misurazioni a studenti del primo anno; dopo un anno
propongo lo stesso sondaggio agli studenti del primo anno che
però non saranno gli stessi dell’anno precedente in quanto ora
frequenteranno il secondo anno. Quindi si fa finta che i gruppi
siano uguali in quanto hanno in comune di essere formato da
studenti del primo anno universitario.

GLI ESPERIMENTI SUI SINGOLI SOGGETTI


Non sono da confondere con gli studi sui casi singoli in quanto
questi non scoprono nessi causali e si descrive la persona; gli
esperimenti sui singoli soggetti sono veri e propri esperimenti
che partono da ipotesi, in cui viene identificata una relazione
causa-effetto su un singolo soggetto. Segue lo schema dei disegni
quasi sperimentali a serie temporali interrotte. La psicologia nasce
con questi tipi di esperimenti ricordiamo, infatti: Fechner,
fondatore della p. sperimentale, lavorò su un soggetto alla volta,
Ebbinghaus eseguì gli studi sulla memoria su se stesso, Wundt
misurò le risposte psicologiche sui soggetti singoli e Pavlov che
fece esperimenti su un solo cane per volta. Nel 1935 Fisher
introduce gli esperimenti su gruppi di soggetti. Molti lo seguirono
ma alcuni no, come Skinner il quale perfezionò i disegni sui
singoli soggetti. Fino agli anni ’50 gli esperimenti su singoli
soggetti furono predominanti fino a quando si ritennero scarsi di
rappresentatività. Ancora oggi c’è ancora chi pensa che gli
esperimenti condotti su più soggetti non possano, ad esempio,
dimostrare l’efficacia di una psicoterapia, perché danno luogo solo
a risultati medi, quindi in ambito terapeutico si preferisce usare
l’esperimento sui singoli soggetti.
VANTAGGI:
a) hanno dati veri su singoli individui e non valori medi sul
rendimento di più persone: Sulla base di denunce di
Skinner, Sidman sostenne che la prestazione media di un
gruppo rappresenta il comportamento di un individuo
inesistente. La sua argomentazione si basava sul fatto che
gli esperimenti sui gruppi comportano il confronto dei
valori medi del rendimento più persone, quindi valori
astratti. In questa media si perdono le info sulla specificità
del comportamento dei singoli soggetti. Quindi si può dire
che quando un trattamento viene considerato efficace si
considera il gruppo nel suo insieme pero questo può non
esserlo per taluni soggetti.
b) evidenziano effetti forti (potenza dei test statistici): la
potenza di un test statistico è data dalla probabilità di
rigettare l’ipotesi nulla quando è falsa nella popolazione
ovvero la probabilità di pervenire una decisione corretta.
Dato che questi esperimenti non contengono la variabilità
dovuta alle differenze tra gli individui questi diventano
significativi solo con la presenza di grossi effetti.
c) flessibilità e facilità: se il ricercatore scopre che un
soggetto non risponde ad una funzione a cui hanno già
risposto altri soggetti può intervenire immediatamente
cambiando rinforzi o istruzioni senza troppa fatica, e
saranno interventi meno dispendiosi in denaro e tempo.
MANIPOLAZIONE VARIABILI
I disegni sperimentali sui singoli soggetti richiedono
l’introduzione di una sola variabile indipendente per volta, in
quanto qualora si introducessero due variabili
contemporaneamente, sarebbe impossibile determinare in che
misura ognuna di esse contribuisca al cambiamento osservato.
Quindi per isolare gli effetti rispettivi dei due rinforzi si deve
procede con una sequenza sperimentale in cui ogni fase sia
associata a uno solo di essi.
In questi disegni il controllo viene fatto mediante la strategia
dell’accertamento della linea di base, come nei disegni a serie
temporali interrotte.

VALUTAZIONE DELL’EFFETTO DEL TRATTAMENTO


Ci sono due diverse procedure:
a) criterio sperimentale: è associato a un effetto statisticamente
significativo del trattamento;
b) criterio clinico: che è più esigente del primo, riguarda il grado
di cambiamento capace di permettere all’individuo di
comportarsi adeguatamente nella società.

DISEGNI DI RICERCA SUI SINGOLI SOGGETTI:


Il più primitivo è indicato dalle lettere A-B in cui A indica la fase
di misura della linea di base e B quella del trattamento. Il
disegno A-B è poco usato, in genere è ampliato con un’altra fase
indicata sempre con A à A-B-A. si tratta della versione più
semplice dei disegni che comportano il ritiro del trattamento.
Dopo la fase B, il trattamento viene interrotto per dar luogo alla
seconda fase A. Questo disegno presenta due problemi:
a) la reversibilità del comportamento al livello della fase
antecedente al trattamento: se questo ritorno non si verifica
completamente il piano A-B-A risulta deformato;
b) interventi sperimentali non si adeguano alle esigenze di
questo disegno, perché il carattere dei cambiamenti che
essi provocano non consente che il comportamento ritorni
allo stato iniziale.

Esempio di esperimento su
singolo soggetto A-B-A-B
Condotto da Knight e
McKenzie nel 1974: Rosie,
una bambina di sei anni, che
si succhiava il dito quando
veniva messa a letto o guardava la tv.
1. Fase A1: accertamento della linea di base. Rosie quando
veniva messa a letto sceglieva la storia che la mamma doveva
leggere. La mamma aveva il compito di leggere la storia sia
quando Rosie si succhiava il dito che non.
2. Fase B1: primo trattamento: durava sette giorni. La madre
doveva sospendere la lettura quando la bambina si succhiava il
dito e ignorare le domande della figlia.
3. Fase A2: secondo accertamento linea di base: durata sette
giorni. La madre si comportava come in fase 1.
4. Fase B2: secondo trattamento. Durava 4 giorni. La madre
doveva leggere solo quando Rosie non si succhiava il dito. Dopo
4 anni Rosie aveva smesso di succhiarsi il dito.
Si tratta di un disegno a trattamenti ripetuti con duplice scopo:
permettere al soggetto di continuare a godere del beneficio
ottenuto con l’azione della prima somministrazione del
trattamento, e consentire un’ulteriore diminuzione degli aspetti
negativi di un comportamento.

CAPITOLO 9
DIVERSI TIPI DI VALIDITA’ DELLA RICERCA
Gli psicologi per rendere valide le loro indagini apportano
numerosi controlli e limitano tutte le variabili che possono creare
errore. La validità è la solidità e l’attendibilità di un’indagine,
ossia la vera corrispondenza tra mondo reale e conclusioni di una
ricerca. Una nota definizione è di Cook & Campbell del 1979
“migliore approssimazione disponibile alla verità o alla falsità
delle conclusioni di una ricerca” relative alle conclusioni della
ricerca. Gli psicologi hanno dovuto affrontare il problema della
validità, distinguendo vari aspetti:
a) esistenza o meno di una relazione causale tra v.i. e v.d.;
b) verificare se la relazione riscontrata tra le variabili in una
particolare ricerca vale anche per persone diverse da quelle
esaminate, per altre situazioni, luoghi e tempi;
c) assicurare che la ricerca effettivamente misuri quello che il
ricercatore si è proposto di misurare;
d) controllare se i risultati della ricerca sono dovuti alla
manipolazione della v.i. o a variazioni casuali;
e) possibilità o meno di generalizzare i risultati ottenuti i
laboratorio alla vita vissuta in ambiente naturale.
Rispettando l’ordine seguito sopra: validità interna, validità
esterna, validità di costrutto, validità statistica, validità ecologica.

• VALIDITA’ INTERNA: È alla base anche degli altri tipi di validità


perché riguarda la verità dei risultati sul campione raccolto. Si
ha quando la relazione tra due variabili è di tipo causale. Per
essere causale tale relazione deve avere due requisiti:
a) una determinata direzione: si può dimostrate che la
variazione della VD dipende dalla VI e non viceversa. Viene
dedotto sia teoricamente che dalla sequenza temporale: se la
manipolazione di VI precede la variazione di VD si può
razionalmente supporre che la prima influisce sulla seconda;
b) esclusione di fattori di confusione: far sì che non ci siano
VC. Il compito del ricercatore è quello di eliminare le possibili
minacce alla validità.

MINACCE ALLA VALIDITA’ INTERNA.


Si tratta di variabili di disturbo, che sono:
1. Storia attuale: accadimento di un evento imprevisto che
confonde la relazione tra variabile indipendente e variabile
dipendente. Questo effetto storia si verifica specialmente negli
esperimenti che hanno due misurazioni: pre e post-test.
Differisce dalla v. confondente in quanto questa è un artefatto
del ricercatore mentre l’effetto storia è un evento imprevedibile.
Può essere prodotto da due diversi tipi di variabili: interne
all’ambiente sperimentale (es. Si fulmina la lampadina mentre
conduco un esperimento) e riferite al contesto esterno (evento
di attualità).
2. Processi di maturazione: cambiamenti sistematici delle
persone, di tipo biologico o psicologico, che avvengono
spontaneamente col trascorrere del tempo, attribuibili alla
crescita o allo sviluppo degli stessi soggetti. Critico nelle
ricerche ti tipo evolutivo (con bambini il cui sviluppo è rapido)
o longitudinali (es. efficacia di un trattamento clinico un
migioramento dovuto alla natura può esse attribuito alla
terapia).
3.Effetto delle prove: è il più dannoso negli studi longitudinali
e evolutivi. Quando l’aver partecipato ad esperimenti precedenti
(pre-test) influenza le successive prestazioni (post-test) a causa
dell’apprendimento, della pratica, familiarità.
4.Strumentazione: Si verifica tutte le volte che si ci sono delle
fluttuazioni nelle misurazioni dovute sia al cambiamento dello
strumento di misura sia all’uso che si fa dello strumento.
Dipende perciò da: strumenti e chi li somministra, ovvero il
cambiamento dello sperimentatore.
Possiamo aprire una parentesi sull’effetto sperimentatore:
quando lo sperimentatore conosce lo scopo dell’esperimento e,
involontariamente, ne influenza il risultato con le sue
aspettative. Nel 1962 nasce quest’effetto con l’esperimento di
Singer e Scatcher: vengono prese due classi di soggetti, studenti
universitari, a cui vengono fatti compilare dei questionari sulla
propria personalità. A un gruppo lo sperimentatore consegnerà i
questionari mostrandosi “euforico”, all’altro, invece,
mostrandosi depresso: questo influenzerà prima positivamente
(max di estroversione etc.) e poi negativamente (tendevano a
scendere) i risultati dei questionari. Fu quindi chiesto di
mantenere un comportamento standard agli sperimentatori e
furono usate più istruzioni scritte. Quest’effetto si trova anche
quando lo sperimentatore ha a che fare con altri esseri viventi,
per esempio, ci fu un esperimento sui comportamenti dei
lombrichi influenzati da quelli dello sperimentatore.
5. Effetto della regressione statistica: Quando si fanno più
misurazioni della stessa variabile sugli stessi soggetti in diversi
momenti, i soggetti che hanno dato un punteggio estremo, nella
prima prova, tendono a regredire verso la media nella seconda,
cioè, nella prova successiva ottengono punteggi vicini ai valori
medi del gruppo. Per esempio, in un determinato esperimento,
con una scala da 1 a 10, ci sono persone che hanno avuto
punteggio 9-10 e nel post-test avranno un punteggio di 6-7.
Questo fenomeno indica, quindi, la predizione della probabile
direzione dei rendimenti nelle prove successive.
6. Effetto della Selezione: in studi che presentano più gruppi,
si riferisce ad una diversità nella selezione dei gruppi (vengono
formati male, ovvero non bilanciando i soggetti) che vengono
utilizzati per fare i confronti. I gruppi, infatti, devono essere in
tutto e per tutto uguali eccetto che per la VI manipolata,
altrimenti non posso attribuire ad essa l’effetto riscontrato.
7.Mortalità: abbandono o perdita differenziale dei soggetti.
Si verifica quando alcuni soggetti che hanno partecipato al pre-
test dell’esperimento si ritirano prima della fine
dell’esperimento.
INTERAZIONE TRA DIVERSI EFFETTI: Spesso le
minacce elencate possono agire interagendo tra loro,
provocando diversi effetti da quelli che provocano da sole.
ALCUNI METODI PER RIDURRE LE MINACCE:
a) bilanciamento: riduzione delle differenza tra i gruppi tramite
la randomizzazione, il pareggiamento o uso dei blocchi;
b) controllo della costanza: (controllo effetto storia) si
mantengono il più possibile costanti le condizioni di ricerca per
tutti i soggetti per tutto il periodo sperimentale ad eccezione del
trattamento e della VI;
c) casualizzazione delle situazioni sperimentali: (controllo
effetto storia) distribuzione equa delle fonti di errore tra i gruppi
sottoposti all’esperimento;
d) abbreviazione dell’intervallo di tempo tra le prove:
(controllo effetto storia) per evitare che fattori estranei
concorrano con il trattamento a influenzare i dati della ricerca;
e) uso di misurazioni ripetute a intervalli costanti con gruppo di
controllo: per neutralizzare i processi di maturazione;
f) eliminazione del pre-test: (controllo effetto prove) fa perdere
la precisione all’esperimento, l’intervallo risulta corretto se
l’equivalenza dei gruppi è assicurata mediante la scelta casuale
dei singoli elementi e la loro numerosità e conforme alle regole
del campionamento;
g) trasformazione del pre-test: (controllo effetto prove) far
passare il pre-test per un evento ordinario della vita dei gruppi;
h) utilizzo disegno di Solomon: (controllo effetto prove) la cui
principale proprietà è quella di controllare gli effetti del pre-
test.
i) simultaneità delle osservazioni, stessi strumenti, stessi
osservatori: (controllo effetto strumentazione) rendere il più
possibile costanti le variabili;
l) pareggio tra soggetti e gruppi l’eventuale errore dovuto
all’aumento di esperienza del ricercatore con la
casualizzazione degli osservatori e delle prove (controllo effetto
prove);
m) estrazione casuale: (controllo effetto regressione) dalla
popolazione estrema, un gruppo di controllo che non essendo
sottoposto al trattamento, offre il punto di paragone per valutare
i cambiamenti dovuti alla regressione;
n)effettuare prove in tempi vicini: per limitare la perdita dei
soggetti. Ma per neutralizzare l’effetto della mortalità in
maniera definitiva non esiste nessun metodo.
• VALIDITA’ ESTERNA: Se sbaglio il nesso nella validità interna non
ci può essere una validità esterna. Quindi la validità interna è
una condizione necessaria (non sufficiente) per avere la validità
esterna. La componente esterna della validità consiste nella
possibilità di generalizzare le conclusioni a individui, tempi e
luoghi diversi da quelli che il ricercatore ha considerato. Dato
che i risultati di un esperimento devono essere generalizzati a
più variabili (persone, tempi e luoghi) gli autori suddividono la
validità esterna in:
1. Validità di popolazione: la generalizzazione a soggetti
diversi, ovvero la capacità di generalizzare i dati dal campione
alla popolazione. (es. una ricerca finalizzata a studiare l’impatto
della violenza televisiva sui bambini, basata sulle osservazioni
eseguite su una scolaresca di 20 soggetti, difficilmente può
raggiungere un livello di validità esterna tale da consentire la
generalizzazione dei risultati all’intera popolazione dei bambini
che guardano la televisione. In questo caso non sono state
seguite le regole (selezione dei soggetti della popolazione;
ampiezza del campione che è in relazione con la probabilità che
esso rappresenti l’intera popolazione) del campionamento
probabilistico, che consentono di ottenere la validità di
popolazione.
2. Validità temporale: la generalizzazione a tempi diversi. Su
questa assunzione, però, ci sono dei dubbi: i risultati di un
esperimento possono variare anche durante il periodo di tempo
che intercorre fra trattamento e post-test, dimostrato da Walster.
In una ricerca sulle reclute dell’esercito chiede a un gruppo di
soldati di valutare il grado di attrazione di dieci lavori differenti
a cui potevano essere assegnati durante il servizio militare;
dopo aver valutato le attività ogni soldato era invitato a eseguire
un’ulteriore scelta tra due lavori, poco prima stimati come
uguale e come attraenti. Per un gruppo, la seconda valutazione
aveva luogo subito dopo la prima; per altri tre gruppi, la scelta
era rimandata rispettivamente di 4, 15 e 90 minuti. I risultati
indicavano che col passare del tempo le valutazioni
cambiavano. Le reclute sceglievano il lavoro, ma in un
intervallo di 4 minuti avevano dei ripensamenti e dopo 15
minuti raggiungevano il cambiamento massimo e dopo 90
minuti tornavano alla scelta iniziale. Quindi la validità
temporale può comportare errori, deve essere perciò controllata
di volta in volta la presenza o meno dell’invarianza temporale
dei dati.
3. Validità ecologica (spaziale).
Il modo migliore per ottenere validità esterna sarebbe replicare
la ricerca modificando, in modo sistematico, volta per volta, i
soggetti, i luoghi e i tempi (una variabile alla volta). Dato che
questo modo richiede troppo sforzo e tanto tempo, oggi si cerca
un campione rappresentativo e per ottenerlo si Aumenta la
numerosità del campione e si Utilizzano dei metodi di
campionamento.
MINACCE ALLA V.ESTERNA: provengono dai limiti della v. di
popolazione e v. temporale:
a)minacce alla v. di popolazione: la difficoltà di reperire i
soggetti della ricerca induce i ricercatori a ricorrere ad alcune
categorie di soggetti: topi albini, studenti di psicologia (fagioli),
alunni delle scuole, volontari. Sono soluzioni criticabili perché
selezionano i soggetti.
b)minacce alla v. temporale: provengono a loro volta da:
b.1) variazioni stagionali: cambiamenti che avvengono nella
popolazione a intervalli regolari (es. percentuale di incidenti
automobilistici durante i mesi invernali aumenta rispetto a quella
dei mesi estivi);
b.2) variazione clinica: dipende dall’organismo dei soggetti. Tutti
gli organismi sono soggetti a variazioni cliniche che possono
interagire con le condizioni del trattamento sperimentale (es.
nell’uomo dipendono dal ritmo cardiaco, dalla temperatura, dalle
funzioni endocrine, dai ritmi circadiani). Quando ha luogo questa
interazione i risultati sono generalizzabili solo al momento
specifico del ciclo durante il quale è stato eseguito l’esperimento.
b.3) variazione personologica: si riferisce al cambiamento delle
caratteristiche delle persone nel tempo. Queste caratteristiche
possono non essere stabili per tutti i tratti (es. la valutazione di se
stessi, preferenze politiche che dipendono dagli stimoli ambientali
a cui si è esposti). Gergen, nel 1973, nota che la variabili che
predicevano l’attivismo politico durante i primi anni della guerra
nel Vietnam differivano da quelle che prevedevano l’attivismo
politico nel periodo successivo alla guerra. à le motivazioni
cambiano col trascorrere del tempo: se le caratteristiche sono
soggette a cambiamenti, l’esito dello studio sarà valido solo per il
periodo in cui è condotta la ricerca.
SUGGERIMENTI PER AUMENTARE LA VALIDITA’
ESTERNA:
1.Adoperare misurazioni non intrusive (es. valutazioni ricavate dal
linguaggio del corpo, distanze scelte da soggetti quando sono
intervistati da un uomo o da una donna);
2.Raccogliere i dati prima che i soggetti si accorgano che il
ricercatore ha iniziato l’esperimento;
3.Evitare di dire il vero motivo della ricerca ricorrendo
all’inganno;
4.Per molte situazioni è opportuno condurre la ricerca in situazioni
naturali;
5.Ricorrere a disegni di ricerca complessi perché consentono di
delineare più chiaramente le interazioni e l’impatto che i vari
aspetti della situazione hanno sui dati della ricerca.
6.Controllare gli effetti del pre-test sui dati della ricerca mediante
la ripetizione dell’esperimento, o ricorrendo al disegno di
Solomon.

CAUTELE NEL VALUTARE LA V.E. Bisogna tenere presente


che:
A) Gli esperimenti non sempre sono condotti per generalizzare
alla vita reale ma anche per altri scopi. (es. uomini con
occhiali sono giudicati più intelligenti se mostrati per soli 5
secondi, invece che per 5 minuti à gli occhiali non hanno
effetto nella vita reale dove di solito le persone sono
osservate per più di 5 secondi à ciò dice poco sul
comportamento quotidiano ma sul giudizio delle persone, per
cui è un risultato sperimentale importante);
B) La componente di un esperimento da generalizzare riguarda
spesso il processo teorico che viene verificato.
C) Abbandonare il laboratorio non assicura meccanicamente
validità esterna (Dipboye e Flanagan).
1. VALIDITA’ DI COSTRUTTO: Un COSTRUTTO, in psicologia, è un
concetto astratto che indica un complesso organizzato della vita
psichica e che si riferisce a qualcosa di non osservabile
direttamente. I costrutti vengono inferiti dal comportamento,
per esempio: l’ansia che viene inferita da indicatori osservabili,
come il ritmo cardiaco e la sudorazione delle mani (altri esempi
di costrutti: Intelligenza, Affiliazione, Obbedienza,
Atteggiamenti, Opinioni, Emozioni). Gli indicatori dipendono
da teorie dei ricercatori e dagli strumenti adottati per misurarli.
Tramite l’operazionalizzazione abbiamo il passaggio da teoria a
corrispondente mondo reale, in quanto sono specificate le
operazioni che legano l’astratto (costrutto) all’empirico (livello
misurabile). à L’indicatore è frutto dell’operazionalizzazione
del costrutto. Difficile è la corrispondenza tra costrutto e
indicatore per questo spesso un costrutto verificato da tre teorici
può avere spiegazioni differenti, come per esempio
“l’apprendimento”. Inoltre, i costrutti stessi possono avere il
ruolo di variabili indipendente (prodotti) o variabile dipendente
(misurati). Prendendo per esempio, l’ansia, se si vuole
conoscere se un esame influisce sul grado dell’ansia nelle
esperienze degli studenti, si deve ridurre il costrutto “ansia” a
operazioni. Per farlo si potrebbe chiedere a ogni soggetto su una
scala da 1 a 10 quanto si sente ansioso; se invece si vuole
studiare l’effetto dell’ansia nel completare un compito è
necessario creare situazione che producano ansia: bisogna
ideare delle condizioni atte a provocare dei comportamenti in
cui i sintomi sono associati all’ansia. In questo caso
l’operazione è rivolta a produrre il fenomeno “ansia”.

MINACCE ALLA V.C. :


1. insufficiente definizione teorica per distorsioni dovute alla
selettività, non esaustività;
2. inadeguata definizione operazionale: si verifica soprattutto
quando la v.i. è complessa. In questo caso si rischia di usare un
solo tipo di operazione che è inadeguato a rappresentare questa
complessità e di ricorrere a misure atte a cogliere solo uno dei
potenziali aspetti delle cause.
3. ambiguità delle variabili indipendenti: la v.i. è del tutto
aleatoria e quindi i risultati stessi, qualsiasi sia
l’interpretazione, perdono di solidità.
Per avere una buona validità di costrutto bisogna avere:
un’adeguata definizione teorica, un’adeguata definizione
operativa e una scelta adeguata degli indicatori.

Suggerimenti per raggiungere la validità di costrutto: Coke


e Campbell, nel 1979, suggeriscono diverse strategia per
raggiungere la v.c.: bisogna dare una definizione chiara del
costrutto astratto, perché le operazioni empiriche volte a
rappresentarlo possono portare a procedure di manipolazioni
scadenti (es. Schachter e Singer poterono procedere a
specificare le operazione atte a produrre il costrutto solo dopo
aver stabilito una definizione chiara di “euforia”); il costrutto
va’ tradotto in specifiche operazioni e vanno raccolte le
osservazioni che si dimostrano capaci di stabilire chiaramente
che la rappresentazione empirica della v.i. produce gli esiti
attesi; i dati raccolti devono variare con la misura correlata con
la rappresentazione empirica della v.i., ma non con le variabili
concettuali differenti (la verifica della v.c. può essere attuata
raccogliendo sia dati convergenti, esiti attesi, o dati divergenti,
esiti non correlati con v.concettuale); eseguire delle verifiche
empiriche dell’avvenuta manipolazione, cioè dei manipulation
check.
Manipulation check. Può avvenire in due modalità differenti:
tramite intervista: interviste ai soggetti dopo averli sottoposti
all’azione della v.i. con lo scopo di stabilire se il costrutto può
considerarsi ben manipolato. Le interviste vanno eseguite
subito dopo il trattamento e non dopo la raccolta dei dati,
perché le risposte possono influenzare i resoconti introspettivi
del soggetto. Vanno condotte solo con i soggetti che fanno
parte dello studio pilota, altrimenti possono influire sui dati
dell’esperimento.
Tramite indicatori comportamentali: più difficile ma
migliore della tecnica precedente. Richiede di stabilire degli
indicatori comportamentali atti a rilevare l’effetto delle
operazioni sperimentali.
L’operazionalismo o operazionismo/ operazionalizzare un
costrutto: teoria scientifica formulata da Brodie e riformulata
in modo più esplicito da Bridgman. Secondo essa il significato
di un concetto è dato dall’insieme delle operazioni e dei
processi mediante i quali esso è applicato alla realtà.
Effetto Hawthorne, ricerca di Mayo sulla produttività delle
operaie alla Eletric Western Company. LA ricerca voleva
scoprire l’influenza della consapevolezza di essere osservati sul
comportamento dei soggetti. Lo scopo era quello di studiare
l’influenza delle varie manipolazioni dell’ambiente, come
luminosità (v.i) sulla produttività (v.d.). Sei ragazze furono
trasferite in una stanza particolare dove si potevano controllare
meglio le condizioni ambientali. Era stato ipotizzato che alcune
v.i. fossero responsabili di una riduzione (diminuzione della
luminosità, riduzione di un’ora della giornata lavorativa,
aumento del numero delle pause per il caffè) di produttività,
mentre altre di un aumento (aumento di paga, regolazione
ottimale della temperatura e della luminosità). Le ipotesi non
furono confermate. La produzione continuava a crescere in
quanto c’era in ballo una terza variabile. Dalle interviste post-
sperimentali risultò che le ragazze si sentivano onorate di
essere oggetto di studio e avevano la sensazione che finalmente
i datori di lavoro le avevano rivolto attenzioneàemerge uno
spirito di corpo, che spinse le giovani a lavorare in modo
cooperativo per il bene del gruppo. Una interpretazione opposta
di Bramel e Friend è: la v.i. era il sospetto di un accordo tra
conduttori di ricerca e dell’aziendaàle operaie variavano la loro
produttività in modo da mantenere il controllo su quelle
determinate condizioni lavorative che esse pensavano fossero
importanti per i conduttori dell’azienda e i ricercatori, come per
esempio le pause di lavoro.

2. VALIDITA’ STATISTICA: è strettamente legato al concetto di


validità interna. Si occupa di verificare se il rapporto tra le
variabili sperimentali è di tipo casuale o sistematico (causale).
Nella pratica degli esperimenti psicologici, i dati sono spesso
caratterizzati da un’ampia variabilità: infatti unità sperimentali
diverse, sottoposte allo stesso trattamento, forniscono risultati
differenti. à gli studiosi, quindi, si chiedono quali siano le cause
e come sia possibile controllarle; una di queste cause di
variabilità è sicuramente il caso, che produce una molteplicità
infinita di fattori, non analizzabili singolarmente, la cui
influenza sui risultati sperimentali può essere valutata mediante
i metodi statistici. La variabilità introdotta dal caso viene
controllata mediante la validità statistica, o più spesso definita
«validità delle conclusioni statistiche» o «teoria dell’inferenza
statistica» o anche NHST (Null Hypothesis Significance
Testing). Di fatto è una teoria delle decisioni. Questa validità
può aver luogo solo dopo che i dati sono stati raccolti e non
consente di anticipare alcun rimedio immediato. E’ basata sulla
teoria della probabilità e dell’inferenza statistica, cioè su quei
procedimenti che consentono di valutare la variabilità dei
fenomeni che avrebbero luogo se agisse solo il caso; in genere,
questi procedimenti comportano il confronto tra la v.
empiricamente osservata e quella teorica prevista dal calcolo
delle probabilità e se da tale confronto emerge che la v.
empiricamente osservata è molto superiore alla v. teorica,
l’eccedenza può essere spiegata solo concludendo che, oltre al
caso, deve aver agito qualcos’altro (fattori sistematici dovuti a
trattamenti sperimentali). Per esempio, se viene lanciata una
moneta qualcosa influenzerà il far uscire una faccia piuttosto
che l’altra; se su 100 lanci si distribuisce 50 e 50 si tratta di caso
ma se invece si avrà un forte squilibrio, 70% e 20%, non si
tratterà di eventi casuali ma di qualcosa di sistematico.
Ricordando l'esperimento dell’apprendimento per segnali di
Tolman con i topini alla ricerca del cibo, possiamo notarvi
come quella situazione non derivi dal caso bensì da qualcosa di
sistematico.
ESAME DELLE IPOTESI STATISTICHE: un’ipotesi
statistica attribuisce determinate probabilità di comparsa ai
singoli valori di una variabile. Le ipotesi statistiche riguardano
il valore dei parametri o la forma di una legge di distribuzione
di una popolazione, della quale ci si propone di verificare la
validità in base a osservazioni su delle unità (campione)
appartenenti a tale popolazione o sui risultati di uno schema
sperimentale. Esse comportano, quindi, una propria teoria dei
test statistici. La teoria dei test prevalentemente seguita nelle
scienze risale a Neyman e Pearson secondo cui il test di
un’ipotesi statistica si svolge in 4 fasi:
1. Si formulano due ipotesi statistiche: una da verificare, ipotesi
nulla (corrisponde al caso) (H ), e una ad essa contrapposta,
0

ipotesi alternativa (H ), le quali si negano reciprocamente. Si


1

testa H e se si dimostra falsa si afferma H . Se invece si


0 1

dimostra vera, si nega l’ipotesi alternativa. L’ipotesi nulla


stabilisce che non c’è differenza tra le medie di due gruppi
sottoposti a diversi trattamenti di un esperimento mentre
l’alternativa (detta anche ipotesi di ricerca o sperimentale)
ammette che tra i dati ottenuti dopo un trattamento sperimentale
vi siano delle differenze significative indotte dalla
manipolazione della v. indipendente. Ipotesi alternativa bi-
direzionale: se il ricercatore ha un fine più esplorativo e si
aspetta semplicemente delle differenze tra le medie; Ipotesi
alternativa mono-direzionale: se ha delle ipotesi più chiare in
mente e si aspetta che una o l’altra media siano maggiori o
minori delle altre. Ma perché non testare direttamente
l’ipotesi alternativa?
Perché l’ipotesi nulla (H ) è una sola ed è esatta, perciò
0

permette di identificare con certezza il parametro della


popolazione che ci interessa (si pensi al lancio di una moneta
infinite volte, l’esito sarà 50% e 50%). L’ipotesi alternativa
(H ) è, invece, inesatta: non può identificare specifici valori
1

per i parametri della popolazione ma afferma semplicemente


che essi sono diversi (magari in una particolare direzione,
quando l’ipotesi è monodirezionale). Le ipotesi si formulano
non per il campione bensì per poter generalizzare ciò che
interessa la popolazione. Dato che conosciamo a priori alcuni
parametri della popolazione in caso di validità dell’ipotesi
nulla, possiamo costruire la sua distribuzione campionaria.
2. Avviene la formulazione delle supposizioni ausiliari
(distribuzione campionaria); queste consentono di dedurre
una determinata grandezza d’esame, valore di un test
calcolato a partire dai dati ottenuti nell’esperimento, e la
rispettiva distribuzione di probabilità. La distribuzione è
quella in cui è vera l’ipotesi nulla. Per esempio, se vogliamo
sapere se le volte in cui una squadra vince o perde (evento
dicotomico) sono casuali o no, possiamo far ricorso alla
distribuzione binomiale. Se vogliamo confrontare le medie di
due gruppi poco numerosi, facciamo ricorso alla t di Student,
se di più gruppi numerosi, la distribuzione F di Fisher. In altri
casi, si utilizza la distribuzione normale, la distribuzione del
chi quadrato, ecc. Le distribuzioni campionarie ci dicono
quanto è probabile il valore di un determinato parametro
quando è vera H . A volte vengono dette «casuali» nel senso
0

che, essendo basate sull’ipotesi nulla, sono dovute al caso e


non a fattori sistematici che le influenzano (es., la VI). Le
probabilità indicate nella distribuzione sono corrette nella
misura in cui i dati siano raccolti utilizzando le assunzioni
utilizzate per la distribuzione campionaria. Le assunzioni
sono molte e variano in base ai test. La più importante è
l’indipendenza delle misurazioni, il che significa che ogni
soggetto estratto per far parte del campione deve essere
indipendente da ogni altro. Per esempio, le risposte di un
soggetto ad una domanda di un questionario non devono
essere influenzate da quelle di un altro soggetto. Se
l’assunzione di indipendenza viene violata, il valore di
probabilità di una statistica, derivato da una distribuzione
campionaria, è scorretto.
3. Si ricavano i campioni casuali da una o più popolazioni e
si calcolano degli indici statistici : a) indici riferiti al
campione (es., le medie di tre gruppi, la probabilità di un
particolare esito); b) indici che permettono il confronto (es.,
la F di Fisher); c) indici di grandezza dell’effetto (es., r). Una
volta identificati si sottopongono al pre-test, al trattamento e
al post-test. I dati del post servono per calcolare la grandezza
d’esame. Fondamentale è la statistica che permette di
verificare l’effetto ipotizzato (F di Fisher, t di Student, Chi
quadro, r di Pearson, ecc.). Come si vede, i nomi sono gli
stessi delle relative distribuzioni.
4. Abbiamo il valore dell’indice calcolato sulla base del
campione, la distribuzione di riferimento quando è vera H , 0

come sapere se la statistica calcolata è dovuta al caso (H ) o0

ad altri fattori?
Si confronta la statistica calcolata con la distribuzione
campionaria di frequenza, cioè la distribuzione di quella
statistica quando è vera l’ipotesi nulla (individuata al punto
2). Come?
Gli statistici ci suggeriscono di individuare un livello di
significatività, cioè un livello di probabilità fissato
convenzionalmente (a=.05). Tale livello divide in due parti la
distribuzione: una parte identifica l’area di accettazione di
H , l’altra l’area di rifiuto di H .
0 0

Se la statistica calcolata ha un valore di probabilità (p)


minore di tale limite (p< a), allora il risultato si dice
significativo (rifiuto H à asserisco H ); se un valore
0 1

maggior (p> a), allora il risultato si dice non significativo


(accetto H ).
0

Fare un test statistico significa, quindi, confrontare la nostra


statistica con quella della distribuzione per decidere se il
risultato è significativo. Il criterio di significatività a=.05 è
quello più utilizzato in psicologia. A volte gli statistici ci
consigliano di utilizzare criteri più stringenti (a =.01 o a
=.001).
IMPORTANTE: La distribuzione che abbiamo preso come
riferimento è sempre quella si verifica quando è vera H . 0

Perciò, tutti i valori indicati possono verificarsi quando è vera


H . Ma gli statistici fanno questo ragionamento. Quando si
0

verifica l’ipotesi nulla, ci sono dei valori così estremi che la


loro frequenza è bassissima. Questo significa che, quando è
vera H , tutti i valori che ricadono nel 5% sono rari. Perciò,
0

dato che quando è vera H , quel valore della statistica è rara,


0

scelgo di rifiutare H . È come se ragionassi in questo modo:


0

calcolo l’altezza di una persona e per stabilire se è veramente


alta, vado a vedere se fa parte di quel 5% di persone più alte
nella popolazione di riferimento. Perciò, il 5% è la zona di
rifiuto di H e il restante 95% è la zona di accettazione di H .
0 0

Si noti che quando il valore della statistica calcolata ricade in


quel 5%, rifiutiamo l’ipotesi nulla (e asseriamo di
conseguenza H ) ma essa continuerebbe in realtà ad essere
1

vera, anche se poco probabile. In conclusione, rischiamo di


fare un errore.
Quindi per sintetizzare le fasi possiamo dire: ipotesi nulla si
ha mancanza di effetto, ipotesi alternativa si ha l’effetto e lo
verifico nella popolazione; à con l’aiuto della distribuzione
campionaria, distribuisco l’indice se ho ipotesi nulla
(fenomeno distribuito dal caso); à mi calcolo statistica
basandomi sui miei dati, se è bassa verifico ipotesi nulla se è
alta rifiuto; àprendo l’indice calcolato prima e lo paragono
nella distribuzione scelta in fase 2 e vedo se è piccolo o
grande il risultato; àse è nel 5% avrò ipotesi alternativa, se è
nel 95% le medie saranno uguali; à risposte vere per la
popolazione basandomi sul campione; àvoglio sapere se
ipotesi nulla è vera nella popolazione: impossibile e uso un
campione numeroso; à procedimento con test statistico e la
risposta è sulla popolazione con possibilità di fare errore;
àmi baso su un campione per dare la risposta.
POSSIBILI ESITI: Se si rifiuta erroneamente H0 quando è
vera nella popolazione si parla di errore di primo tipo; se
erroneamente si accetta H0 quando nella popolazione è falsa
si tratterà di un errore di secondo tipo. La probabilità di fare
un errore è uguale al livello di significatività alfa. La
probabilità è indicata con la lettera beta. Il valore 1-β è
definito “potenza del test” (capacità di un test di evidenziare
un effetto di una determinata grandezza, date le dimensioni
del campione utilizzato e la variabilità interna ad esso) che
indica la probabilità di rigettare un’ipotesi nulla quando
effettivamente è falsa. La potenza del test (1-β) è influenzata
da tre fattori:
1) la grandezza dell’effetto nella popolazione;
2) il livello di a (la potenza aumenta quando a aumenta):
3) la grandezza del campione (se aumenta N, aumenta la
potenza) (è importate avere un numero grande di soggetti per
far funzionare la validità statistica).
Dato che la grandezza dell’effetto non è nota e che il livello
di a è fissato convenzionalmente, l’unico elemento su cui si
può agire è la grandezza del campione (N).
ERRORE DI PRIMO TIPO:
Una minaccia che può portare a questo errore si ha quando si
afferma l’esistenza di una covariazione tra le due variabili
sperimentali che in realtà non esiste. Il fenomeno fishing
(andare a pesca) vuol dire che il ricercatore non elabora
ipotesi statistiche specifiche, bensì esegue innumerevoli
analisi, coinvolgendo quasi tutte le possibili combinazioni tra
le variabili, fino a che non emerge qualche risultato
significativo che egli evidenzia rispetto ai risultati non
significativi. Questo si riscontra specialmente in un piano di
ricerca in cui si fa un uso snodato di correlazioni e la
probabilità di ottenere casualmente correlazioni significative
può essere elevata. Il Fishing, quindi, andrebbe evitato.
L’errore di tipo I non può mai essere eliminato. In genere,
perciò, abbiamo il 5% di probabilità di asserire che esiste un
effetto nella popolazione, quando esso non esiste. Anche se
prendiamo i criteri più stringenti suggeriti dagli statistici (a
=.01 e a =.001), l’errore diminuisce in termini di probabilità
(1% e 1‰) ma non viene eliminato.
Se facessimo lo stesso esperimento innumerevoli volte,
quando non c’è un vero effetto bella popolazione, il 95%
delle volte affermeremmo correttamente che questo effetto
non c’è, ma il 5% delle volte, sbagliando, che questo effetto
c’è. Perciò, utilizzare la NHST significa assumersi anche il
rischio di fare questo errore il 5% delle volte. In psicologia
questo rischio è considerato accettabile, anche se ci sono
degli autori che ultimamente hanno suggerito di utilizzare un
livello più basso (a =.005).
ERRORE DI SECONDO TIPO:
Questo può essere scatenato da una bassa potenza statistica
del test, che compromette la sensibilità dell’indagine
(generalmente questo rischio incorre quando il campione è
piccolo e il livello di alfa è basso), e la violazione degli
assunti che stanno alla base dei test statistici, comporta la
trasgressione delle norme fondamentali relative a determinati
test statistici (es. l’uso dell’analisi della varianza richiede il
rispetto dei seguenti assunti: che le variabili sono distribuite
in modo normale in ciascuna popolazione; che le popolazioni
sono indipendenti; che abbiano la stessa varianza). Può
succedere che, basandosi su un particolare campione tratto
dalla popolazione, accettiamo H0 ma nella popolazione H0
non è vera. Esiste un effetto nella realtà, ma la nostra ricerca
non è in grado di individuarlo. L’errore di tipo I dipende dal
livello scelto di alfa e dalla specifica distribuzione, perciò
possiamo specificarlo e controllarlo. L’errore di tipo II,
invece, dipende da ciò che realmente è vero nella
popolazione, non da uno stato di fatto presunto (cioè da H0).
Questo errore occorre quando la grandezza dell’effetto nella
popolazione è diversa da zero (o un altro valore specificato)
di un ammontare indeterminato ma noi, basandoci su un
campione specifico, non riusciamo a individuare questo
effetto. La probabilità di accadimento dell’errore di II tipo
può essere determinata solo se la grandezza dell’effetto nella
popolazione è nota, il che non si verifica quasi mai.Tuttavia,
possiamo influenzare la sua probabilità perché sappiamo che
esso dipende dal livello scelto di alfa: se lo diminuiamo (es.,
.001), l’errore di II tipo aumenta; se lo aumentiamo (es., .05),
l’errore di II tipo diminuisce.
Perciò, quando diminuiamo la probabilità di fare un errore di
I tipo, aumentiamo quella di fare un errore di II tipo; e
viceversa. Se cerchiamo di diminuire la probabilità di
affermare erroneamente che esiste un effetto, aumentiamo la
probabilità di perdere un effetto che esiste realmente. Se
diminuiamo quest’ultima, aumentiamo la prima.
(1- alfa)
✹ Nonostante la probabilità di commettere i due errori e la loro
l’ineluttabilità, esistono due possibili esiti positivi.
✹ Innanzitutto, quando affermiamo che un effetto non esiste
(cioè accettiamo H ) ed esso realmente non esiste nella
0

popolazione.
✹ Tale probabilità è (1- a). Perciò, se poniamo un livello di a a
.05, come quasi sempre si fa in psicologia, la probabilità di
affermare correttamente che non c’è un effetto è del 95%.
✹ Perciò, se nella popolazione è vera H e se conduciamo
0

numerosi esperimenti identici, nel 95% dei casi affermiamo


correttamente che non c’è un effetto.
Altro esito positivo è 1-beta, la potenza del test ovvero
quando rifiutiamo H , asserendo la presenza di un effetto, e
0

tale effetto si verifica realmente nella popolazione.


AUMENTARE V.S.
Secondo Anderson vi sono tre modi:
1) elevare il livello di significatività, aumentando la
sensibilità del disegno si possono cogliere meglio le
differenze tra risultati delle condizioni sperimentali. Però
elevando il livello di significatività si abbassa la probabilità
di un tipo di errore ma si aumenta quella dell’altro tipo. I
metodi volti a migliorare la sensibilità del disegno
sperimentale sono migliori perché non intaccano il livello di
significatività: da un lato diminuisce la probabilità fare
l’errore di non vedere abbastanza nei dati, secondo tipo,
dall’altro diminuisce la probabilità di fare l’errore di vedere
troppo nei dati, primo tipo.
2) aumentare la grandezza dell’effetto: elevando
l’intervallo tra i valori della v.i. usati per definire le
condizioni sperimentali.
3) ridurre l’errore casuale.

3. VALIDITA’ ECOLOGICA (ANNI ’50): è la possibilità di generalizzare


i risultati della ricerca anche a contesti della vita quotidiana,
accettato oggi da tutti gli studiosi. È la dimostrazione che le
condizioni in cui è stata verificata una relazione sono le
condizioni tipiche in cui si trova normalmente la popolazione. Il
termine fu coniato a Brunswik (Boundary-zone) nel suo
Perception and Representative Design of Psychological
Experiments. Era convinto che l’artificialità degli esperimenti
condotti in laboratorio producesse dati poco rappresentativi
della vita reale; in situazioni di laboratorio l’attività percettiva
perde le proprie peculiarità, per cui bisogna studiarla nei
contesti di vita normale. Lewin (Life-space at a given moment)
critica questa posizione a base la sua su due elementi: a) il
comportamento nel momento t è una funzione della situazione
di quel momento e per studiarlo si devono trovare i modi per
determinare le proprietà della situazione in quell’istante; b) la
situazione che interessa lo studioso non è quella reale concreta,
ma quella psicologicamente vissuta; ha importanza lo spazio di
vita che corrisponde a come la persona vive l’ambiente e la
situazione in cui si trova. Quindi per ottenere la v.e. occorre
tener conto della percezione soggettiva del soggetto
sperimentale sia verso il compito che verso l’ambiente.
Bronfenbrenner intende per v.e. il grado in cui l’ambiente del
quale i soggetti hanno esperienza in una determinata indagine
scientifica ha proprio le caratteristiche che il ricercatore
suppone o assume (si basa sull’importanza dell’ambiente
psicologico così come è vissuto dal soggetto che ne ha
esperienza, ciò che garantisce la v.e. è la conoscenza di quello
che il soggetto percepisce e vive nella situazione sperimentale.
Lewin obietta a Brunswik, il quale si focalizza sugli aspetti del
mondo fisico e sociale che influenzano lo spazio di vita, di aver
confuso l’ambiente geografico con quello psicologico
trasferendo una situa sperimentale fuori dal laboratorio senza
considerare che un compito svolto in un ambiente naturale può
essere sottoposto a v. confondenti.
MINACCE:
Per Brunswik: tutti gli artefatti del laboratorio, cioè
l’ambiente poco familiare etc, contribuiscono a rendere poco
naturali le reazioni del soggetto;
Per Bronfenbrenner: tutto ciò che impedisce allo
sperimentatore di conoscere come il soggetto percepisce a
situazione. Non ha molta importanza che la situa sia
artificiosa o meno ma ciò che importa è che lo sperimentatore
include nel disegno sperimentale tale variabile.
Tutti gli effetti di disturbo possono costituire una minaccia.

CAPITOLO 10 CONTROLLO DEGLI EFFETTI DI DISTURBO


Il controllo è qualsiasi procedimento atto a neutralizzare o
controllare le potenziali minacce alla validità di un esperimento.
Sidman, come altri, nel concetto di controllo distingue due aspetti
tra loro complementari: esperimento di controllo (fanno parte dei
disegni sperimentali, consentono di affermare che una v.d. è
associate a una v.i. e non ad altre v.) e controllo sperimentale.
ESPERIMENTO DI CONTROLLO. Quando si ha un disegno
tra gruppi: si ricorre a un secondo campione di soggetti, il gruppo
di controllo, il quale è omogeno a quello sperimentale. Quando si
ha un disegno entro i soggetti: si sottopongono gli stessi soggetti a
una seconda condizione, condizione di controllo, simile a quella
sperimentale. Al gruppo di controllo o tramite la condizione di
controllo non viene somministrato alcun trattamento.
IL CONTROLLO SPERIMENTALE: indica le modalità di
limitare o controllare le sorgenti di variabilità nella ricerca
consentendo di affermare che gli effetti sulla v.d. dipendono dalla
v.i. e non da variabili estranee. Le strategie di controllo
sperimentali più usate sono:
1. Strategie generali di controllo;
2. Strategie di controllo sugli effetti dei soggetti e dello
sperimentatore;
3. Strategie di controllo mediante la selezione e l’assegnazione
dei soggetti;
4. Strategie di controllo degli effetti dell’ordine e della
sequenza.
Nella sperimentazione questi metodi sono usati
contemporaneamente e la loro azione si aggiunge a quella del
controllo esercitato mediante il disegno sperimentale.
1) Scopo: controllo generale nella ricerca. Viene definito in modo
chiaro l’ambiente (setting), il quale solitamente il laboratorio è
quello ideale perché permette di tenere sotto controllo le
variabili estranee; consente di semplificare la situazione
sperimentale con la riduzione di variabili che non interessano
rafforzando il grado di fiducia da attribuire agli effetti del
trattamento. L’uso del laboratorio è indispensabile quando si
vuole verificare se esiste una relazione di causa effetto. Si ha un
controllo della costanza: mantenere costanti tutte le variabili
che non sono eliminabili (es. una variabile dovuta alle
caratteristiche dell’ambiente essendo la stessa per tutti è come
se il suo effetto venga annullato). In laboratorio ci possono
essere anche vari problemi. Il primo riguarda la scelta delle
varie strategie, degli strumenti per eseguire la ricerca. Ogni
esperimento comporta soluzioni differenti quindi la scelta più
adeguata viene fatta grazie all’esperienza e lo studio della
particolare ricerca. Il tempo è una variabile che può influire sui
risultati e si pone in tre differenti modi:
a) conoscenza della durata nel tempo degli effetti del
trattamento o della stabilità dei risultati della ricerca: il
controllo eseguito a una distanza di tempo dopo la fine
dell’esperimento o della psicoterapia viene detto follow-up.
Una grave minaccia alla validità esterna è data dal fatto che si
ritengono validi i risultati ottenuti in un solo esperimento.
b) ora del giorno diventa una variabile di disturbo: bisogna
tenerla costante per tutte le prove e per tutti i soggetti; o variarla
sistematicamente sia per le prove sia per i soggetti; oppure, nel
caso che soggetti e prove siano numerosi, distribuirla in modo
casuale. Anche quando l’ora del giorno non è influente, è
sempre opportuno tenere controllare eventuali grosse differenze
di orario tra le prove perché si possono accompagnare a
maggior o minore stanchezza.
c) durata della prova o degli intervalli tra le prove possono
provocare effetti di disturbo: la lunghezza della prova produce
effetti di disturbo specialmente quando il disegno è entro i
soggetti; comporta due rischi: il primo è dato dal
sopraggiungere della stanchezza e il secondo è legato alla
ripetizione delle prove che consente un miglioramento grazie
all’allenamento. La lunghezza degli intervalli tra le sessione
sperimentali pone tre fonti di disturbo che sono la maturazione
dei soggetti, la loro mortalità e gli eventi stori fuori dal
laboratorio.
Sono importanti anche le caratteristiche degli strumenti di
misurare: le principali da dover tenere in considerazione sono
l’oggettività, la sensibilità, l’attendibilità e la validità. La
misura delle v.d. è oggettiva quando la somministrazione, le
determinazione e l’interpretazione dei punteggi sono
indipendenti dal giudizio soggettivo dei singoli esaminatori;
quindi queste condizioni devono essere uguali o standardizzate.
In questo caso l’oggettività è una caratteristica dello strumento
o di chi lo adopera e misurazioni oggettive permettono di
svolgere meno errori e rendono possibile la ripetizione della
ricerca da parte di altri studiosi. La sensibilità si riferisce alla
capacità di dare informazioni più o meno specifiche sul
fenomeno studiato; può riferirsi alla misurazione: come la
variazione minima che induce un cambiamento nell’unità di
misura o nel livello della variabile misurata. È opportuno
ripetere la ricerca a distanza di tempo, lasciando inalterate le
condizioni e ricorrendo a uno strumento più sensibile.
Altra strategia di controllo è la ripetizione dell’esperimento
che consente di aumentare l’affidabilità dei risultati. Si
distingue in: esatta, che consiste nel rifare l’esperimento nel
modo più fedele possibile all’originale (eseguita raramente
perché non pubblicata sulle riviste), e in sistematica, che ha per
scopo quello di verificare se un dato fenomeno ha luogo anche i
situazioni differenti da quelle originali variando un solo
elemento per volta. La ripetizione però non garantisce la
validità dei risultati perché se il procedimento viene ripetuto in
modo esatto, senza individuare e controllare tali fattori di
confusione, la ripetizione produrrà gli stessi dati non validi
dello studio iniziale.
Le caratteristiche di richiesta: si riferiscono all’artefatto
sperimentale per cui i partecipanti all’esperimento si formano
una propria interpretazione, giusta o sbagliata che sia, dello
scopo dell’esperimento e adottano inconsciamente un
comportamento a quella interpretazione. Le caratteristiche
fisiche dell’ambiente e i comportamenti del ricercatore possono
indurre il soggetto a farsi una serie di domande e a darsi delle
risposte. Le caratteristiche di richiesta sono simili all’effetto
placebo, perché tendono a far emergere risultati dovuti alle
credenze del soggetto verso il trattamento. Il soggetto mostra
cambiamenti per il solo fatto di trovarsi un contesto
sperimentale. CONTROLLO DELLE CARATTERISTICHE DI
RICHIESTA: controllare la costanza per tutti i soggetti;
randomizzare tra gruppi eventuali differenze dell’ambiente;
condurre la ricerca in un ambiente naturale; raccogliere i dati
prima che il soggetto si renda conto che l’esperimento è
iniziato; utilizzare il singolo cieco.
2) I soggetti possono essere influenzati da:
a) conoscenze psicologiche: è difficile trovare soggetti “naif”
mentre è molto frequente trovare colore che hanno teorie
ingenue su diversi ambiti del sapere psicologico. Per limitare
questi inconvenienti si possono adottare due strategie: dare
consegne che spingano al soggetto ad evitare inferenze e
indagini sulle proprie conoscenze prima di rispondere; far
seguire la prova sperimentale un questionario, volto a
raccogliere info sulla competenza del soggetto nelle aree
indagate così da scartare i dati dei soggetti “troppo esperti”.
Nelle istruzioni vanno sempre inserite le avvertenze sul
comportamento da tenere durante la ricerca: l’anonimato della
prestazione; la certezza che le risposte vengano analizzate in
modo aggregato, per cui saranno ricavate solo dalle descrizioni
generali del fenomeno; la sicurezza che l’interesse della ricerca
riguarda quello che la gente pensa e non quello che si potrebbe
pensare o dire.
b) conoscenze sulla procedura sperimentale: constatare che il
soggetto conosca la procedura sperimentale è un problema che
va risolto di volta in volta. Si deve sempre pensare che egli si
interroghi sullo scopo dell’esperimento e su quello che ci si
aspetta da lui. Per limitare questa situazione ci sono avvertenze
generali: dare al soggetto sufficienti info in modo che eviti di
ricercare le vere finalità dell’esperimento; instaurare una
relazione di fiducia e invitare il soggetto a collaborare in modo
ingenuo; ridurre l’ansia proveniente da una situazione di
incertezza, garantendo che alla fine sarà informato in modo
completo sull’obiettivo e che ha la libertà di ritirarsi in qualsiasi
momento.
c) l’effetto di diffusione: i soggetti che hanno terminato la prova
potrebbero passare informazioni ai soggetti che non hanno
ancora svolto la prova. È sempre opportuno invitarli a
mantenere la riservatezza e a tenerli fisicamente separati.
Queste conoscenze possono indurre il soggetto a dare risposte
che vanno nella direzione dell’obiettivo della ricerca o a
mettere in atto un atteggiamento di non collaborazione. Gli
atteggiamenti differenti possono dipendere anche dal tipo di
reclutamento, dalla ricompensa etc. Essenziale è che il soggetto
non faccia nulla per adeguarsi o per contrastare lo scopo della
ricerca.
L’effetto sperimentatore, come effetto di disturbo, consiste
nell’influenza che lo sperimentatore, inconsciamente o
inintenzionalmente, ha sui soggetti dell’esperimento. Le
aspettative dello sperimentatore producono l’effetto di attesa
che dipende dalle motivazioni e ambizioni personali e
professionali del ricercatore. Questo effetto sperimentatore può
agire in tutte le fasi della ricerca: nel selezionamento del
campione, eseguito in modo che i soggetti rispettino le
previsioni dello sperimentatore; nel momento in cui fornisce le
istruzioni al soggetto, comunicando come rispondere o
comportandosi; nella fase della raccolta dei dati, selezionando
opportunamente le sue percezioni; nella fase di interpretazione
dei risultati, in cui spesso il ricercatore introduce ipotesi ad hoc
per risultati incongruenti con le sue ipotesi. Schatcher e Singer,
utilizzando la tecnica dell’inganno videro che i soggetti
venivano fortemente influenzati dall’umore euforico o depresso
dello sperimentatore.
CONTROLLO. Si differisce in:
●Singolo cieco: si nascondono al soggetto lo scopo della
ricerca e le condizioni a cui è sottoposto; es. negli esperimenti
di psicofarmacologia quando al gruppo di controllo si
somministra il placebo, sostanza apparentemente uguale a
quella somministrata al gruppo sperimentale.
●Doppio cieco: anche i collaboratori dello sperimentatore ne
sono all’oscuro. Non è facile adoperarlo perché è tecnicamente
impossibile nascondere ai propri collaboratori determinati
aspetti della ricerca ed è troppo costoso.
●Automazione delle istruzioni: possono essere distribuite in
forma scritta o mediante una registrazione preparata in
precedenza o dall’aiuto del computer. Rosenthal e Fode trovano
che le istruzioni scritte annullano l’effetto sperimentatore;
Powell e Harris sostengono che l’effetto del modo di presentare
le istruzioni dipende dalla complessità del compito: se si tratta
di compiti cognitivi il modo eserciterà una certa influenza. Un
modo per controllare questo effetto di disturbo è quello di
replicare la ricerca variando la forma delle istruzioni per vedere
quali effetti comporta.
Uso di più osservatori o valutatori: l’impiego di due o più
osservatori si ha nelle ricerche osservative; uso di due o più
codificatori per l’analisi del contenuto; uso di due o più
valutatori per analisi che usano domande aperte. In questi casi è
opportuno usare il procedimento a doppio cieco, far eseguire la
codifica sullo stesso materiale indipendentemente a ciascun
codificatore, e applicare un indice di accordo tra osservatori,
possibilmente il K di Cohen (interrater realiability).
●Tecnica dell’inganno: si fa credere ai soggetti che la
situazione sperimentale sia qualcosa di diverso da quella che
sperimentatori stanno in realtà studiando e manipolando. È
facile da attuare. Si tratta di mentire e nascondere informazioni
importanti sulla situazione sperimentale. Es. la ricerca di Darley
e Batson sul comportamento degli individui che si imbattono in
persone bisognose di aiuto. Le ricerche di Asch, 1956, e quella
di Milgram, 1974. <<Disegno bilanciato con placebo>>:
Marlatt studiò gli effetti dell’alcool sul comportamento e
l’inganno consisteva nel far bere ai soggetti una bevanda
diversa quella dichiarata. 50 soggetti: a 25 si faceva credere di
far parte del gruppo sperimentale e di dover bere solo tonico,
agli altri 25 di far parte del gruppo di controllo e bere tonico
con vodka. Altri 50 soggetti: a 25 si diceva che dovevano bere
tonico con vodka, agli altri 25 solo tonico. Poiché la vodka è
priva di gusto l’inganno riusciva perfettamente. Questo disegno
è anche un ottimo esempio di metodo “doppio cieco” perché
anche i collaboratori erano ignari dell’inganno. Ma se i soggetti
dovessero accorgersi di qualcosa potrebbero pensare che la
psicologia si basi su un inganno generalizzato e mettere in crisi
il rapporto di fiducia tra ricercatori e soggetti sperimentali.
Alternative dell’inganno (ma che non lo sostituiscono
adeguatamente nella ricerca):
la drammatizzazione (<<role playing>>): costruzione di una
situazione fittizia, durante la quale il soggetto deve comportarsi
come se questa fosse reale. La simulazione può riguardare sia la
V.I. (es. stato d’animo negativo che si può indurre nel soggetto)
che la V.D. (comportamento pericoloso aggressivo). Questo
metodo permette di raccogliere info solo su come il soggetto
dice che si comporterebbe e non sul suo reale comportamento.
il preavviso: si mette al corrente i soggetti della situazione
sperimentale a cui sono sottoposti, come avvisarli dell’effetto di
un determinato farmaco, o dello scopo dell’esperimento ecc. Il
risultato di questo metodo indica che la differenza di
comportamento tra soggetti preavvisati e soggetti ignari, anche
in contesti sperimentali, non può essere eliminata. L’esempio
classico è quello relativo alle misurazioni fisiologiche
sull’effetto di piccole scosse elettriche a seconda che il soggetto
sia preavvisato o menoàla reazione di attivazione
dell’organismo è molto superiore.
Caratteristiche individuali del ricercatore influenzano i
soggetti. Caratteristiche fisiche: sesso, età, etnie, condizione
sociale. Caratteristiche personali: bisogno di approvazione,
esperienza, stile interattivo amichevole e il calore umano,
attrazione.
Effetto sperimentatore sugli animali: Rosenthal e Fode
misero alla prova dodici studenti universitari. A sei di loro
consegnarono topi intelligenti e ad altri sei topi stupidi. In realtà
erano stati selezionati casualmente dalla stessa popolazione. Il
compito consisteva nel far apprendere agli animali un labirinto
a T: i topi intelligenti ebbero risultati migliori. Questo viene
spiegato: interazione studenti-sperimentatori e rattià i ragazzi
che avevano i topi intelligenti erano più rilassati e li trattavano
in modo più amichevole e li maneggiavano con delicatezza più
di quanto facevano i ragazzi a cui erano stati affidati i topi
stupidi. Venne fatto lo stesso esperimento con i vermi: a dei
ragazzi furono dati vermi addestrati alla contrazione e ad altri
vermi non addestrati. I risultati furono migliori per i primi.
L’obbedienza all’autorità negli studi di Milgram: questi
esperimento mostrano come persone normali possano
somministrare sofferenze a persone simili in un contesto in cui
un’autorità riconosciute ordinano tali azioni. L’insegnante era il
vero soggetto, il quale doveva fare domande all’allievo, che era
un confederato dello sperimentatore. L’insegnante doveva
somministrare scosse elettriche se sbagliava risposta; queste in
realtà erano finte e il confederato fingeva di provare dolore. Il
soggetto si trovava avanti a problemi morali: il 62% dei soggetti
obbediva sino alla fine.
Esperimento di Asch: il tema di basa sul conformismo. Lo
scopo era quello di individuare le condizioni che portano i
soggetti a conformarsi o a resistere alle pressioni del gruppo
quando i giudizi del gruppo sono percepiti dal soggetto come
nettamente contrastanti con la realtà e la propria esperienza
sensibile. L’esperimento si basa sull’inganno: il soggetto veniva
posto in gruppo sperimentale di 8 persone, doveva dare dei
giudizi sulla lunghezza di una linea. Veniva posto in due
condizioni: om ima doveva scrivere il risultato (senza pressione
del gruppo), nell’altra doveva esprimere pubblicamente il suo
giudizio, così come gli altri membri fornivano un giudizio
condiviso ma diverso dal soggetto (pressione del gruppo).
Questi ultimi erano dei collaboratori che davano una
valutazione unanime ma erronea. Se i soggetti sono
indipendenti forniranno le risposte corrette basandosi sul
giudizio individuale; se sono influenzati dal gruppo dovrebbero
dare risposte sbagliate. Effetto di maggioranza: frequenza degli
errori fatti nella stessa direzione distorta della maggioranza.
L’inganno era presente in tre punti: si faceva credere al soggetto
di partecipare ad un esperimento di percezione visiva; si
introducevano confederati che il soggetto credeva suoi simili;
questi mentivano per indurre in soggetto a dare una valutazione
erronea.
3) Si cura l’equivalenza dei gruppi e la possibilità di generalizzare
i risultati alla popolazione. Durante il processo di scelta dei
soggetti si divide in due momenti fondamentali:
a) selezione dei soggetti dalla popolazione per formare un
campione (campionamento);
b) assegnazione dei soggetti di questo campione a diversi
gruppi o condizioni sperimentali.
Per comprendere le regole di campionamento bisogna
distinguere la popolazione dal campione:
popolazione/universo sarebbero tutti gli eventi di interesse cui
si rivolge il ricercatore per la sua indagine; alcune di queste
popolazioni sono finite, altre infinite. Il campione è un piccolo
insieme di eventi che hanno le stesse caratteristiche della
popolazione (rappresentatività). Si ricorre al campione perché il
ricercatore può studiare un numero limitato di caratteristiche. Si
fa una distinzione tra popolazione bersaglio: popolazione
completa, cioè l’universo, quella che interessa maggiormente il
ricercatore ma che non è tutta reperibile per una ricerca;
popolazione accessibile: quella che il ricercatore può
avvicinare, ovvero i soggetti che possono essere intervistati. È
quella a cui si ricorre maggiormente per le ricerche, ma la
conoscenza scientifica tende a generalizzare i fenomeni
osservati all’intera popolazione.
Per generalizzare i risultati da un campione ad una popolazione,
il campione deve essere rappresentativo della popolazione,
cioè che ne rifletta adeguatamente le caratteristiche. Le
caratteristiche del campione devono essere presenti nel
campione in proporzioni uguali a quelle della popolazione. Per
mettere in pratica la rappresentatività:
1) generalizzare i dati dal campione alla popolazione
sperimentalmente accessibile; dalla popolazione sperimentale
accessibile si va a quella bersaglio (raggiunge poca fiducia
perché la p. accessibile è poco rappresentativa dell’universo);
2) Più è numeroso il campione più questo è rappresentativo
perché si eliminano gli errori standard.
3 metodi di campionamento/selezione:
1. Campionamento casuale: (maggiore capacità
rappresentativa, quindi è il più consigliato) Un campione si
dice casuale quando ogni soggetto della popolazione ha la
stessa probabilità di essere scelto per far parte del campione. Si
estraggono dalla popolazione secondo delle regole, le più
comuni sono: nel campionamento casuale con ripetizione o
reinserimento ogni elemento della popolazione può essere
osservato più volte, in quanto, dopo ogni estrazione, viene
reinserito nell’insieme di origine; nel campionamento senza
ripetizione o reinserimento nessun elemento estratto viene
reinserito e perciò non è possibile osservare uno stesso
elemento più di una volta. Estrazioni successive alterano la
composizione originaria della popolazione e quindi dopo ogni
estrazione la probabilità che gli elementi restanti entrino a far
parte del campione sarà modificata e influenzata dal risultato
delle estrazioni avvenute in precedenza. Un errore sistematico
di campionamento genera risultati sistematicamente errati e
quindi non generalizzabili.
2. Stratificazione: la popolazione viene suddivisa in tante parti,
dette strati o sub-popolazioni, sulla base delle variabili (che
influenzano la V.D.) considerate critiche per i soggetti, e da
ognuna di queste parti viene compiuta un’estrazione casuale.
Possono essere prese in considerazione più variabili critiche
contemporaneamente.
3. Campionamento ad hoc o di convenienza: formato da
soggetti facilmente reperibili e disponibili, non scelti in modo
casuale da una particolare popolazione. Per generalizzare i
risultati alla popolazione lo si deve fare con cautela e riserva e
solo ad altre persone che hanno caratteristiche simili a quelle
del campione. Per generalizzare i dati di un campione ad hoc, si
devono tenere in considerazione tutte le caratteristiche dei
soggetti; quanto più si riesce a descrivere i soggetti del
campione in modo obiettivo, tanto più esatta risulterà la
precisazione dei limiti e più affidabile la generalizzazione.
4 metodi di assegnazione dei soggetti ai gruppi o alle
condizioni:
1. Assegnazione casuale: quando ogni soggetto estratto dalla
popolazione ha la stessa probabilità di capitare nell’una o
nell’altra condizione/gruppo. Vantaggi: controllo delle minacce
alla validità interna e esterna; controllo simultaneo di più
variabili; controlla anche fattori sconosciuti che influiscono sui
risultati. Si presume che le variabili estranee e gli errori sono
distribuiti equamente tra i gruppi, quindi possono dirsi
equivalenti. Questo metodo è efficace solo quando il campione
è numeroso perché avere un campione piccolo da suddividere in
gruppo sperimentale e gruppo di controllo porta il dubbio che
ogni risultato sperimentale può essere dovuto alla differenza tra
gruppi piuttosto che al trattamento.
2. Pareggiamento o appaiamento (matching): si verifica
quando ci sono tre condizioni: esiguità dei campioni; sospetto
che vi sia una variabile rispetto alla quale i soggetti differiscono
e che sia correlata in qualche modo con la variabile dipendente;
possibilità di esaminare i soggetti prima dell’esperimento. Il
procedimento per pareggiare un campione di soggetti è questo:
a) si dispongono in ordine crescente o decrescente i soggetti
sulla base di una prova preliminare relativa alla variabile
influente (se si tratta dell’età in ordine di età);
b) si formano delle coppie in base all’ordine precedente;
c) si assegnano a caso i membri di ciascuna coppia ai gruppi;
d) si applicano i trattamenti e quindi si esaminano le differenze
tra membri delle coppie.
3. Metodo dei blocchi: si abbinano le caratteristiche dei gruppi,
rendendo omogeni i gruppi rispetto a determinati fattori. Si
identifica la variabile in base alla quale formare i blocchi, poi si
misura in tutti coloro che dovranno appartenere al campione
sperimentale e infine si suddividono i soggetti in base alla
media e alla deviazione standard ottenute in tali misure. Quindi
ogni gruppo detto blocco corrisponde ad un livello di una
variabile che si ritiene influenzi la VD in modo differente. Es.
suddividere il campione in tre blocchi sulla base del QI ed
assegnare casualmente a ciascun gruppo i soggetti dei blocchi.
Questo metodo permette al ricercatore di eliminare la
confusione causata da effetti che la caratteristica influente può
avere nelle relazioni tra le variabili sperimentali. Ogni blocco
può essere sottoposto a tutte le condizioni del trattamento.
Vantaggio: si effettua il controllo sia con un numero minore di
soggetti, sia con uno scarto inferiore di soggetti residuali non
utilizzabili. Però a differenza del metodo di pareggiamento si
può controllare una variabile per volta.
4. Soggetti come controllo di se stessi: si sottopone ciascun
soggetto a ciascuna condizione dell’esperimento, si adotta la
tecnica del disegno entro i soggetti. La variabilità proveniente
dalle differenze tra i soggetti è ridotto considerevolmente. (10,1
supra).
Effetti di disturbo dovuti ai soggetti, che il ricercatore
vorrebbero fossero obiettivi, cioè incapaci di portare in
laboratorio preconcetti o predisposizioni. I principali effetti di
disturbo provengono dalla selezione dei soggetti. La difficoltà
di reperire soggetti spinge il ricercatore a ricorrere a categorie
predefinite (topi albini, fagioli, scolaresche). Questi gruppi
hanno caratteristiche proprie e difficilmente generalizzabili ma
purtroppo non è facile ottenere campioni casuali. Per quanto
riguarda i topi albini Sidowski e Lockard ne giustificano l’uso
dicendo che sono facili da reperire, di grande quantità da
permettere molte repliche, ed essendo stati usati in passato per
mantenere le stesse variabili nelle ricerche per confrontare i dati
sono stati utilizzati nuovamente. Per quanto riguarda l’uso degli
universitari, i fagioli, i quali costituiscono il subject pool
(insieme di soggetti), presenta numerosi problemi per la validità
esterna dei risultati in quanto si tratta di una popolazione con
caratteristiche particolari. Es. l’effetto di rinforzo emerso nei
fagioli non si verifica in una popolazione di studenti non
universitari; Steele Southwick rilevano che negli esperimenti di
laboratorio, i fagioli si comportano meno emotivamente e
impulsivamente della popolazione generale. Dopo numerose
ricerche si può affermare che la validità esterna dei risultati
delle ricerche non è tanto funzione della popolazione
campionata, quanto dell’interazione tra caratteristiche dei
soggetti e particolari comportamenti. Quando la selezione
comporta un’interazione, i dati dell’esperimento non hanno
validità esterna, per cui on possono essere generalizzati alla
popolazione, ma questo vale anche per campioni di non
studenti. Soggetti volontari e non volontari.
In genere con il concetto “volontario” si indicano sia i soggetti
che vengono ricompensati che non. Si considera volontario
colui che non rifiuta di dare la sua collaborazione alla ricerca,
pur avendone la possibilità. Rosenthal e Rosnow identificano
differenze tra i volontari e non volontari: i primi sono più
istruiti, più socievoli, con livello socioeconomico più elevato,
più giovani, bisognosi di approvazione sociale e ovviamente
danno la disponibilità a collaborare (maggiore nelle femmine).
Da questa disponibilità/acquiescenza (compilance) proviene la
tendenza a dare una buona immagine di sé. Atteggiamento
indicato dai metodologi come desiderabilità sociale, effetto di
disturbo soprattutto nelle ricerche che utilizzano scale di
autovalutazione (self-report). Es. negli studi di Koman emerge
una correlazione negativa tra incapacità di far fronte a piccole
difficoltà quotidiane e desiderabilità sociale. Un’altra differenza
è nella posizione in una scala di ricerca di sensazioni (Sensation
Seeking Scale): i primi sono più desiderosi di provare nuove
emozioni; i volontari si dimostrano di condividere, più dei non
volontari, gli obiettivi generali del ricercatore a cui prestano la
loro collaborazione. Per ridurre gli effetti dovuti a soggetti
volontari si suggerisce di: ricorrere a persone che non sanno di
partecipare alla ricerca, utilizzare misure non intrusive o altre
tecniche di osservazione naturalistica, che non provocano
reattività. Per tenere ignari i soggetti si ricorre all’uso di
collaboratori o all’inganno. Per non ricorrere a violazioni etiche
come nell’inganno Rosenthal e Rosnow consigliano di fare ogni
sforzo perché la ricerca abbia una tale attrattiva da interessare il
maggior numero possibile di persone, tramite ricompense.
Inoltre è necessario valutare empiricamente l’influenza dei
volontari e non volontari. Kanfer, Grimm e Goldman, Domitor
e Murray offrirono delle ricerche: stabilirono due blocchi,
volontari e non volontari. I soggetti furono assegnati in modo
randomizzato a tre livelli di trattamento: meditazione, quasi
meditazione, e gruppo di controllo, e ogni gruppo fu bilanciato
per la variabile sesso e numero di volontari e non volontari. Da
questa ricerca risultò che nella meditazione i volontari
ottenevano miglioramenti più evidenti e sperimentavano più
stati alterati di coscienza rispetto ai non volontari. Tra i
volontari ci sono anche quelli che accettano ricompense: al
variare della quantità della ricompensa varia anche il desiderio
dei soggetti di partecipare all’esperimento. I metodologi parlano
di soggetti non volontari quando nell’attività di ricerca si
incontrano persone che si rifiutano di partecipare, non si
presentano pure avendo accettato di collaborare o non si
incontrano affatto perché non sono reperibili.
Perdita differenziale dei soggetti: vanifica la possibilità
dell’esperimento di controllo, quando il ritiro dei soggetti dai
vari gruppi non avviene in modo casuale ma tende a essere più
frequente nel gruppo di controllo.
4. Controbilanciamento entro i soggetti e tra soggetti (capitolo 5).

CRISI DI CREDIBILITA’ DELLA PSICOLOGIA: si intende


il fatto che alcuni dei risultati della ricerca psicologica, e le
conseguenti elaborazioni teoriche, sono stati messi in forte dubbio
per la loro mancanza di replicabilità, sia all’interno della comunità
scientifica psicologica che nella comunità scientifica più in
generale. La crisi di credibilità riguarda anche le neuroscienze e la
ricerca biomedica. Il problema principale è la pratica quotidiana
dell’attività di ricerca della comunità scientifica e la resenza di
incentivi e bias che possono provocare distorsioni ed effetti
deleteri. Il 2011 è stato un annus horribilis per la psicologia perché
avvengono tre eventi:
1. Stepel viene licenziato dall’universitò di Tilburg perché
accusato di frode scientifica: gli furoni ritirati 53 articoli e 10
tesi di dottorato perché contenenti casi inventati o manipolati.
2. Bem pubblicò un articolo sulla percezione extra-sensoriale
(l’uomo predice ciò che sta per accadere) invocata dalla
parapsicologia (studio di fenomeni, “psi”, estranei a leggi
fisiche e esperienze sensoriali attribuibili alla psiche). Ci si
chiede come è possibile che usano metodi scientifici normali
ha trovato risposta a questi fenomini, per questo vengono
messi in dubbio gli approcci scientifici.
3. Simmons pubblica un articolo in cui pone l’accento delle
pratiche di ricerca discutibile (QRP, Questionable Research
Pratices) nel produrre falsi-positivi: risultati che
rappresentano dei rifiuti erronei dell’ipotesi nulla. Viene
praticato P-hacking: abuso e uso di analisi statistiche per
avere risultati significativi quando non è possibile.
Questi tre eventi ne causano altri: nel 2012 Sanna e Smeeters,
accusati di frode scientifica, sono licenziati perché hanno
pubblicato risultati impossibili dal punto di vista statistico. Si ha il
fallimento di un tentativo di replica dei risultati di un famoso
studio di priming comportamentale )attivazione dello stereotipo
delle persone anziane nel camminare più lentamente) di Bargh,
innesca una polemica da parte di Bargh sui risultati della replica
ed una lettera del premio Nobel Daniel Kanheman che invita a
recuperare la credibilità del settore proponendo un programma di
repliche dei risultati.
Con questa crisi si pone al centro l’importanza della replica.
Replicabilità dei risultati: Per ottenere una replica dei risultati
bisogna far sì che questi siano replicabili. Devono esserci due
implicazioni: tutte le condizioni rilevanti per ottenere i risultati
devono essere disponibili alla comunità scientifica; i dati ottenuti
e le specifiche procedure analitiche devono essere disponibili allo
scrutinio di terzi. Queste regole purtroppo sono quasi sempre non
rispettate. In economia sperimentale viene pubblicata la versione
integrale della ricerca come appendice di quella sintetica, mentre
in psicologia solo quest’ultima senza permettere una possibile
replica. Per farla bisognerebbe: contattare l’autore originale, avere
la disponibilità dei dati originali.
Replica dei risultati: condizione necessaria ma non sufficiente per
la correttezza dei risultati. Bisogna chiedersi per quali motivi le
inferenze possono essere sbagliate:
1. Dati inventati o manipolati;
2. Uso di QRP: esclusione arbitraria di dati (campione), messa
in atto di analisi sequenziali senza adeguata protezione
statistica, considerazione selettiva a posteriori (cherry-
picking) di alcune variabili tra le molte utilizzate.
3. Mancata distinzione tra studio esplorativo e confirmatorio ed
il presentare dei risultati come confirmatori mentre in realtà
le ipotesi sono state costruite a posteriori sulla base dei
risultati stessi (HARCKING).
4. Inaccuratezza iniziale.

La probabilità che i risultati siano replicati dipende


dall’accuratezza, precisione nella stima del parametro di interesse,
e potenza statistica, probabilità che l’inferenza statistica sia
corretta ovvero la probabilità di rifiutare l’ipotesi nulla quando è
falsa, dello studio originale. L’accuratezza dipende dalla
numerosità del campione mentre la potenza statistica dipende
dalla combinazione della numerosità del campione con la forza
dell’effetto (operativamente il valore nella popolazione di una
delle statistiche utilizzare per esprimere in modo standardizzato
l’effetto).
Validità dei risultati: si riferisce, oltre che alla replica, al legame
concettuale tra risultati ottenuti ed una proprietà teorica oppure
l’universo al quale i risultati vogliono essere applicati. Il problema
si ha quando vengono generalizzati i risultati quando il contesto è
diverso in qualche aspetto. Validità: qualità del raccordo tra
risultati ed inferenze teoriche e tra risultati in un contesto e la loro
generalizzazione ad altri contesti è sempre imperfetta ma
migliorabile.
La crisi dipende dai motivi sistematici che governano i ricercatori:
1. Se risulta difficile pubblicare risultati non significativi, questi
rimarranno nel cassetto (File Drawer Effect) e contribuiscano
quindi alla presenza di risultati significativi nella letteratura
(Publication Bias).
2. Se la pubblicazione di studi di replica è molto difficile pochi
ricercatori spendono energie nel farlo.
3. Se per pubblicare su riviste di prestigio vengono richiesti
risultati perfetti si mette in atto il QRP. Perché il Publish on
Peris (PoP) research culutre (successo accademico) dipende
dal numero di pubblicazioni e la loro qualità. Se la
pubblicazione su queste riviste dipende dal fare notizia dei
risultati (sexy-findings) più che dalla robustezza dei risultati
(robust-findings) si creeranno incentivi nel produrre risultati
che fanno notizia. Risultati così si ottengono: da
interpretazioni post-hoc (presentare analisi esplorative come
se fossero confermative) e da variazioni campionarie dovute
alla scarsa numerosità del campioni e quindi proni ad essere
non replicati (sexy but unrelieble).
Maggiore credibilità si può ottenere grazie alla spiegazione di
come svolgere azioni possibili che aumentino la probabilità che
tale azioni siano messe in atto.
• Aumento potenza statistica delle ricerche usano un campione
molto numeroso che dipende dalla forza dell’effetto.
• Enfasi sulla forza dell’effetto.
• Enfasi sulla replica dei risultati.
• Trasparenza nella ricerca che porta alla riduzione di QRP e
falsi positivi. Si ottiene lo sviluppo di un sito per valutare i
risultati; uso di misure metodologiche (le esclusioni, le
condizioni, le misure, la dimensione del campione); sviluppo
di Badges, ovvero 3 certificati (Open Data=accesso pubblico
ai dati; Open materials= materiali utilizzati; Pre-registred=
pre-registrazioni delle ipotesi e del piano di analisi dettagliato
prima dell’esecuzione dello studio); si ha una nuova rivista
elettronica per pubblicare dati relativi a ricerche in modo tale
che siano citabili e riutilizzabili per altre analisi; sviluppo di
un nuovo sito che consente di documentare tutti i passi di una
ricerca e di ottenere timbri temporali non modificabili che
possono essere usati per dimostrare, ad esempio, che le
ipotesi sono formulate prima dello studio.

Geti it right: inferenze corrette; Geti t published: importanza di


pubblicare quindi messa in atto di QRP.

Potrebbero piacerti anche