Sei sulla pagina 1di 46

Capitolo 1 – evoluzione del concetto di scienza

L’epistemologia si occupa dei problemi del sapere scientifico sia nel suo procedere logico sia nei metodi di
verifica.

1. La concezione “dimostrativa” e quella “descrittiva” di scienza:


Il concetto di scienza è andato continuamente evolvendosi. Esso però è sempre rimasto
strettamente collegato a quello di verità; è cambiata solo la garanzia che la scienza offriva alla
verità. Mentre la scienza tradizionale includeva una garanzia assoluta, quella moderna non
rivendica più tale assolutezza.
a. La concezione dimostrativa di scienza:
Già nei primi secoli della Grecia classica si iniziò a distinguere tra scienza e opinione.
Secondo l’ideale classico, la scienza garantiva la propria validità perché dimostrava le
proprie affermazioni.
- Aristotele: la scienza è conoscenza dimostrativa, permette di conoscere la causa di un
oggetto.
- Euclide: portò la matematica a livello di scienza perfettamente deduttiva.
La scienza moderna non ha messo in crisi questo ideale. Rimasta immutata la suggestione
della matematica come scienza perfetta.
Oggi si considera tramontato l’ideale classico di scienza come sistema compiuto di verità
necessarie per dimostrazione o per evidenza. Ma non tutte le sue caratteristiche possono
dirsi superate.
b. La concezione descrittiva di scienza:
- Bacone: interpretazione della natura. È l’osservazione dei fatti e l’induzione a partire da
essi.
- Newton: elaborò il concetto descrittivo di scienza basandosi sul metodo dell’analisi che
contrapponeva il metodo della sintesi.
Si possono riassumere i punti fondamentali di questa filosofia nelle seguenti tre
affermazioni:
a) i fatti testimoniaci dell’esperienza sono indiscutibilmente oggettivi, nel senso che il
mondo reale esterno è veramente come noi ce lo rappresentiamo;
b) la natura è essenzialmente razionale;
c) complementare e conseguente a questo secondo punto è la concezione della natura
della ragione, secondo cui le categorie logiche della ragione non sono da considerare
dipendenti della mente dell’uomo ma corrispondenti ai nessi reali e naturali.
Il positivismo sottolineò anche il carattere attivo ed operativo della scienza. Tale carattere
permette all’uomo di agire sulla natura e dominarla mediante la previsione dei fatti resa
possibile dalle leggi.
i. Positivismo logico:
È una scuola filosofica costituitasi a Vienna verso gli anni ’20. L’aspetto
fondamentale di questa corrente era un’inclinazione positivista intrinseca. Consiste
nel ritenere all’origine di ogni conoscenza i dati sensoriali. Ogni sapere scientifico,
quindi si basa sulle osservazioni che, nelle condizioni volute, possono essere
considerate oggettive.
Per gli autori di tale scuola, l’oggettività è piuttosto intersoggettività.
Una volta che nei fenomeni osservati sono state riscontare delle regolarità, per
mezzo dell’induzione si ricavano le leggi. Esse costituiscono il punto di partenza per
le teorie, che a loro volta permettono di proporre nuove ipotesi. Le ipotesi vanno
verificate mediante la sperimentazione o l’osservazione e quindi generalizzate e
coordinate in teorie più generali.
Il punto di vista alla fine degli anni ’50 fu duramente contestato. Inizialmente, la
critica fu diretta soprattutto verso il suo atteggiamento empirico. Si è osservato che
non esiste osservazione pura, indipendente da qualsiasi presupposto teorico e da
ogni aspettativa.
tali critiche furono rafforzate dai progressi scientifici nel campo delle scienze
fisiche.
L’empirismo logico trovò dei cultori anche all’interno della psicologia.
Anche il behaviorismo riprese le formulazioni del circolo viennese. Per i behavioristi
una teoria scientifica è la descrizione dei dati sensoriali raccolta nei cosiddetti
protocolli di osservazione.
ii. L’epistemologia genetica:
- Piaget: progetto di epistemologia genetica, disciplina che intende spiegare i
processi cognitivi ricostruendo le fasi del loro sviluppo dall’infanzia al mondo
adulto. Secondo Piaget, numerosi problemi relativi ai fondamenti dei concetti
scientifici, in genere considerati rilevanti dalla riflessione filosofica, possono essere
studiati empiricamente per come si vanno formando nel corso dello sviluppo
genetico.
È difficile valutare l’influenza di Piaget sulle riflessioni epistemologiche degli anni
’50 e ’60, ma si può notare almeno una convergenza importante con altre correnti
di pensiero di cui si parla: Piaget ha sempre criticato l’empirismo. Sosteneva inoltre
che numerosi problemi, tradizionalmente considerati come epistemologici, quindi
rilevanti per la riflessione pura, possono essere risolti mediante la ricerca epirica.
2. La concezione “autocorreggibile” di scienza:
La terza concezione di scienza riconosce come garanzia della validità della scienza la sua
autocorreggibilità.
a. Il razionalismo di Popper:
- Karl Popper: parte da una semplice idea di logica elementare: una proposizione generale
non può essere confermata empiricamente, ma solamente falsificata o confutata.
Una teoria, per quanto possa trovare ripetute conferme, non è mai assolutamente o
definitivamente dimostrata. Ne consegue che le conoscenze positive sono sempre
provvisorie e soggette a revisione, solo le confutazioni sono logicamente convincenti.
Se è vero che una teoria non è mai certa, e se lo scopo della scienza è di raggiungere teorie
sempre più vere e più potenti dal punto di vista esplicativo, allora compito dello scienziato
è di tentare di falsificare le teorie.
Popper propone un criterio di demarcazione tra le scienze propriamente dette e quelle che
si presentano abusivamente come tali. Per Popper è scientifica ogni affermazione
confutabile. Secondo questo criterio, la legge della gravità è scientifica perché, se i pianeti
avessero un'altra traiettoria, o se le mele cadessero in modo diverso, si sarebbe costretti a
dire che è falsa.
Secondo Popper la ricerca scientifica non inizia dalle osservazioni, bensì dai problemi. Un
problema è una contraddizione o tra due teorie o tra una teoria e un fatto. Per risolvere un
problema occorre fantasia, creatività: l’osservazione da sola sarebbe insignificante se non ci
fosse l’intuizione dello scienziato. L’osservazione serve per verificare l’ipotesi.
In conclusione, per Popper, l’elemento centrale e decisivo dell’attività di ricerca non è
quello di confermare le ipotesi ma di falsificarle. La scienza avanza per tentativi ed errori;
procede sul sentiero delle congetture e delle confutazioni. E parte sempre dai problemi.
- Per Popper: problemi->teorie->critiche;
- Per i positivisti logici: osservazioni->induzione->ipotesi->verifica.
b. Kuhn e i paradigmi:
- Thomas Kuhn: “la struttura delle rivoluzioni scientifiche”. La psicologia e le scienze sociali
subirono una influenza notevole. Kuhn condivide con Popper molte idee, l’interesse verso
l’aspetto dinamico dell’evoluzione della conoscenza scientifica, la visione rivoluzionaria
dell’evoluzione della scienza piuttosto che cumulativa, la critica verso il positivismo logico.
Ma la sua concezione si differenzia da quella di Popper perché egli basa la scienza, e il suo
sviluppo, sui concetti di “paradigma”, di “scienza normale”, di “anomalie”, di “scienza
straordinaria” e di “rivoluzione scientifica”.
Egli sostiene che la maggior parte delle attività scientifiche non consistono nel verificare le
teorie, ma nell’arricchirle. La scienza si costruisce a partire dai paradigmi, ovvero conquiste
scientifiche universalmente riconosciuti che, forniscono un modello di problemi e soluzioni
accettabili da coloro che praticano un certo campo di ricerca.
Secondo Kuhn, una scienza presenta nel corso della sua storia vari cicli paradigmici. Ogni
ciclo comprende una fase preparatoria, durante la quale si confrontano all’interno della
stessa disciplina varie scuole di pensiero. Un contributo importante può conciliare la
maggioranza e far accedere la disciplina da una fase di scienza straordinaria a una definita
da Kuhn come normale. Quando si trova in questo periodo i ricercatori lavorano all’interno
di un paradigma senza metterlo in discussione.
Egli insiste anche sul carattere sociale del paradigma; è proprio di una comunità, è ciò che i
ricercatori di un medesimo settore hanno in comune, ciò che si insegna agli studenti.
Una caratteristica importante dei paradigmi è la loro incommensurabilità. Ciascuno
comporta i proprio criteri di validità, ognuno è chiuso in se stesso.
Se i paradigmi sono incommensurabili, non ci può essere un passaggio dall’uno all’altro per
una trasformazione graduale, continua. Il nuovo può dunque soppiantare il vecchio solo
totalmente, cioè mediante una rivoluzione. Difatti durante lo svolgimento di un’attività
scientifica normale, si accumulano fatti anormali, cioè inconciliabili con i paradigmi
esistenti.
di fronte ad un’anomalia, sono possibili numerosi atteggiamenti. Uno di questi sarà di
mostrare che le contraddizioni sono solo apparenti e ci si sforzerà di trovare una
spiegazione all’interno del paradigma.
Capita tuttavia che le anomalie si accumulino, o che certe siano giudicate troppo importanti
per essere messe tra parentesi. Questo crea situazioni di crisi che spinge certi ricercatori ad
abbandonare la scienza normale per interrogarsi sui fondamenti stessi del paradigma.
secondo Kuhn. Ciò che spinge a mettere da parte il precedente paradigma non è chiaro,
poiché per principio i paradigmi non sono comparabili. L’importante è che sia prodotta la
rivoluzione, trascinando una conversione a una nuova visione del mondo. Lo sviluppo della
scienza secondo Kuhn è dunque discontinuo e ateleologico.
c. L’epistemologia irrazionale ed anarchica:
- Feyerabend: è necessario riconoscere che la scienza ha bisogno e fa uso di una pluralità di
standard e che gli scienziati lavorano meglio se non sono vincolati da alcun paradigma. Egli
sostiene che una posizione di anarchismo metodologico, secondo cui nella storia della
scienza non sono mai esistite regole di modo che non siano state di fatto.
Egli propone la tesi secondo cui una siffatta libertà di azione e le violazioni alle norme del
metodo sono necessarie per il progresso scientifico.
Al modello monistico della crescita scientifica. Feyerabend contrappone quello del
pluralismo teorico. Di fronte ai problemi della fondazione di enunciati veri viene elevata la
consapevolezza della fallibilità del nostro sapere, mentre la critica assurge al rango di
strumento primario e insostituibile di ogni conoscenza. La metodologia deve pertanto
essere una teoria della critica e dell’errore più di una teoria della verità.
3. Un bilancio: metodo o storia?
Attualmente ci si può riferire ai due atteggiamenti limite prevalenti, quello che privilegia il metodo
della scienza e quello che valorizza la sua dimensione storica.
Il primo atteggiamento caratteristico dell’impostazione positivista, propone una concezione di
scienza astorica e assoluta. Indica come criterio di base del sapere scientifico l’empirismo.
Il secondo atteggiamento riconosce anche al progresso scientifico, una dimensione storica e non
considera il sapere scientifico come un unico corpus immutabile.
Entrambi questi atteggiamenti se assunti in forma esclusiva, portano a conclusioni chiaramente
sbilanciate ed insostenibili. Da una parte lo scientismo dogmatico e la chiusura fiscalista
combattuta da Popper. Dall’altra la posizione di Feyerabend, secondo cui tutto può andare bene.
Conviene partire dall’osservazione del comportamento e delle indicazioni dei protagonisti
dell’avventura scientifica. Da loro si ricava l’insegnamento di una necessaria complementarietà tra i
due atteggiamenti. Inoltre emergono anche le seguenti indicazioni.
1) Sottolinea che il metodo è fondamentale nell’indagine scientifica ma immediatamente si deve
aggiungere che il metodo non è una struttura statica. Un’indagine scientifica è condizionata nel
contesto nel quale si svolge.
2) Sempre meglio si comprende, quindi, che la scienza non solo è immutabile, ma non unica.
3) Tuttavia l’esame storico mostra pure che il processo scientifico non può svolgersi in assenza di
regole.
4) Un altro presupposto importante è una libera attività mentale nella formazione di conoscenza
scientifica.
4. La proposta del realismo critico:
Nel settore del pensiero psicologico, ha trovato un certo credito una concezione di scienza
alternativa. Ovvero la teoria realista. Questa posizione è stata variamente chiamata: teoria realista
della scienza, realismo trascendentale, realismo fallibilista, realismo critico.
a. Contrapposizione tra realismo critico ed empirismo logico:
- Realismo critico: condivide con gli epistemologi e con il realismo scientifico l’opinione che
non si può assolutamente accettare quella epistemologia che vede le preposizioni
scientifiche fondate sui fatti. Il motivo di questo rifiuto è la convinzione che la conoscenza è
un prodotto sociale e storico. Non c’è niente che possa essere considerato fatto puro, cioè
svincolato da qualsiasi schema concettuale. Così l’attività degli scienziati genera i propri
criteri razionali, che indicano quali teorie accettare e quali respingere. Il punto importante
è che questi criteri siano razionali proprio in termini realisti, cioè in quanto presuppongono
che il mondo esiste indipendentemente dall’esperienza.
- Poiché le teorie scientifiche sono costitutive del mondo conosciuto ma non del mondo
reale, lo scienziato può sempre essere in errore.
- Il realismo critico rifiuta il riduzionismo dei positivisti logici, e propone il concetto di
stratificazione. Per i positivisti, le varie teorie si dispongono secondo una parziale gerarchia
di livelli di descrizione, ciascuno dei quali offre una spiegazione più macroscopica del
fenomeno studiato. Per il realismo critico, sia il mondo che la scienza sono stratificati. Ossia
le cose del mondo sono dei composti complessi. Per la psicologia è la stessa cosa. I fatti
comportamentali vanno considerati a più livelli, a più sfere di influenza tra loro interagenti.
- Il realismo critico respinge poi sia il concetto di causa di Hume sia quello tradizionale di
legge. Si sa che le leggi scientifiche tradizioni vengono espresse mediante funzioni di tipo
Ri=f(Si).
Il realismo critico propone invece la seguente espressione “quando presente C, A
necessariamente tende a phi in virtù della sua struttura S”.
Per tali ragioni il realismo critico sostiene che il mondo non solo è stratificato, ma è
costituito da un complesso di strutture e di processi strutturati. Le cose del mondo non
operano sotto condizioni di completa chiusura, come le leggi deterministiche. Questo
spiega l’esperienza dei patterns, di tendenze e di probabilità.
- La teoria realista non accetta che il modello di spiegazione della scienza tradizionale sia da
considerare unico , infatti per il realismo critico, gli eventi, sono in risultato del concorso di
processi causali che hanno luogo nei sistemi aperti, per cui sono frutto di numerosi
meccanismi, appartenenti a cose diverse e che interagiscono in modi differenti.
b. Implicazioni per la psicologia:
Le conseguenze che le tesi del realismo critico hanno avuto per la psicologia sono notevoli.
Prima di tutto, hanno messo in chiaro che non è possibile applicare all’uomo lo schema
conoscitivo del positivismo logico. Le scienze non potranno mai raggiungere l’ideale
realizzato dalle scienze della natura.
il realismo critico ha poi evidenziato che l’uomo è differente dagli oggetti di delle scienze
naturali. Le regolarità che si possono osservare nel suo comportamento non sono il segno
di un certo determinismo, indicano invece la tendenza a seguire regole o ad agire in
funzione della logica delle situazioni. Le azioni umane, più che essere determinate da cause
concepite alla maniera delle scienze fisiche, sono frutto dell’osservanza di regole.
Si è detto inoltre che il realista crede che una spiegazione scientifica valida possa ricorrere a
ciò che non è osservabile. Questo presupposto ha spinto gli psicologi ad evidenziare gli
elementi della conoscenza sociale, linguistica, politica tipici delle persone che hanno modi
di vita e culture diverse e i fenomeni collettivi, i vari principi della vita sociale e dei gruppi.
Così l’esperienza consapevole viene strutturata in modo che i concetti psicologici di
“tegola”, “piano” e “progetto”, quando divengono oggetto di discussione, sono chiamati a
colmare degli spazi che finora erano vuoti.
inoltre le persone, oggetto principale dello studio psicologico, devono essere considerate
come complessi particolari e i vari comportamenti come il risultato di complesse
transazioni di molte strutture differenti.
A quanto si è detto si può obiettare che già da tempo si afferma che vi sono interazioni
complesse tra le variabili; per studiarle, infatti, sono stati sviluppati numerosi metodi
multivariati, come la regressione multipla, l’ANOVA. A questi rilievi si può rispondere che,
pur riconoscendo a tali tecniche un indubbio valore soprattutto per la loro capacità
descrittiva, la loro applicazione allo studio del comportamento non fornisce una
spiegazione.

Capitolo 2 – il processo di ricerca


Il modo di condurre le ricerche segue regole ben precise. Le ricerche psicologiche tendono a risolvere sia
problemi teorici che pratici. I primi danno luogo alla “ricerca di base”, i secondi alla “ricerca applicata”. La
ricerca di base, chiamata anche fondamentale o pura, ha per scopo di aumentare le conoscenze teoriche su
un dato argomento. Quella applicata invece nasce da problemi concreti, che richiedono soluzioni pratiche.
Nel primo caso, come nel secondo, il processo di ricerca è identico.
I. Identificazione del problema di ricerca;
II. Pianificazione del disegno sperimentale;
III. Fase delle osservazioni;
IV. Fase dell’analisi dei dati;
V. Fase dell’interpretazione dei dati;
VI. Fase della comunicazione dei risultati.
1. Identificazione del problema di ricerca:
Le fonti del problema sono numerose:
- Interessi personali del ricercatore: essi sono particolarmente importanti sia perché stimolano ad
individuare i problemi, sia perché gli suggeriscono la direzione del lavoro di ricerca e lo aiutano a
proseguirlo quando diventa difficile. Spesso gli interessi del ricercatore sono focalizzati sullo studio
intensivo dei casi singoli.
- Fatti paradossali e fortuna: anche gli eventi paradossali possono suscitare motivi problematici per
la ricerca psicologica.
- Serendipità: pure il caso o la fortuna possono porre il ricercatore attento a un problema rilevante.
Indica il dono di fare delle scoperte utili alle quali non si mirava.
- Tentativi di risolvere problemi pratici: la maggior parte della ricerca psicologica è ricerca applicata,
cioè volta a dare soluzioni a problemi concreti.
- Le teorie e i risultati di ricerca: un aspetto molto importante e utile delle teorie è la loro capacità di
far sorgere nuove problematiche, di essere il punto di partenza di nuove ricerche. Anche i risultati
di ricerche già eseguite possono far nascere interrogativi.
- Influenza euristica: si ha quando una teoria genera un enorme interesse. Da ciò di solito prendono
avvio numerosi studi e ricerche.
- Influenza sistemica: avviene quando la teoria o la ricerca fa affermazioni esplicite e direttamente
verificabili.
- Strumenti di identificazione dei problemi: molto spesso gli studiosi ricavano problemi dalle
comunicazioni fatte nei convegni, nelle discussioni con altri colleghi, da articoli di rivista scientifica.
Le ricerche pubblicate nelle riviste di psicologia sono, in genere, la fonte maggiore di nuove idee.
- Competizione: in alcuni sistemi esistono dei meccanismi che si basano sulla competizione tra
diversi ricercatori. A volte tali meccanismi possono produrre anche delle disfunzioni. I ricercatori
tendono a focalizzarsi sugli ambiti che rendono di più i termini di carriera o si adeguano a delle
“mode”.
a. Domande di ricerca, ipotesi di ricerca, ipotesi statistiche:
L’identificazione di un problema rilevante da un punto di vista teorico e/o sociale presenta
o solleva una serie di quesiti più semplici. Queste domande di ricerca focalizzano
l’attenzione del ricercatore su alcuni aspetti e lo distoglie da altri.
L’ipotesi di ricerca che ne consegue viene definita in maniera ancora più specifica. Essa è
una congettura o un’ipotesi che il ricercatore intende verificare sulle relazioni esistenti tra
le variabili.
L’ipotesi di ricerca dà poi luogo a due ipotesi statistiche, afferma la mancanza dell’effetto
ipotizzato, mentre l’ipotesi alternativa afferma la presenza di tale effetto.
2. Fase della pianificazione del disegno di ricerca:
Comporta una serie di scelte che conducono a delineare il disegno di ricerca nel suo complesso.
Esse riguardano l’oggetto da osservare, le condizioni in cui condurre le osservazioni, gli strumenti di
misura più affidabili, i metodi più appropriati per codificare i dati, i test statistici per le analisi.
Durante questa tappa vanno prese anche le decisioni sui soggetti da sottoporre alle prove e si
devono analizzare i problemi etici legati all’attuazione dell’esperimento.
3. Fase dell’osservazione e raccolta dei dati:
Il ricercatore mette in atto le procedure stabilite precedentemente e raccoglie i dati che saranno
oggetto di studio delle tappe successive. La ricerca scientifica può essere considerata come un
processo di investigazione che ruota attorno alle osservazioni empiriche. In effetti, queste
costituiscono i fatti della ricerca.
a. Misurazione e scale di misura delle variabili:
Secondo la teoria della misurazione di Stevens (1946), la misurazione è l’associazione tra
una categoria e oggetti, eventi o individui in base a regole di corrispondenza. Si dice caso
ciò a cui si applica a misurazione che solitamente viene assegnato a una delle condizioni
sperimentali. Quando si esegue una misurazione su un soggetto, si utilizza un sistema di
categorie che viene detto variabile. Il termine variabile indica qualsiasi caratteristica del
soggetto che può assumere valori diversi in un dato intervallo e che varia da individuo a
individuo. Ciascuna variabile è formata da un insieme di categorie che esprimono l’ambito
di variazione della variabile stessa e che vengono dette livelli o modalità.
Stevens distinse quattro categorie di variabili sulla base della scala utilizzata per la
misurazione, cioè sulla base delle relazioni intercorrenti tra i livelli di variazione di una
variabile.
Le quattro scale sono dette categoriali, ordinali, a intervalli equivalenti e a rapporti
equivalenti. Quando i livelli sono costituiti da categorie discrete che non possono essere
ordinate in alcun modo la variabile si dice nominale.
Quando i livelli, oltre ad essere diversi, sono an che ordinati in modo che uno viene prima
dell’altro e non hanno valore numerico, la variabile si dice ordinale. Sono variabili ordinali
le classi sociali. Ad ogni livello può essere assegnato un valore ordinale ma mai un valore
numerico.
Se i livelli della variabile possono essere, oltre che ordinati, anche numerati, cosicché
ciascun livello corrisponde ad un numero, e se l’intervallo tra un livello e quello adiacente è
costante, allora la variabile viene detta a intervalli equivalenti.
Poiché la scala numerica viene attribuita arbitrariamente ai livelli, anche il valore zero è un
valore arbitrario assegnato ad un livello e non è uno zero assoluto o naturale.
Quando ad avere diversità, ordine ed equivalenza dell’intervallo, nella scala la variabile che
contiene uno zero che indica vera l’assenza di quantità misurate, la variabile in questione è
detta a rapporti equivalenti.
Le variabili nominali e ordinali vengono dette qualitative, quelle a intervalli e a rapporti
quantitative o metriche. Una misurazione con una scala qualitativa produce una
classificazione o codifica, che con un minimo di elaborazione produce una frequenza,
perciò sono anche dette variabili di frequenza ed esprimono quanti eventi, quanti individui
o quanti oggetti sono presenti in ciascun livello della variabile. Una scala quantitativa
produce anche un punteggio che esprime spesso l’intensità di un fenomeno.
i. La matrice di dati:
La matrice di dati è uno strumento fondamentale per organizzare in maniera
sistematica i dati raccolti rispetto a ciascun soggetto e a ciascun caso. Solitamente i
soggetti vengono posti in riga e le variabili in colonna.
b. Il ruolo della variabile di ricerca:
in un esperimento i ricercatori sono, in gener3e interessati a due particolari variabili, le
variabili sperimentali. I criteri che stanno alla base della distinzione delle variabili sono
molteplici:
1- Il primo riguarda il loro livello di precisione nella misurazione, per cui vengono distinte in
variabili continue e discrete. Si dice continua quella variabile che all’interno del proprio
ambito di variazione può assumere i valori di tutti i numeri reali. Si dice discreta quella
variabile che può assumere solo un numero finito di valori, solitamente non frazionali,
all’interno del suo ambito di variazione o tra due dei suoi punti qualunque.
2- Il secondo criterio di suddivisione delle variabili è quello relativo al ruolo che hanno
all’interno dell’esperimento, che le distingue in variabili indipendenti/dipendenti,
all’interno delle indipendenti, in manipolate e non. Le variabili indipendenti sono degli
stimoli o degli eventi comportamentali che si sospetta causino dei cambiamenti su altri
eventi o comportamenti. Le variabili dipendenti sono le variazioni di determinati
comportamenti che si suppone dipendano dalle modifiche delle variabili indipendenti. Vi
sono due tipi di variabili indipendenti: manipolate e non manipolate. Le prime sono quelle
che lo sperimentatore controlla e modifica attivamente, le seconde quelle che in
ricercatore non può controllare a piacere e che spesso esistono in natura.
3- Il terzo criterio riguarda il ruolo che possono avere nel confondere una relazione tra una
variabile indipendente da una dipendente. Sulla base di questo criterio si possono
distinguere variabili confuse e variabili di disturbo.
L’effetto confondente può essere di due tipi: in un caso la variabile che confonde il legame
covaria con la variabile indipendente ma è intrinsecamente estranea. (Esempio: individuare
la differenza tra l’atteggiamento conservatore tra anziani di destra e adolescenti di sinistra
– l’età è a variabile di disturbo che covaria con quella indipendente dell’atteggiamento
politico). Nell’altro tipo di effetto la variabile che covaria con la variabile indipendente è
intrinseca alla variabile indipendente stessa o alla sua operazionalizzazione.
4- Il quarto criterio riguarda l’errore che si compie durante la misurazione e che le distingue
in variabili che inducono errori casuali e variabili che inducono errori sistematici.
5- Il quinto criterio riguarda la possibilità di osservare direttamente la variabile e distingue
le variabili in latenti e manifeste. Una variabile latente è una variabile che non può essere
osservata ma di cui si ipotizza l’esistenza per spiegare altre variabili che possono esser
osservate direttamente, le quali vengono dette manifeste.
4. Fase dell’analisi dei dati:
Per diventare comprensibili le osservazioni empiriche vengono in genere codificate in forma
numerica e disposte secondo un qualche ordine atto a permetterne l’elaborazione statistica. La
matrice di dati o la tabella di contingenza sono due di questi modi.
I metodi utilizzati per questo lavoro sono più o meno semplici, a seconda del tipo di scala con cui
sono state raccolte le informazioni, il numero delle variabili prese in esame, ecc. è importante
sottolineare che la correttezza del procedimento comporta la scelta delle procedure più
appropriate al problema di ricerca e ai dati a disposizione.
5. Fase dell’interpretazione:
Dopo aver analizzato statisticamente i dati, il compito del ricercatore è di interpretarli. Deve
verificare due cose:
a- se i risultati danno una risposta all’ipotesi di ricerca;
b- se tale risposta contribuisce ad approfondire la conoscenza del problema.
6. Fase della comunicazione:
Poiché la scienza è un fatto pubblico, i risultati raggiunti devono essere comunicati con i mezzi più
idonei. La divulgazione dei dati scientifici avviene attraverso tre canali: la comunicazione nei
convegni, gli articoli nelle riviste scientifiche e i libri.

Capitolo 3 – comunicazione, i principi ed esempi di ricerca


1. Come si legge e scrive una ricerca?
La pubblicazione scientifica appartiene a un genere letterario, proprio come altre forme di scrittura,
le cui forme sono di diversi tipi.
Sebbene la pubblicazione di ricerca abbia un linguaggio tecnico e specialistico, essa è coerente e
semplice, se rapportata al livello di difficoltà del problema, ed è caratterizzata dalla presenza di un
filo conduttore. Seguire questo filo conduttore nella lettura o nella scrittura di un rapporto di
ricerca è uno degli aspetti che rende attraente e piacevole la ricerca stessa.
- Box 3.1: La pubblicazione di una ricerca su una rivista internazionale è una delle maggiori
soddisfazioni per i ricercatori. Le riviste più importanti hanno un particolare sistema di valutazione,
basato sulle valutazioni dei referees, cioè degli esperti in un settore che valutano anonimamente
l’articolo per salvaguardare l’imparzialità della valutazione. La valutazione anonima è incrociata: i
referees non conoscono gli autori dell’articolo che stanno giudicando, e gli autori non conoscono
quale persona sta valutando il loro lavoro. Una volta che gli autori hanno inviato l’articolo secondo
le norme della rivista, esso viene ricevuto dal direttore della rivista, il quale individua l’area
specialistica dell’articolo e lo manda ad un esperto di questa area che fa parte della redazione, il co-
editor. Una volta valutato i requisiti minimi di correttezza e appropriatezza vengono identificati due
o tre esperti che possono valutare in modo adeguato ai quali l’articolo viene poi inviato in forma
anonima (referees). Essi classificano l’articolo in una categoria di giudizio che implica l’accettazione,
il rifiuto o altri livelli intermedi:
a. Accettazione con priorità: articolo accettato e pubblicato sul primo numero disponibile
scavalcando gli altri articoli accettati.
b. Accettazione: articolo accettato così com’è, viene pubblicato seguendo la coda degli articoli già
accettati.
c. Accettazione condizionata a modifiche lievi: articolo accettato solo se gli autori compiono
modifiche mirate su aspetti limitati dell’articolo.
d. Accettazione condizionata a correzioni sostanziali: articolo accettato ma solo se vengono fatte
dagli autori modifiche rilevanti come indicato dai referees.
e. Rifiuto con proposta di rinviare un’eventuale nuova versione agli stessi referees: Articolo
rifiutato. Ma se l’autore rivede l’articolo sulla base di quanto detto dal co-editor, può inviare la
nuova versione agli stessi referees.
f. Rifiuto con proposta di rinviare una nuova versione a referees diversi: Articolo rifiutato. Una
nuova versione verrà introdotta nel ciclo di analisi come se fosse un nuovo articolo.
La struttura di una pubblicazione di ricerca in una rivista scientifica è formata da sette parti:
1. Titolo, autori e istituzioni di appartenenza.
2. L’introduzione teorica, gli scopi e le ipotesi di ricerca.
3. Il metodo.
4. I risultati.
5. La discussione e le conclusioni.
6. La bibliografia.
7. L’abstract e le parole chiave.
a. Titolo, autori e istituzioni di appartenenza:
L’ordine degli autori indica solitamente l’importanza del contributo fornito da ciascun
autore.
b. Introduzione teorica:
solleva delle problematiche rilevanti a cui la ricerca vuole dare risposta. Esse possono
essere rilevanti da un punto di vista teorico o da uno sociale.
Viene proposta una breve rassegna di lettura per mostrare come altri autori a titolo diverso
abbiano contribuito all’argomento, quali sono stati i modelli o gli approcci teorici a quel
problema e i tentativi precedenti di soluzione.
Per questioni discusse da altri si può usare il rimando, una frase che rimanda la discussione
dettagliata di quel problema alla discussione fatta dagli autori.
Le questioni e le problematiche di carattere generale discusse sono poi trasformate in
specifiche ipotesi che sono formulate esplicitamente.
c. Il metodo:
Tale sezione è schematica e riporta le informazioni e le modalità con cui la ricerca è
condotta. Nelle pubblicazioni di ricerca in contesti scientifici, la descrizione del metodo è
divisa in sezioni come il disegno di ricerca e il tipo di analisi statistica, i soggetti, le misure o
gli strumenti di misura e le procedure.
Il disegno di ricerca indica il tipo di studio che si sta conducendo, quali variabili sono state
misurate, da quali e quanti livelli sono costituite ed eventualmente, che tipo di analisi
statistica è stata condotta, viene riportato anche il tipo di test statistico.
La sezione soggetti fornisce delle informazioni di base sul numero e le caratteristiche del
campione di soggetti che fanno parte dell’esperimento. (Per soggetti che hanno preso
parte alla ricerca di parla di partecipanti).
Nella sezione misure si descrivono tutte le variabili e le loro operazionalizzazioni. Al posto
di questa sezione si può trovare quella dedicata agli strumenti di misura dove vengono
indicati e descritti. Negli articoli psicologici questa parte è importante per valutare
l’attendibilità.
Le procedure descrivono dettagliatamente lo svolgimento dell’esperimento.
d. I risultati:
L’introduzione culmina con quesiti, domande o ipotesi di ricerca, il metodo descrive le
modalità con le quali si intende rispondere a questi interrogativi e nei risultati finalmente si
dà una risposta agli interrogativi iniziali. Lo stile linguistico dei risultati è fattuale e
descrittivo, non argomentativo.
e. La discussione e le conclusioni:
Nella discussione e conclusioni, il ricercatore mette in collegamento tutti i risultati che ha
ottenuto e ne trae un quadro composto e articolato. Lo stile è perciò è necessariamente
interpretativo. Tuttavia, spesso questo crea un equivoco, specie nei giovani ricercatori, e
cioè che in questa sezione si possano fare tutte le affermazioni, anche le più azzardate. Non
è così.
f. La bibliografia:
Questa sezione è la lista delle fonti da cui è tratta l’ispirazione anche concreta della ricerca.
Essa è un elemento di giudizio fondamentale nella comunicazione scientifica e accademica.
g. L’”abstract” e le parole chiave:
L’abstract è un riassunto brevissimo del contributo strutturato in maniera tale che in esso
siano presenti gli scopi del contributo, il metodo utilizzato, i principali risultati e un abbozzo
di conclusione.
Infine le parole chiave sono di solito due o tre parole indicative del contributo ed associate
ad esso così da permettere a colui che sta eseguendo una ricerca in un certo ambito di
individuare tutti quei contributi che hanno a che fare da vicino con quelle parole.
h. Consigli per una buona tesi di laurea:
Il lavoro di compilazione della tesi ha origine con l’individuazione di un tema da sviluppare.
Una possibile fonte di ispirazione per l’oggetto di studio della tesi sono i docenti e i relatori.
Per l’assegnazione della tesi ci sono anche altri elementi di giudizio importanti per il
docente, la media dei voti agli esami, il voto riportato nella propria materia, l’impressione
che lo studente fornisce al docente durante il colloquio.
la riforma universitaria ha reso più snella la procedura relativa all’esecuzione e
compilazione della tesi di laurea triennale.
Lo stile di scrittura della tesi in psicologia deve essere chiaro, semplice e lineare, evitare
prolissità e termini pomposi e retorici. Il periodo deve essere breve, evitando digressioni e
contorni.
Quasi sempre ai laureandi viene richiesto di leggere la letteratura in inglese poiché essa è la
lingua più diffusa per la comunicazione scientifica. Spesso quella in psicologia è un
elaborato scientifico. Deve rispettare determinate regole metodologiche e portare luce su
un problema, pertanto deve essere dotata delle seguenti caratteristiche:
a. Avere un tema di studio facilmente riconoscibile;
b. contribuire a fare progredire scientificamente un filone di ricerca;
c. Fornire gli elementi che consentono di verificare o falsificare le ipotesi;
Una tesi di laure si articola di solito in tre parti:
1. La parte compilativa in cui si illustra in forma critica tutto ciò che è stato detto
sull’argomento;
2. La parte relativa al metodo e ai risultati, in cui si descrivono le ipotesi di ricerca, tutti gli
aspetti del metodo ed infine i risultati ottenuti;
3. La parte delle conclusioni;
2. Etica e ricerca:
Il lavoro scientifico in campo psicologico comporta che gli studiosi conducano i loro esperimenti
sugli esseri viventi.
la riflessione sui principi etici della ricerca su oggetti umani può essere distinta in tre fasi: una fase
iniziale di presa di coscienza dei problemi, una fase di successiva elaborazione di un codice etico, e
infine una fase in cui da un lato i codici etici si diffondono e si stabiliscono in diverse nazioni e
dall’altro si giunge ad una diversa consapevolezza dei problemi etici sulla spinta della diffusione di
malattie gravi. Dopo la seconda guerra mondiale, fu formulato il codice di Norimberga, contenente
le regole delle ricerche biomediche dovevano seguire per rispettare e tutelare i soggetti umani.
Sebbene la ricerca psicologica non si sia trovata ad affrontare problemi cruciali come quella
biomedica, si avvertì l’esigenza di regolamentare in qualche modo l’ambito di azione dello
psicologo. Nel 1952 si giunse all’approvazione del primo codice etico degli psicologi americani, che
fu pubblicato nel 1953.
Nel 1998 l’ordine professionale degli psicologi (nato nel ’93), emanava il codice deontologico degli
psicologi italiani. Nel corso degli anni 90 si è verificata una nuova presa di coscienza a livello
internazionale, spinta questa volta da gruppi più o meno organizzati di pazienti. Questo consenso è
nato tra i malati di AIDS.
a. Il codice dell’AIP:
Gli aspetti etici della ricerca sono regolamentati dal codice della ricerca e
dell’insegnamento in psicologia dell’AIP, che rimanda a quello dell’Ordine per altri ambiti. Il
codice etico dell’AIP è articolato in tre aree fondamentali, quella dei principi etici, quella
delle norme etiche e quella delle modalità e degli organismi di controllo per il rispetto del
codice etico.
I principi generali:
1. Competenza dello psicologo ricercatore;
2. Integrità;
3. Responsabilità sociale;
Le norme etiche riguardano:
a. Il consenso informativo e la libertà della persona di ritirarsi dalla ricerca;
b. L’uso dell’inganno;
c. Il rischio di danni permanenti e temporanei;
d. Riservatezza;
e. La protezione di coloro che partecipano alla ricerca;
f. Il trattamento degli animali;
g. La diffusione delle ricerche in sedi scientifiche;
h. La divulgazione attraverso i media;
i. L’uso dei risultati di ricerca e l’insegnamento della psicologia.
La terza parte del codice si preoccupa di cosa fare quando il codice non sia rispettato e di
come prevenire eventuali violazioni.
In tempi recenti è stato istituito anche il codice etico dell’istituto di psicologia del consiglio
nazionale di ricerca che prende con alcune modifiche dell’AIP. Importante è anche
l’istituzione del codice deontologico dell’associazione italiana di sociologia.
b. Principali problemi etici della ricerca su animali:
Il problema del trattamento umano degli animali è altrettanto importante quanto quello
dei soggetti umani.
Recentemente è andato aumentando l’interesse per ridurre od eliminare l’uso degli animali
vivi per scopi di ricerca. Da una parte si sostiene che la ricerca animale non sia necessaria a
dare informazioni significative. Dall’altra si afferma che la ricerca animale non solo ha
contribuito a sviluppi delle conoscenze, ma ha anche permesso di migliorare gli interventi
terapeutici sugli uomini.
Il trattamento umano ed etico degli animali nelle ricerche è doveroso, e pochi ricercatori
potrebbero negarne l’importanza. Dall’altra parte, la ricerca sugli animali ha contribuito
enormemente a migliorare la conoscenza della natura. Come per tutte le ricerche, i costi in
termini di rischi per i soggetti devono essere bilanciati dai possibili benefici per la società.
3. Due esempi di ricerca:
a. La ricerca di Zimbardo sulla “falsa” prigione di Stanford:
Ideato nel 1971.
i. Risultati:
I principali risultati dell’esperimento di Zimbardo sono riassumibili nei seguenti
punti:
1. Asimmetrie nel comportamento reciproco: i comportamenti messi in atto dalle
guardie e dai prigionieri nelle interazioni erano completamente diversi. Le guardie
davano comandi, insultavano, minacciavano, aggredivano fisicamente e
verbalmente. I prigionieri resistevano, rispondevano quando erano interrogati e
facevano domande.
2. Escalation della aggressività delle guardie: al passare dei giorni il
comportamento delle guardie diveniva sempre più aggressivo.
3. Tendenza negativa dell’affettività dei prigionieri: col passare dei giorni i
prigionieri manifestavano in modo crescente un umore negativo, depresso e
l’intenzione di fare del male e sentimenti di angoscia. Cinque di loro vennero
rilasciati perché incapace di regge oltre tali sentimenti.
4. Nessuna differenza tra guardie e ladri in merito a variabili disposizionali: le
misure di personalità prese sui soggetti prima dell’esperimento non
differenziavano i futuri gruppi di guardie e prigionieri, né le guardie più efferate da
quelle più indulgenti.
5. Presenza nei discorsi dei prigionieri di preoccupazioni legate a condizioni
presenti: il 90% delle conversazioni private tra prigionieri era dedicato alle
immediate condizioni di detenzione, come cibo, punizioni, privilegi, molestie.
6. Prevalere dell’identità di prigioniero su quella di soggetto sperimentale: alcuni
prigionieri non erano più in grado di distinguere la loro identità di soggetti di un
esperimento da quella di prigionieri.
7. Prevalere degli aspetti situazionali su quelli disposizionali, del ruolo dell’individuo:
gli elementi patologici emersi nei due gruppi nella situazione carceraria, l’abuso di
potere delle guardie e l’impotenza appresa dei prigionieri mostrava chiaramente
che persone nella vita quotidiana normali e sane, se messe in un contesto diverso,
in pochi giorni divenivano alienati, psicopatici e sadici.
b. Lo studio di Darley e Batson sul comportamento altruistico in situazioni di
bisogno:
Hanno condotto uno studio semplice e ingegnoso nel 1973 analizzando il comportamento
delle persone in condizioni in cui la situazione richiede il loro intervento d’aiuto ad una
persona in evidente stato di difficoltà.
i. Le ipotesi che guidano l’esperimento:
- Ipotesi disposizionale: se una persona ha un vero sentimento religioso è probabile
che mostri un comportamento di aiuto nei confronti di qualcuno in stato di
bisogno.
- Ipotesi situazionale: secondo la teoria della salienza, una persona immersa in
pensieri religiosi etici o altruistici ha una probabilità di offrire aiuto più alta rispetto
a qualcuno preso da altri pensieri. Gli autori non concordano in quanto la parabola
raccontata non conferma questa cosa dato che il religioso e il levita hanno pensieri
religiosi mentre il samaritano ha pensieri più terreni.
- Ipotesi situazionale: essa scaturisce dalle osservazioni sulla seconda ipotesi,
è probabile che il sacerdote e il levita avessero fretta per adempiere ai loro
doveri di carica religiosa mentre il samaritano, in quanto cittadino normale,
non avesse altri impegni.
ii. Metodo:
- Soggetti: furono presi in esame 67 soggetti del seminario teologico di Princeton,
47 vennero raggiunti per telefono e 7 di questi rifiutati. Ogni soggetto venne
pagato 1$ per la situazione del questionario e 1,50$ per la fase sperimentale.
- Procedure: vennero effettuate due prove, una collettiva dove venne
somministrato un questionario sulla attitudine religiosa. Risultati in basso livello di
religiosità e alto livello di religiosità. La seconda sessione era invece individuale,
divisa in tre fasi attraverso le quali venivano manipolate le altre due variabili
indipendenti. Nella seconda sessione il soggetto si imbatteva “per caso” in
situazioni in cui poteva fornire il proprio aiuto, qui veniva registrata la variabile
indipendente sul suo comportamento. L’ultima sessione va scomposta in tre fasi:
1. Nel primo edificio ai soggetti veniva chiesto di approfondire con un
colloquio le informazioni ricevute nella sessione collettiva con i questionari
e poi gli veniva chiesto di recarsi in un altro edificio a fare una piccola
conferenza di pochi minuti per spiegare la sua opinione. Viene letto un
brano per indurlo ad avere pensieri altruistici. Viene poi manipolato il
soggetto con altre variabili quali il ritardo, l’attesa e la fretta.
2. Il soggetto viene lasciato andare alla conferenza e inizia a la seconda fase in
cui si imbatte nella persona bisognosa di aiuto. Qui viene registrata la
variabile indipendente, cioè la sua reazione all’evento.
3. Una volta che il soggetto raggiungeva l’altro edificio e relazionato il suo
argomento, gli veniva somministrato un questionario sul comportamento
altruistico, che fungeva da manipulation check (questionario con tre
domande chiave sulla situazione di bisogno), infine avveniva il debriefing (il
soggetto viene informato sulla vera natura dello studio e sulla situazione
ingannevole in cui è posto e che gli era fatto credere. Nessun risentimento)
Capitolo 4 – la raccolta dei dati
1. I test psicologici:
Col termine test si indica una tipologia di strumenti psicologici. Lo scopo del test psicologico è avere
una valutazione obiettiva di un soggetto che permetta di prevedere il comportamento in situazioni
analoghe.
Un test o reattivo psicologico, è una procedura attraverso cui si pone il soggetto in una situazione
standardizzata nella quale gli si forniscono una serie di stimoli e item in grado di elicitare delle
risposte. Gli aspetti definitori del test riguardano:
a) Le condizioni di somministrazione standardizzate;
b) Gli stimoli standardizzati;
c) Il campione del comportamento del soggetto;
d) Le modalità predefinite di quantificazione o misurazione delle risposte intese come indicatori di
un costrutto.
La standardizzazione del contesto e delle risposte si riferisce all’uniformità delle procedure durante
la somministrazione degli stimoli e nella determinazione del punteggio per tutti i soggetti.
È inoltre importante sottolineare che le risposte dei soggetti agli stimoli sono considerate un
campione di comportamenti.
Anche le procedure di attribuzione dei punteggi o di classificazione delle risposte dei soggetti
devono rispettare una serie di regole relative alle definizioni concettuali e operative dei costrutti
che stiamo misurando.
I test psicologici sono considerati oggi degli strumenti indispensabili e insostituibili che permettono
con rapidità di ottenere informazioni che contribuiscono a prendere decisioni importanti in molti
contesti.
Colui che utilizza tali strumenti di misura deve essere cosciente delle implicazioni etiche e
deontologiche, degli aspetto sociali e culturali, di quelli tecnici e procedurali e integrare l’uso del
test con altre fonti di informazione attendibile.
va infine notato che la rapida crescita tecnologica ha incoraggiato l’uso di computer nella
somministrazione dei test.
Esiste un numero sorprendentemente elevato di test psicologici atti a misurare i più disparati
costrutti o capacità umane, il che a volte rende complicata la stessa classificazione dei test.
Sulla base dell’aspetto psicologico indagato, essi possono essere distinti in test cognitivi o di
massima performance, che misurano aspetti legati alle capacità del soggetto, quali l’intelligenza,
l’attitudine, e i test non cognitivi o di performance tipica, che rilevano le preferenze del soggetto o i
suoi comportamenti abituali, quali aspetti di personalità e atteggiamenti.
I test di intelligenza cercano di misurare questa capacità per quanto difficile possa essere arrivare a
definire l’intelligenza, i test attitudinali cercano di individuare le aree del soggetto che hanno
maggiori capacità di essere sviluppate, e i test di profitto permettono di valutare il livello di
conoscenza, capacità o competenza di un individuo. I test di personalità tradizionalmente si basano
sull’intervista, sulle griglie di repertorio, sui questionari o inventari di personalità e sui test
proiettivi. Gli inventari sono costituiti da un insieme di item che riportano affermazioni riguardanti
la propria personalità a cui il soggetto deve rispondere graduando la sua risposta su una scala di
risposta dicotomica o più ampia. I test proiettivi consistono nel somministrare al soggetto una serie
di stimoli, ambigui o non completamente definiti, che devono essere descritti dal soggetto con
l’assunto di base che la descrizione di questi stimoli rifletta aspetti affettivi e nascosti della
personalità. Le scale di misura degli atteggiamenti, sono un insieme di affermazioni o item che
riguardano l’atteggiamento del soggetto verso un oggetto o una opinione.
2. I metodi osservativi:
Essi permettono di osservare, registrare, descrivere, trascrivere e codificare il comportamento
umano o l’interazione sociale che si realizza tra le persone sia in condizioni di standardizzazione sia
in condizioni naturali.
Il mezzo principale attraverso cui viene realizzata la rilevazione dei dati è l’osservatore.
L’osservazione può essere messa in atto nel momento in cui si realizza il comportamento rilevato
oppure in un momento diverso grazie ai sistemi di audio o videoregistrazione. I vantaggi dei metodi
osservativi sono legati alla possibilità di campionare comportamenti spontanei dei soggetti.
L’osservazione del comportamento che si realizza in psicologia viene distinta dall’osservazione
ingenua che ognuno di noi realizza nella vita quotidiana. L’osservazione può poi essere realizzata
con un approccio quantitativo o qualitativo a seconda della posizione epistemologica del
ricercatore che confidi o no nella possibilità di misurare, quantificare e formalizzare in modelli, il
comportamento umano. Nel primo caso il prodotto dell’osservazione viene espresso in “prosa”, nel
secondo in “numeri” dotati di significato. Sono moltissimi gli approcci che si collocano all’interno
dell’osservazione qualitativa. All’interno dell’approccio quantitativo, invece, si è soliti distinguere
tra due tipi di osservazione, la codifica e l’osservazione valutativa.
Con la codifica o osservazione sistematica, l’osservatore associa determinate categorie
comportamentali nominali e ordinali al ricorrere di determinati eventi comportamentali e produce
perciò delle frequenze.
Tramite l’osservazione valutativa o metrica, l’osservatore associa determinate categorie numeriche
al comportamento degli individui e produce perciò punteggi che esprimono l’intensità di un
fenomeno.
L’osservazione sistemica si definisce perciò come una forma di osservazione pubblica e replicabile
che utilizza determinati schemi di categorie comportamentali, qualitative e prefissate.
L’osservatore associa ai comportamenti o agli eventi interattivi sulla base di alcune regole di
corrispondenza.
Invece l’osservazione sistemica, assieme al rating, forma l’osservazione quantitativa che va
contrapposta a quella qualitativa.
Una volta che è stato elaborato uno strumento di misura osservativo, è necessario predisporlo per
mettere l’osservatore in condizioni di utilizzarlo al meglio.
3. L’analisi del contenuto:
I metodi di raccolta di analisi del contenuto condividono molti aspetti rilevanti con i metodi
osservativi in quanto si basano sulla codifica. L’analisi del contenuto è un approccio quantitativo
che si applica principalmente a materiale verbale ma anche a materiale non verbale. Si distingue
dall’analisi narrativa che è un approccio che si occupa esclusivamente di materiale verbale basato
principalmente su storie o racconti di esperienze personali. L’analisi del contenuto viene definita
come una tecnica che serve a estrarre le informazioni desiderate da un corpus materiale,
identificandone sistematicamente e oggettivamente determinate caratteristiche. Il termine
contenuto che la identifica è in realtà improprio in quanto essa si applica oltre che al contenuto,
alla forma, alla funzione o alla sequenza dei comportamenti.
L’attività di codifica, che comprende la classificazione dei rating, viene seguita secondo regole
precise da codificatori chiamati anche giudici o valutatori che utilizzano un sistema di codifica. Essi
sono veri e propri strumenti di misura, descritti nei manuali di codifica con riferimento:
a) Alla definizione delle unità del materiale che deve essere analizzato;
b) Alle categorie e alle dimensioni di classificazione;
c) alle regole per l’applicazione del sistema;
Le unità sono di tre tipi:
1. Unità di testo: si riferisce al corpus di materiale più ampio, soggetto all’analisi all’interno di uno
studio.
2. Unità di codifica: si riferisce a quella parte dell’unità di testo a cui si applicano le categorie o le
dimensioni del sistema di codifica.
3. Unità di contesto: si riferisce ad un corpo di materiale più grande dell’unità di codifica che può
essere prso in considerazione per prendere una decisione di codifica.
4. L’intervista:
essa è una tecnica di raccolta dei dati psicologici costituita da un’interazione verbale del soggetto.
Si distingue di solito in intervista non strutturata, strutturata e semistrutturata.
- Intervista non strutturata: quando il ricercatore non ha predeterminato ciò che dell’intervista
deve essere codificato.
- Intervista strutturata: il ricercatore pone una serie di domande predisposte sia nel contenuto sia
nell’ordine in maniera tale che la stessa forma viene ripetuta in modo pressoché identico per
ciascun soggetto.
- Intervista semistrutturata: la forma generale dell’intervista si ripete, ciò che può variare sono le
domande, nel senso che il ricercatore ha la flessibilità di continuare a richiedere e a confermare le
informazioni che si prefigge di ottenere e seguire il flusso della conversazione lasciando
l’intervistato libero.
esse viaggiano su un continuum che vanno dalla minima alla massima strutturazione della
domanda.
5. Il questionario:
esso è uno strumento di raccolta dei dati che consiste in una serie di domande relative a
informazione oggettiva e a questioni riguardanti personalità, atteggiamenti e opinioni. Possono
essere composti da domande aperte o chiuse in cui il rispondente deve scegliere una risposta tra un
set di alternative.
Quando si utilizzano domande chiuse è necessario fare una serie di scelte nella struttura del
questionario e delle domande.
Sebbene spesso i ricercatori abbiano adottato il rating, è dimostrato che il ranking è più efficace del
rating in termini di discriminazione delle risposte, di attendibilità e validità dei dati. Tuttavia il
ranking diventa complicato quando è necessario comparare tra più di due oggetti ed inoltre
restringe il campo di applicazione delle tecniche statistiche.
Le domande chiuse vengono dette dicotomiche quando prevedono due possibili risposte,
tricotomiche quando ne prevedono tre, a 5 punti o passi se le possibilità sono cinque. Uno dei
problemi è scegliere il numero di punti adeguato della scala di risposta. Per le scale bipolari
(variano da positivo a negativo) la scala migliore è quella a 7 punti, per le scale unipolari (per niente
o completamente) la scala migliore è a 5 punti.
6. Le misure fisiologiche:
Uno dei modi per raccogliere dati in psicologia è utilizzare degli indici fisiologici. Le tecniche
fisiologiche di raccolta dati si basano su due tipi di tecnologie, quella asciutta e quella umida. La
prima è la tecnologia della registrazione elettrofisiologica, la seconda riguarda la registrazione dei
livelli biochimici presenti nel corpo.
La logica su cui si basano queste tecnologie per la registrazione dei dati psicologici è che una serie
di processi fisiologici producono segnali sulla superficie del corpo, segnali che possono essere
elettrici o no.
Questi segnali possono essere catturati e immagazzinati attraverso quattro tappe:
1) percezione;
2) trasduzione;
3) condizionamento;
4) registrazione;
7. Gli strumenti della neuropsicologia e delle neuroscienze:
In ambito neuropsicologico e nelle neuroscienze si utilizzano molti metodi che permettono di
raccogliere dati psicologici.
La neuropsicologia scientifica è nata con lo studio di pazienti cerebrolesi intorno alla metà del XX
secolo.
Lo studio della specializzazione emisferica, cioè della specializzazione delle funzioni cognitive degli
emisferi destro e sinistro si basa sul fatto che l’informazione raccolta dai nostri sistemi percettivi
viene trasferita normalmente all’emisfero controlaterale e solo successivamente raggiunge
l’emisfero ipsilaterale.
L’elettroencefalogramma è una tecnica elettrofisiologica con la quale l’attività elettrica cerebrale o
il livello di attivazione cerebrale viene rilevato mediante degli elettrodi posti sul cranio e poi
registrato un tracciato.
Le tecniche di visualizzazione del cranio si distinguono in indirette, come la radiografia del cranio o
l’angiografia, o dirette perché permettono un’immagine diretta della morfologia dell’encefalo. La
tomografia assiale computerizzata (TAC) è una tecnica radiologica che sfrutta il fatto che i diversi
tessuti cerebrali assorbono diversamente i raggi X. Per cui dopo aver emesso fasci di raggi X sul
sistema nervoso viene registrata l’attività di assorbimento dei raggi stessi sulla regione interessata.
Nella tomografia a emissioni di positroni (PET) al soggetto viene somministrata una sostanza
radioattiva, che penetra nel sistema nervoso e si concentra sulle aree cerebrali in cui si registra
attività metabolica. Solitamente il soggetto viene impegnato in un’attività o in un compito che
attiva il metabolismo delle aree interessate. I raggi gamma rilasciati finalmente dalla sostanza in
queste aree sono poi registrati da una camera rotante intorno alla testa del paziente.
La tecnica della risonanza magnetica funzionale (RM) è un’applicazione della tecnica della risonanza
magnetica al sistema nervoso. Questa tecnica si basa sul fatto che i nuclei degli atomi, se posti
all’interno di un campo magnetico e stimolati da onde radio, emettono parte dell’energia assorbita.
Questa tecnica è la meno nociva in quanto non sottopone il paziente a esposizione a raggi X o a
sostanze radioattive.
8. Lo scaling:
Le scale di misura degli atteggiamenti attribuiscono un punteggio finale complessivo ad un aspetto
della psicologia del soggetto.
L’assunto è che sia possibile scalare l’atteggiamento del soggetto.
Scaling si riferisce a un insieme di procedure con le quali è possibile assegnare dei numeri a un
insieme di affermazioni riferite proprio all’atteggiamento.
esso viene definito da Stevens come l’assegnazione oggetti a numeri in base a regole. Lo scaling
unidimensionale permette di assegnare un singolo punteggio che rappresenta l’atteggiamento
generale del soggetto, a un insieme di risposte fornite dal soggetto stesso. Quello
multidimensionale permette di valutare l’atteggiamento del soggetto sulla base di più aspetti
qualora questo sia appropriato teoricamente.
a. Lo scaling unidimensionale:
i. La scala di Thurnstone:
Per procedere alla costruzione di tale scala è necessario passare per alcune fasi:
a) formulare e/o invitare una serie di persone a formulare affermazioni riguardanti
l’oggetto dell’atteggiamento.
b) far valutare ad un gruppo di giudici su una scala di undici passi quanto
quell’affermazione indica in generale un atteggiamento favorevole o sfavorevole
verso l’oggetto;
c) calcolare valori di scala di ciascun item utilizzando la mediana e la differenza
interquantificata, la media e la deviazione standard di ciascun item;
d) selezionare gli item per la scala finale individuando un item per ciascun valore di
scala.
A questo punto si può somministrare la scala finale ad un campione di soggetti che
devono semplicemente rispondere a quali item sono d’accordo. Il punteggio di ogni
soggetto è la media dei valori scalati di ciascun item per cui ha espresso accordo.
ii. La scala di Guttman:
Un altro modo di costruire una scala di atteggiamento è lo scaling cumulativo o
scalogramma di Guttman, raccoglie un insieme di item ordinati in modo tale che se
un soggetto è d’accordo con uno di essi allora necessariamente deve andare
d’accordo con le affermazioni precedenti.
La procedura per costruire uno scalogramma è la seguente:
a) formulare e/o invitare una serie di persone a formulare affermazioni riguardanti
l’oggetto dell’atteggiamento.
b) far valutare ad un gruppo di giudici se ciascun item esprime una affermazione
favorevole o sfavorevole all’atteggiamento.
c) costruire una matrice di dati con i giudici in riga, gli item in colonna e le loro
risposte in ogni cella, ordinando i giudici in modo tale che quelli che hanno
espresso più accordi vengono messi per primi e quelli che esprimono più disaccordi
per ultimi e ordinando i giudici che hanno lo stesso accordo, le affermazioni da
sinistra a destra in modo tale da esprimere da maggiore a minore accordo.
d) attraverso un’analisi cosiddetta di scalogramma vengono individuati gli item che
mostrano di possedere la proprietà della cumulatività, i quali vengono selezionati
per la scala finale.
e) somministrare la scala con gli item randomizzati in modo che i soggetti non
riconoscano l’ordine cumulativo delle domande chiedendo a ciascun soggetto solo
se è o non è d’accordo con gli item.
Il punteggio finale è ottenuto dalla somma finale dei valori di scala di ciascun item
con cui il soggetto è d’accordo.
iii. La scala Likert:
La scala Likert è di fatto la scala più utilizzata in psicologia. Si tratta di una serie di
item in cui il rispondente deve dichiararsi d’accordo o in disaccordo, solitamente su
una scala che va da 5 a 7.
Ci sono diverse procedure suggerite per costruire una scala Likert. Una di queste
indica le seguenti tappe:
a) generare o far generare gli item che devono essere costruiti in modo che i
rispondenti possano esprimersi sulla base dell’accordo o del disaccordo verso il
contenuto dell’item.
b) sottoporre gli item a un gruppo di giudici che valuti quanto il giudice considera
pertinente quell’item rispetto al costrutto.
c) selezionare gli item sulla base di tecniche differenti, come eliminare gli item che
non corrispondono con il punteggio totale di tutti gli item e gli item che non
discriminano significativamente tra giudici che hanno dato un punteggio alto e
quelli con un punteggio basso allo stesso item.
Somministrare la scala di atteggiamento finale a soggetti normali con una scala
disposta da 5 a 7 passi che vanno dal massimo disaccordo al massimo accordo. Per
ciascun soggetto si calcola un punteggio finale che nasce dalla somma di tutte le
risposte dei soggetti o della media ottenuta dividendo per il numero di item.
b. Lo scaling multidimensionale:
Lo scopo dello scaling multidimensionale è quello di prendere e codificare concetti
bidimensionali come ad esempio l’intelligenza.
Il differenziale semantico è una nota scala psicologica secondo la quale il significato di un
termine o un concetto può essere spiegato da tre dimensioni bipolari. L’intento degli autori
era individuare un modo per misurare il significato affettivo di un concetto astratto o di un
determinato stimolo. Le tre dimensioni che spiegano la percezione dei soggetti nei
confronti dell’oggetto sono l’attività, secondo un continuum passivo-attivo che comprende
coppie di aggettivi quali “attivo-passivo”, “eccitabile-calmo”, “caldo-freddo”, ecc. La
valutazione secondo un continuum positivo-negativo che comprende coppie di aggettivi
quali “buono-cattivo”, “favorevole-sfavorevole”, “tempestivo-intempestivo”, la potenza,
secondo un continuum di potenza-impotenza che comprende coppie di aggettivi quali
“duro-soffice”, “pesante-leggero”, “forte-debole”, ecc. Ogni scala di risposta è formata
quindi da una coppia di aggettivi di significato opposto presentata con una scala
solitamente di 7 passi.

Capitolo 5 – validità della ricerca


Il termine validità indica la solidità e l’attendibilità di un’indagine, ossia una vera corrispondenza tra mondo
reale e conclusioni di una ricerca. Una nota definizione di Cook e Campbell si riferisce alla validità come alla
migliore approssimazione disponibile della verità o della falsità di proporzioni. I ricercatori si sono
preoccupati di controllare tutti gli elementi che possono nuocere alla corrispondenza tra mondo reale e
conclusioni. Hanno dovuto affrontare il problema della validità, distinguendone i vari aspetti.
Il primo di questi riguarda l’esistenza o meno di una relazione causale tra variabile indipendente e quella
dipendente nelle condizioni e sui soggetti realmente studiati. Il secondo tende a verificare se la relazione
riscontrata tra le suddette variabili vale anche per persone diverse da quelle esaminate, per altre situazioni,
altri luoghi e altri tempi. Il terzo mira ad assicurare che la ricerca effettivamente misuri quello che il
ricercatore si è proposto di misurare. Il quarto aspetto di validità controlla se i risultati della ricerca sono
dovuti alla manipolazione della variabile indipendente oppure a variazioni casuali. Il quinto si riferisce alle
possibilità o meno di generalizzare i risultati ottenuti in laboratorio alla vita vissuta in un ambiente naturale.
Questi vari aspetti della validità hanno tutti un proprio nome. Validità interna, esterna, di costrutto,
statistica ed ecologica.
1. Validità interna:
a. Concetto di validità interna:
Si ha validità interna quando la reazione tra due variabili è di tipo causale. Cioè quando si
può provare che le modifiche della variabile indipendente causano quelle della variabile
dipendente e non dipendono da altre variabili.
Tale relazione, per essere causale, deve avere due requisiti: una determinata direzione e
l’esclusione di fattori di confusione.
Il tipo di direzione dà la certezza che la manipolazione della variabile indipendente è causa
dei cambiamenti di quella dipendente. Se la manipolazione della variabile indipendente
precede il cambiamento di quella dipendente, allora si può ragionevolmente supporre che
la prima influisce sulla seconda.
L’esclusione di fattori di confusione, invece, comporta il controllo di tutte le variabili
potenzialmente in grado di influenzare la relazione causale. Il compito del ricercatore
consiste nell’eliminare tutte le possibili minacce alla validità.
b. Minacce alla validità interna:
Vari fattori possono minacciare la validità interna di un esperimento:
- Variabile di disturbo: indica la storia attuale, i processi di maturazione, l’effetto delle
prove, la strumentazione, l’effetto della regressione statistica, la selezione, la mortalità,
l’interazione tra selezione e storia, selezione e maturazione.
a) Storia attuale: ogni evento che durante un esperimento, produce un effetto che si
sovrappone a quello della variabile indipendente.
b) Processi di maturazione: fanno parte di questa categoria quei cambiamenti sistematici, di
ordine biologico e psicologico, che avvengono col trascorrere del tempo. L’età, la fame, la
coordinazione, la fatica, l’acquisizione di nuove conoscenze, la noia, la stanchezza, la
motivazione e l’interesse.
c)Effetto delle prove: l’aver partecipato a precedenti esperimenti può influire sulle
successive prestazioni, a causa dell’apprendimento e della pratica.
d) Strumentazione: la fluttuazione degli strumenti psicologici è maggiore che nelle altre
scienze, non solo per la loro natura ma anche per la loro diretta dipendenza dal ricercatore.
Questi può influire sulla affidabilità delle misurazioni mediante numerose variabili:
aumento di esperienza, stanchezza, disattenzione.
e) Effetto della regressione statistica: una legge statistica prevede che nelle prove ripetute
sugli stessi oggetti e sulla stessa variabile, i punteggi estremi tendono a regredire verso la
media.
f) Selezione: in un disegno ben condotto, il gruppo sperimentale e quello di controllo
devono essere equivalenti rispetto a tutte le variabili. Ma numerosi fattori possono
minacciare l’equivalenza iniziale dei gruppi, come il livello di intelligenza, la motivazione, le
reazioni individuali alla situazione di prova, le caratteristiche di personalità, le precedenti
esperienze, la velocità di apprendimento.
g) Mortalità – abbandono o perdita differenziale dei soggetti: nell’attività di ricerca capita
spesso che, dopo il pre-test, da uno dei gruppi si ritirino dei soggetti, tale perdita può
influeire sui risultati della ricerca.
h) Interazione tra selezione e storia, selezione e maturazione, ecc.: le minacce alla validità
non agiscono in maniera indipendente. Producono effetti nuovi, diversi da quelli che
provocano da sole.
c. Metodi per ridurre le minacce alla validità interna:
Per fronteggiare le minacce alla validità interna sono stati proposti numerosi metodi:
1) Bilanciamento: riduce la differenza tra i gruppi e viene ottenuto in tre modi:
randomizzazione, pareggiamento, uso di blocchi.
2) Effetti della storia: in genere si utilizzano i seguenti metodi:
a) controllo della costanza;
b) Casualizzazione delle situazioni sperimentali;
c) Una sessione e stessa situazione;
d) Abbreviazione dell’intervallo di tempo fra le prove;
3) Maturazione: neutralizzata mediante misurazioni ripetute ad intervalli costanti;
4) Effetti delle prove: eliminati utilizzando i seguenti procedimenti:
a) Eliminazione del pre-test;
b) Far passare il pre-test come un evento ordinario della vita dei gruppi;
c) Utilizzare il disegno di Solomon in cui la principale attività è quella di controllare gli
effetti del pre-test;
5) Strumentazione: viene evitata mantenendo quanto più possibile costanti tutte le variabili
della sperimentazione;
6)Regressione statistica: sono neutralizzati estraendo a caso, dalla stessa popolazione
estrema, un gruppo di controllo che, non essendo sottoposto a trattamento, offre il punto
di paragone per valutare i cambiamenti dovuti alla regressione.
7)Mortalità: un metodo consiste nel effettuare le prove in tempi molto ravvicinati. Non vi
sono metodi adeguatamente efficaci.
2. Validità esterna:
Essa riguarda la legittima applicabilità dei risultati sia a soggetti diversi da quelli sperimentali, sia a
situazioni, tempi, luoghi differenti da quelli determinati durante la ricerca.
Alcuni autori suddividono la validità esterna in tre tipi: validità di popolazione, temporale,
ecologica.
La forma più semplice per ottenere la validità esterna consiste nel ripetere la ricerca stessa,
modificando una o più variabili dei soggetti e/o esperimento. La validazione empirica dei risultati
mediante ripetizione sistematica, tuttavia, richiede un notevole e lungo sforzo.
Gli studiosi cercano di raggiungere i requisiti della validità esterna mediante la rappresentatività dei
soggetti sperimentali. Si tratta della validità di popolazione e la validità temporale, ossia la
ripetizione esatta dell’esperimento a distanza di tempo.
- Validità di popolazione: si intende la capacità di generalizzare i dati del campione alla popolazione.
Le regole del campionamento probabilistico permettono di ottenerla.
- Validità temporale: è comune tra i ricercatori l’assunzione che i risultati di una ricerca rimangano
stabili nel tempo, cioè mantengano la loro validità anche in altri momenti.
a. Minacce alla validità esterna:
Le minacce alla validità esterna possono provenire in particolare dai limiti della validità di
popolazione e di quella temporale.
- Minacce alla validità di popolazione: la difficoltà di reperire i soggetti della ricerca ha
indotto i ricercatori a ricorrere prevalentemente ad alcune categorie di soggetti: topi albini,
studenti di psicologia, pazienti, alunni delle scuole, volontari.
- Minacce alla validità temporale: le principali minacce alla validità temporale possono
provenire dalle variazioni stagionali, da quelle cicliche e da quelle personologiche.
1) Variazioni stagionali: si indicano quei cambiamenti che avvengono nella popolazione ad
intervalli regolari.
2) Variazione ciclica: dipende dall’organismo dei soggetti. Tutti gli organismi sono soggetti a
variazione ciclica che possono interagire con le condizioni del trattamento sperimentale.
Negli esseri umani, le principali variazioni cicliche dipendono dal ritmo cardiaco, dalla
temperatura, dalle funzioni endocrine, dai ritmi circadiani.
3) Variazione personologica: questa variazione si riferisce al cambiamento delle
caratteristiche degli individui nel tempo. Benché si assume che tali caratteristiche siano
relativamente stabili, questo può essere vero per tutti i tratti.
b. Suggerimenti per aumentare la validità esterna:
Esistono degli accorgimenti per aumentare la validità esterna:
- Il primo metodo è quello di adoperare misurazioni non intrusive;
- In alcuni casi, si dimostra utile raccogliere i dati prima che i soggetti si accorgano che il
ricercatore ha iniziato il suo lavoro di indagine;
- Spesso è necessario evitare di dire il vero motivo della ricerca;
- Per molte situazioni di ricerca è opportuno condurre la ricerca in situazioni naturali;
- Il ricorso a disegni complessi si è dimostrato utile per aumentare la validità esterna di
alcuni esperimenti;
- È sempre opportuno controllare gli effetti del pre-test sui dati della ricerca mediante la
ripetizione dell’esperimento, ricorrendo al disegno di Solomon.
c. Cautele nel valutare la validità esterna:
Si deve tener presente che gli esperimenti non sono sempre condotti per generalizzare i
dati a tutte le situazioni e soprattutto al comportamento della vita reale, ma anche per
numerosi scopi. Quando questi sono oggetto di ricerca, allora è inutile preoccuparsi troppo
della validità esterna.
Inoltre la componente di un esperimento da generalizzare riguarda spesso il processo
teorico che viene verificato.
3. Validità di costrutto:
a. Concetto di validità di costrutto:
Il termine costrutto è un concetto astratto ed indica un complesso organizzato dalla vita
psichica non osservabile direttamente. I costrutti non sono osservabili ma vengono inferiti
dal comportamento. Ad esempio, l’ansia è un costrutto che è stato inferito a partire da
indicatori osservabili, come il ritmo del battito cardiaco, la sudorazione delle mani, la
tensione nervosa, ecc.
Purtroppo tali indicatori comportano necessariamente una parte arbitraria, perché
dipendono dalle teorie dei ricercatori e dagli strumenti adottati per misurarli. Far
corrispondere un indicatore osservabile ad una nozione latente, vuol dire eseguire una
definizione operazionale. L’operazionismo costituisce un momento cruciale nella fase di
passaggio tra teoria e corrispondente mondo reale, perché specifica le operazioni che
legano l’astratto all’empirico.
Il ricercatore si trova quasi sempre a dover lavorare con definizioni operazionali, in quanto
il suo obiettivo è di sottoporre ad esperimento un particolare fenomeno della vita psichica.
Data la difficoltà di scegliere i comportamenti che esemplificano i costrutti non è
sorprendente trovare nella letteratura scientifica numerose contraddizioni.
b. Minacce alla validità di costrutto:
Le più importanti minacce alla validità di costrutto possono essere raggruppate in tre
categorie:
a) Minacce provenienti da un’insufficiente definizione teorica dei costrutti: carenza di una
dettagliata analisi a livello concettuale dei costrutti. L’identificazione corretta degli aspetti
più significativi del fenomeno tutela la definizione teorica del costrutto delle distorsioni
dovute alla selettività.
b) Inadeguata definizione operazionale: questo tipo di minacce si verifica soprattutto
quando le variabili indipendenti sono complesse. In tal caso si rischia di usare un solo tipo
di operazione inadeguato a rappresentare tale complessità. E ricorrere a misure atte a
cogliere solo uno dei potenziali aspetti delle cause.
c) Ambiguità delle variabili indipendenti: gli esperimenti di Mayo sono un esempio
emblematico di questo tipo di minaccia alla validità. La variabile indipendente è del tutto
aleatoria e quindi i risultati stessi, qualsiasi sia l’interpretazione, perdono di solidità.
c. Suggerimenti per raggiungere la validità di costrutto:
Cook e Campbell hanno suggerito diverse strategie per raggiungere la validità di costrutto:
- La prima è stabilire una definizione chiara del costrutto astratto.
- Una volta che il costrutto è stato ben definito e tradotto in specifiche operazioni, sono
necessari numerosi tipi di dati per verificare se è stata raggiunta la validità di costrutto.
Prima di tutto vanno raccolte quelle informazioni che si dimostrano capaci di stabilire
chiaramente che la rappresentazione empirica della variabile indipendente produce esiti
attesi.
- Inoltre, i dati raccolti devono variare con la misura correlata con la rappresentazione
empirica della variabile indipendente, ma non con le variabili concettuali differenti.
4. Validità statistica:
Il concetto di validità statistica è strettamente legato a quello di validità interna, avendo per scopo
di verificare se il rapporto tra le variabili sperimentali è di tipo causale o casuale.
L’importanza di questa validità è legata al fatto che nella pratica degli esperimenti psicologici, i dati
sono spesso caratterizzati da un’ampia variabilità. Gli studiosi si sono chiesti quali siano le cause e
come sia possibile controllarle. Una di queste cause di variabilità è sicuramente il caso.
La variabilità introdotta dal caso viene controllata mediante la validità statistica, a volte detta
validità delle conclusioni statistiche.
a. Validità statistica e probabilità:
La validità statistica raggiunge il suo obiettivo mediante il ricorso al calcolo della probabilità
e all’inferenza statistica.
Questi procedimenti comportano il confronto tra la variabilità empiricamente osservata e
quella teorica prevista dal calcolo delle probabilità. Se da tale confronto emerge che la
variabilità empiricamente osservata è molto superiore alla variabile teorica, l’eccedenza
può essere spiegata solo concludendo che, oltre al caso, deve aver agito qualcos’altro. È
plausibile dunque che fattori sistemici abbiano determinato la variabilità dei risultati.
b. Esame delle ipotesi statistiche:
Decisioni come quella descritta possono essere prese dopo aver stabilito delle affermazioni
relative alle distribuzioni di probabilità delle variabili, cioè dopo aver definito le ipotesi
statistiche. Un’ipotesi statistica attribuisce determinate probabilità di comparsa ai singoli
valori di una variabile.
Le ipotesi statistiche riguardano il valore dei parametri o la forma di una legge di
distribuzione di una popolazione. Esse comportano una propria teoria dei test statistici. La
teoria dei test prevalentemente seguita nelle scienze sociali risale a Neyman e Pearson
secondo cui il test di un’ipotesi statistica si svolge in quattro fasi.
1. Nella prima farse si formulano due ipotesi statistiche: una da verificare e una
contrapposta. La prima è definita “ipotesi nulla” (H0), la seconda “ipotesi alternativa” (H1).
Se il ricercatore ha un fine più esplorativo e si aspetta semplicemente delle differenze tra le
medie, si parla di ipotesi alternativa bidirezionale. Se invece, ha delle ipotesi più chiare in
mente e si aspetta che una o l’altra media sia maggiore o minore delle altre, allora si parla
di ipotesi alternativa monodirezionale.
2. La seconda fase riguarda la formulazione delle supposizioni ausiliarie. Queste
consentono di dedurre una determinata grandezza d’esame e la rispettiva distribuzione
delle probabilità.
3. Nella terza fase si devono ricavare i campioni casuali da una o più popolazioni. Una volta
che questi sono identificati, si sottopongono al pre-test, poi al trattamento e quindi al post-
test. I dati del post-test servono per calcolare la grandezza d’esame.
4. Nella quarta fase si definisce una zona di rifiuto, cioè un campo di valori possibili della
grandezza d’esame che ci si attende con minor probabilità in caso di verità dell’ipotesi nulla
e con maggiore probabilità in caso di verità dell’ipotesi alternativa.
si decide di rifiutare H0 se la grandezza d’esame supera o raggiunge un determinato valore
critico all’interno della relativa distribuzione teorica di probabilità o distribuzione
campionaria della statistica.
c. Minacce alla validità statistica:
- Minacce che portano ad errore di primo tipo: si ha quando si afferma l’esistenza di una
covariazione tra le due variabili sperimentali che in realtà non esiste.
- Minacce che portano ad errore di secondo tipo: la bassa potenza statistica del test e la
violazione degli assunti che stanno alla base dei test statistici. La bassa potenza statistica
compromette la sensibilità dell’indagine. Generalmente si corre tale rischio quando il
campione è piccolo ed il livello di alfa è basso. La violazione degli assunti che stanno alla
base dei test statistici comporta la trasgressione delle norme fondamentali relative a
determinati test statistici.
- Altri fattori di minaccia: la scarsa affidabilità degli strumenti di misura, la mancata
standardizzazione delle procedure di manipolazione della variabile indipendente, la
presenza di variabili di confusione nell’ambiente sperimentale e l’eterogeneità dei soggetti
sperimentali.
d. Modi per aumentare la validità statistica:
Le strategie volte a migliorare la validità delle conclusioni statistiche sono sostanzialmente
tese a ridurre la varianza d’errore:
1) Il primo consiste nell’elevare il livello di significatività. In questo modo si aumenta la
sensibilità del disegno, per cui si possono cogliere meglio le differenze tra i risultati delle
condizioni sperimentali.
2) Il secondo modo di aumentare la probabilità di scoprire un vero rapporto consiste
nell’aumentare la grandezza dell’effetto, elevando l’intervallo tra i valori della variabile
indipendente usati per definire le condizioni sperimentali.
3) Il terzo e ultimo modo per aumentare la probabilità di scoprire un vero rapporto consiste
nel ridurre l’errore casuale.
5. Validità ecologica:
Sotto la pressione delle critiche rivolte alla pratica sperimentale, andò facendosi strada l’esigenza di
adottare modalità di sperimentazione atte ad analizzare il comportamento ed i processo psichici al
di fuori dell’ambito rigoroso ed artificiale del laboratorio. Andò così emergendo l’esigenza di
considerare la validità ecologica. Cioè la generalizzabilità dei risultati anche a contesti della vita
quotidiana. La validità ecologica è la dimostrazione che le condizioni in cui è stata verificata una
relazione sono le condizioni tipiche in cui si trova normalmente la popolazione.
a. Concetto di validità ecologica:
Tale concetto andò differenziandosi da quello di validità esterna in tempi recenti. Il termine
fu coniato da Brunswik. Egli si era convinto che l’arficialità degli esperimenti condotti in
laboratorio producesse dati poco rappresentativi della vita reale.
Questa posizione fu criticata da Kurt Lewin che ne propose una alquanto diversa. Egli basò
la sua posizione su due elementi:
a) che il comportamento nel momento t è una funzione della situazione di quel momento t
soltanto e per studiarlo si devono trovare i modi per determinare le proprietà della
situazione a quel preciso istante.
b) che la situazione che interessa lo studioso è quella reale e concreta, ma quella
psicologicamente vissuta.
Pertanto per ottenere la validità ecologica, non basta portare al di fuori del laboratorio il
compito di eseguire, occorre tener conto della percezione soggettiva del soggetto
sperimentale sia verso il compito che verso l’ambiente.
Bronfenbrenner scrive che per validità ecologica si intende il grado in cui l’ambiente del
quale i soggetti hanno esperienza in una determinata indagine scientifica ha proprio le
caratteristiche che il ricercatore suppone o assume. Tale definizione si basa sull’importanza
dell’ambiente psicologico così com’è vissuto dal soggetto ciò di cui ha esperienza.
b. Minacce alla validità ecologica:
Non esiste un unico concetto di validità ecologica. A interpretazioni diverse non possono
corrispondere le stesse minacce; pertanto anche i fattori in grado di compromettere la
validità ecologica sono distinguibili in due categorie.
1) Per la posizione di Brunswik, costituiscono delle minacce lla validità ecologica tutti gli
antefatti di laboratorio.
2) Per l’interpretazione di Bronfenbrenner, costituisce una minaccia per la validità ecologica
tutto ciò che impedisce allo sperimentatore di conoscere come il soggetto percepisce la
situazione.
Capitolo 6 – controllo degli effetti di disturbo
1. Il controllo sperimentale:
indica le modalità di limitare o di controllare le sorgenti di variabilità nella ricerca.
Le strategie di controllo sperimentale più comunemente usate sono:
a) Strategie generali di controllo;
b) Strategie di controllo sugli effetti dei soggetti e dello sperimentatore;
c) Strategie di controllo mediante la segnalazione e l’assegnazione dei soggetti;
d) Strategie di controllo degli effetti dell’ordine e della sequenza;
2. Strategie generali di controllo:
Tali strategie hanno come scopo di eseguire un controllo di carattere generale nella ricerca.
a. Il procedimento di controllo più generale è certamente quello che definisce in modo chiaro
l’ambiente della ricerca. Tra tutti i possibili luoghi di ricerca, il laboratorio è stato sempre
considerato l’ambiente ideale, in quanto permette di eliminare o di tenere in controllo le
variabili estranee.
Inoltre, consente, di semplificare la situazione sperimentale mediante la riduzione delle
variabili che non interessano, ed eliminando le varie minacce alla validità, rafforza il grado
di fiducia da attribuire agli effetti del trattamento.
Il laboratorio, inoltre, consente di mantenere costanti tutte le altre variabili che non sono
eliminabili. Se una variabile dovuta alle caratteristiche dell’ambiente viene annullato
perché il suo effetto è identico per ognuno di essi.
i. Il controllo degli effetti di disturbo dovuti al laboratorio:
L’uso di un laboratorio può comportare problemi. Può essere fonte di effetti di
disturbo in molti modi.
b. Il controllo nella preparazione della situazione di ricerca:
Quando si accinge a verificare un’ipotesi di laboratorio, uno dei primi problemi che lo
sperimentatore deve affrontare riguarda la scelta delle varie strategie, strumenti, congegni
per eseguire la sua ricerca.
Non è possibile stabilire una volta per tutte l’apparato o gli elementi più adatti per gli
esperimenti di laboratorio.
La preparazione della situazione di ricerca deve rispondere alla domanda: quale situazione
produrrà la relazione più forte tra le variabili dell’esperimento?
Oggi, un ausilio importante per preparare la situazione di ricerca è il computer, si possono
studiare processi cognitivi superiori, problemi di percezione e di psicofisica, come pure
argomenti di psicofisiologia e neurofisiologia.
c. Il controllo su alcuni aspetti del tempo:
Il tempo è una delle variabili che deve essere controllata perché può influire sui dati della
ricerca attraverso tre modi differenti:
1) Durata degli effetti del trattamento o della stabilità dei risultati di ricerca.
2) Alcuni ricercatori hanno rilevato che determinati esperimenti risentono dell’ora del
giorno in cui sono eseguiti. Essa diventa variabile di disturbo. Eventuali accorgimenti:
- tenerla costante per tutte le prove e tutti i soggetti;
- variarla sistematicamente sia per le prove sia per i soggetti;
- o distribuirle in modo causale in caso di sovrannumero;
3) Durata delle prove o degli intervalli tra le prove, le principali cause possono essere:
- la lunghezza delle prove influisce quando il disegno è entro i soggetti (stanchezza e
ripetizione);
- la lunghezza degli intervalli pone tre possibili fonti di disturbo: maturazione dei soggetti,
mortalità, eventi storici fuori laboratorio.
d. Il controllo della misura delle risposte:
L’efficacia del controllo sperimentale è connessa anche alle caratteristiche e alla qualità
degli strumenti di misura adoperati nella ricerca psicologica. Le principali caratteristiche
degli strumenti da tenere in considerazione sono l’oggettività, la sensibilità, l’attendibilità e
la validità.
1. L’uso di misure oggettive delle variabili indipendenti riveste una importanza cruciale nel
controllo di una ricerca. Una misura obiettiva è quando la somministrazione, la
determinazione e l’interpretazione dei punteggi sono indipendenti dal giudizio soggettivo
dei singoli esaminatori.
2. La sensibilità di uno strumento di misura si riferisce alla sua capacità di dare informazioni
più o meno specifiche di un fenomeno studiato.
e. Il controllo attraverso la ripetizione dell’sperimento:
Secondo alcuni autori, la ripetizione dell’esperimento non farebbe parte del procedimento
di controllo, secondo altri invece può essere inserita nelle strategie generali di controllo.
Se un fenomeno osservato in un primo esperimento si verifica anche in un secondo e in un
terzo, può ritenere che esso sia attendibile. Un esperimento che non può essere ripetuto
lascia sempre la porta aperta al dubbio che i risultati ottenuti possano essere dovuti ad
eventi casuali.
Gli autori distinguono la ripetizione esatta o diretta della ripetizione sistematica. La
ripetizione esatta consiste nel rifare l’esperimento nel modo più fedele possibile
all’originale.
La ripetizione sistematica è in genere più apprezzata. Ha lo scopo di verificare se un dato
fenomeno ha luogo anche in situazioni differenti da quelle originali variando un solo
elelento.
3. Strategie di controllo sugli effetti dei soggetti e dello sperimentatore:
I soggetti sperimentali possono indurre numerosi effetti di disturbo nei dati di una ricerca. La loro
prestazione nel post-test può essere influenzata da variabili diverse da quella prevista nel
trattamento, come la motivazione, le aspettative, il tipo di istruzioni. Questi effetti devono essere
controllati se si vuole avere fiducia nei dati di un esperimento.
Anche lo sperimentatore non è esente da possibili deformazioni nel suo lavoro: infatti, le sue
aspettative, le sue conoscenze sull’ipotesi della ricerca e sui soggetti possono trasformarsi in effetti
di disturbo nelle varie fasi della pianificazione del lavoro.
a. Le conoscenze e le aspettative dei soggetti:
Le conoscenze del soggetto possono essere degli effetti di disturbo nella ricerca. Esse sono
di vari tipi: da vere e proprie conoscenze psicologiche a conoscenze generiche su alcune
procedure sperimentali fino ad arrivare a conoscenze della procedura e del contenuto della
ricerca in questione.
1. Le conoscenze psicologiche: più probabili in studenti di psicologia che in altri soggetti.
Poco impossibile al giorno d’oggi. Peso rilevante nelle prove di misura. Due strategie:
I. Dare delle consegne che impediscono o spingano il soggetto a evitare di fare inferenze.
II. Far seguire alle prove sperimentali un questionario per la competenza del soggetto nelle
aree di indagine.
2. Conoscenze sulla procedura sperimentale: bisogna ugualmente distinguere tra i vari
ambiti di ricerca. Qualsiasi soggetto con una certa cultura può capire il nocciolo
dell’esperimento. Tre modi per evitare tale disturbo:
I. Fornire al soggetto sufficienti conoscenze sull’esperimento in modo che non vada a
ricercarle da solo.
II. Instaurare una relazione di fiducia e invitare il soggetto a collaborare in modo ingenuo e
spontaneo.
III. Ridurre l’ansia proveniente da una situazione di incertezza.
3. Effetto diffusione: evitare che i soggetti che hanno già terminato l’esperienza
comunichino ad altri le informazioni in merito all’esperienza.
È importante sottolineare che il soggetto non deve fare nulla per adeguarsi o contrastare lo
scopo di una ricerca.
b. Aspettative dello sperimentatore:
L’effetto sperimentatore si riferisce all’influenza che lo sperimentatore inconsciamente o
intenzionalmente ha sugli oggetti dell’esperimento. Producono attesa.
Può agire in quasi tutte le fasi della ricerca.
c. Le strategie per il controllo:
Tra i sistemi più utilizzati troviamo i procedimenti a singolo cieco e doppio cieco,
l’automazione delle istruzioni, l’uso di più osservatori e uso di inganno.
i. Procedimenti a singolo cieco e a doppio cieco:
- A singolo cieco: controlla soltanto gli effetti di confusione provenienti da soggetti
sperimentali e non dagli sperimentatori. Consiste nel nascondere ai soggetti
sperimentali sia lo scopo generale della ricerca, sia la condizione alla quale ognuno
di essi è sottoposto.
- A doppio cieco: serve a controllare le minacce provenienti dai ricercatori. Ridurre
al minimo i contatti tra ricercatore e soggetto. Collaborazione di assistenti
addestrati ma che non devono conoscere le ipotesi di esperimento, né a quali
gruppi sono stati assegnati i singoli soggetti o le risposte di valutazione.
ii. Automazione delle istruzioni:
Il fatto che le istruzioni possano veicolare aspettative e giudizi sulla maggiore o
minore facilità del compito o sulle ipotesi costituisce un effetto di disturbo non
indifferente.
Istruzioni scritte annullano l’effetto di disturbo della presenza dello
sperimentatore. Il tono di voce trasmette gran parte delle informazioni rilevanti su
di esso.
Per controllare gli effetti di disturbo nell’impartire le istruzioni a volte si
raccomanda di eseguire una replica sistematica della ricerca variando la forma delle
istruzioni.
Automatizzare le istruzioni, distribuirle in forma scritta o comunicarle mediante
una registrazione preparata in precedenza. Avvalorare l’uso del computer.
iii. Uso di più osservatori o più valutatori:
Nelle ricerche osservative il controllo si effettua mediante l’impiego di due o più
osservatori, in quelle di contenuto si impiegano due o più codificatori, in quelle di
domande aperte, più valutatori. In tutti i casi è opportuno utilizzare il
procedimento a doppio cieco, codifica sullo stesso materiale indipendentemente
da ciascun codificatore e applicare un indice di accordo tra osservatori (K di Cohen).
iv. Uso della tecnica dell’inganno:
Un comune metodo per controllare gli effetti dovuti al soggetto sperimentale
consiste nel far credere ai soggetti che la situazione sperimentale sia qualcosa di
diverso da quella che gli sperimentatori stanno effettivamente studiando.
L’inganno è facile da attuare, ma in alcuni esperimenti può diventare complicato ed
eticamente problematico. Se ben organizzato può dare un contributo importante ai
fenomeni psicologici.
Un implicazione negative potrebbe essere la creazione di una idea distorta nei
soggetti sulla sincerità dello sperimentatore creando una sfiducia generalizzata
sulle ricerche.
v. Alternative all’inganno:
- Drammatizzazione: comporta la costruzione di situazioni fittizie, il soggetto si
comporta “come se” tale situazione fosse vera. Riguarda sia la variabile
indipendente sia quella dipendente. Questo metodo però raccoglie informazioni
solo su come si comporterebbe il soggetto e non sul reale comportamento.
- Preavviso: mettere al corrente i soggetti della situazione sperimentale. Le
informazioni raccolte sull’efficacia di questo metodo indicano che le differenze
comportamentali tra soggetti preavvisati e non, non può essere eliminata.
4. Controllo attraverso la selezione dei soggetti della popolazione e l’assegnazione ai
gruppi:
Un’accurata selezione dei soggetti assicura due aspetti fondamentali di una ricerca:
a) l’equivalenza dei gruppi;
b) la possibilità di generalizzare i risultati alla popolazione.
In entrambi i casi si mettono in mezzo regole di campionamento.
Bisogna distinguere due momenti fondamentali nel processo generale di scelta dei soggetti per
l’esperimento: uno riguarda la selezione o estrazione dei soggetti dalla popolazione per formare un
campione di una certa numerosità. L’altro riguarda l’assegnazione di soggetti di questi campioni a
diversi gruppi o condizioni sperimentali.
a. I metodi di selezione dei soggetti della popolazione:
È necessario distinguere la popolazione dal campione e all’interno di essa la concezione di
popolazione bersaglio da quella di popolazione accessibile.
Il termine popolazione indica tutti gli eventi di interesse in cui si rivolge il ricercatore per la
sua indagine:
- Popolazioni finite;
- Popolazioni infinite;
Il campione è un piccolo insieme di eventi, tratto dalla popolazione di interesse che ci si
auspica abbia le stesse caratteristiche della popolazione.
- Popolazione Bersaglio: è la popolazione completa cioè l’universo.
- Popolazione accessibile: è quella che interessa la maggior parte dei ricercatori e da essi
può essere avvicinata.
Nella sperimentazione di solito si ricorre ad un campione scelto dalla popolazione
accessibile.
i. La rappresentatività del campione:
Per generalizzare i risultati di un campione alla popolazione da cui è tratto, è
necessario che esso sia rappresentativo della popolazione. Le caratteristiche della
popolazione devono essere presenti nel campione in proporzioni uguali a quelle
della popolazione.
Se il concetto di rappresentatività è semplice da capire, non lo è altrettanto quando
lo si mette in pratica. Due difficoltà:
1) La prima è dovuta al fatto che, per generalizzare i risultati da un campione
all’universo sono necessari due passaggi: il primo comporta la generalizzazione dei
dati dal campione alla popolazione sperimentale accessibile. Il secondo passaggio
va dalla popolazione sperimentale accessibile alla popolazione bersaglio.
2) La seconda difficoltà è dovuta alla numerosità dei campioni, più grande è il
campione, più rappresenta la popolazione.
ii. I tre metodi di campionamento:
Sono stati sviluppati diversi metodi per ottenere campioni rappresentativi:
- Campionamento casuale: di ampiezza “n” quando ogni elemento di un insieme
ordinato di “N” elementi, appartenenti ad una popolazione, ha la stessa probabilità
di essere scelto per formare il campione. Le regole di ripartizione di un
campionamento casuale sono due:
1. Ripetizione o inserimento: ogni elemento della popolazione può essere osservato
più volte, in quanto, dopo ogni estrazione viene reinserito nell’insieme d’origine.
2. Senza ripetizione o reinserimento: nessun elemento estratto viene reinserito e,
perciò non è possibile osservare uno stesso elemento più di una volta.
- Campionamento casuale stratificato: richiede una preliminare suddivisione della
popolazione in strati o sub-popolazioni, da ognuna delle quali viene estratto un
campione in modo casuale.
- Campionamento ad hoc: molto spesso i ricercatori si accontentano di condurre gli
esperimenti con soggetti facilmente reperibili e disponibili. Come si generalizzano i
risultati alla popolazione? Generalizzare cautamente e con riserva, generalizzare
solo ad altri che hanno caratteristiche simili al campione.
b. I quattro metodi di assegnazione dei soggetti ai gruppi:
Una volta che i soggetti sono stati scelti da un universo o da una popolazione accessibile,
vanno assegnati alle condizioni richieste dai disegni sperimentali.
i metodi per eseguire un’assegnazione corretta dei soggetti alle varie condizioni
sperimentali sono:
a) l’assegnazione casuale: basilare procedura di controllo, ogni soggetto ha la stessa
probabilità di rientrare in ciascun gruppo. Controlla le minacce alla validità interna ed
esterna, mantiene sotto controllo simultaneamente più variabili, è l’unico procedimento
che può controllare anche i fattori sconosciuti che possono influire sui risultati.
b) il pareggiamento casuale: quando sono presenti le tre condizioni: esiguità del campione,
sospetto che vi sia una variabile rispetto alla quale i soggetti differiscono e che sia correlata
in qualche modo con la variabile dipendente, possibilità di esaminare i soggetti prima
dell’esperimento. Per pareggiare si esegue una disposizione in ordine crescente o
decrescente di soggetti sulla base di una prova preliminare relativa alla variabile influente,
formare delle coppie in base all’ordine precedente, assegnazione di ciascun membro della
coppia a gruppi, applicazione dei trattamenti e osservazione delle differenze tra i membri di
coppia.
c) il metodo dei blocchi: consiste nell’abbinare le caratteristiche dei gruppi. È necessario
individuare le variabili in base alle quali formare i blocchi, poi misurarle in tutti coloro che
dovranno appartenere al campione sperimentale, suddividere i soggetti in base alla media
e deviazione standard ottenute in tali misure.
d) i soggetti come controllo di se stessi: un metodo efficace di controllo è quello di adottare
il metodo del disegno sperimentale entro i soggetti.
c. Alcuni effetti di disturbo dovuto ai soggetti:
Gli oggetti di studio della psicologia sono assai più complessi da studiare di quelli delle
scienze naturali, sono dotati di capacità conoscitive, di valori, di ideali, possono inoltre,
interagire con lo sperimentatore, subire l’influenza delle aspettative degli scienziati,
imparare durante gli esperimenti o intuire le ipotesi dell’esperimento. Il ricercatore
vorrebbe che essi fossero obiettivi cioè incapaci di portare in laboratorio preconcetti o
predisposizioni perché ciò introdurrebbe numerosi effetti di disturbo.
i. La selezione dei soggetti:
Spesso le difficoltà di reperire i protagonisti della ricerca ha indotto gli studiosi a
ricorrere prevalentemente ai soggetti più facilmente avvicinabili. Nel mondo
animale essi sono stati i topi albini mentre in ambito umano, gli studenti di
psicologia, i pazienti di vario genere e le scolaresche.
Per quanto riguarda i topi albini, molti autori hanno messo in discussione la
possibilità di poter generalizzare i risultati di ricerca condotti su questi animali.
Per quanto concerne gli studenti di psicologia, alcuni autori ritengono che essi non
sono rappresentativi della popolazione umana in generale.
ii. Soggetti volontari e non volontari:
Uno degli effetti di disturbo più rimarcati dalle ricerche psicologiche è dovuto alla
presenza di volontari come soggetti sperimentali.
Come per gli studenti anche le persone volontarie affiora il sospetto che possano
differire dalla popolazione normale per alcune caratteristiche. Problema rilevante
sulla generalizzazione dei risultati all’intera popolazione.
- Rosenthal e Rosnow: hanno evidenziato che i soggetti volontari sono più istruiti,
più socievoli, più ansiosi, più giovani, più intelligenti, anticonvenzionali e meno
autoritari rispetto ai soggetti non volontari.
- Desiderabilità sociale: effetto di disturbo nelle ricerche di autovalutazione.
I soggetti volontari dimostrano di condividere più dei non volontari gli obiettivi
generali del ricercatore o dell’istituzione di ricerca cui prestano la loro
collaborazione.
È logico chiedersi se la differenza tra soggetti volontari e non, sia così rilevante da
sconsigliare qualsiasi tipo di generalizzazione. Secondo alcuni autori la risposta è
negativa perché la maggior parte delle ricerche condotte per chiarire il problema
hanno studiato le caratteristiche dei volontari e non di tutti coloro che
effettivamente partecipavano alle ricerche. Si dovrebbe rilevare che l’effetto
dovuto alla differenza di caratteristiche dei volontari e non, è spesso funzione del
compito. È doveroso che il ricercatore riduca quanto più possibile gli effetti dei
volontari, alcune strategie sono l’impiego di persone ignare (inganno o
collaboratori esperti), misure non intrusive o altre tecniche di osservazione
naturalistica. Al variare della ricompensa può variare il numero dei volontari.
- Crano e Folger: hanno evidenziato diversi problemi legati all’uso di incentivi
finanziari negli esperimenti. Possibilità di risposte acquiescenti e condizioni
economiche dei soggetti che influenza un determinato interesse verso la stessa
ricompensa. Anche le ricompense non finanziarie possono essere fonte di
inquinamento.
5. Strategie di controllo sugli effetti dell’ordine e della sequenza:
Negli esperimenti in cui ciascun soggetto è sottoposto a più condizioni è possibile che l’esecuzione
delle prime prove influisca sul rendimento di quelle successive.
a. Effetti dell’ordine e della sequenza:
- Effetto dell’ordine: è dovuto all’ordine delle condizioni, indipendentemente dalla
specificità delle condizioni stesse. Si realizza tutte le volte che il soggetto è posto a prova
all’interno di altre prove, la sua performance viene influenzata dalla posizione piuttosto che
dalla prova.
- Effetto della sequenza: parziale dipendenza di una condizione sperimentale da quella che
la precede. Essi sono sempre effetti dovuti all’interazione tra le prove disposte in una
determinata successione. È chiamato anche effetto residuale, perché indica un
cambiamento temporaneo o permanente del comportamento del soggetto causato da uno
specifico tipo di esposizione a uno o più trattamenti sperimentali precedenti. Il controllo
sulla sequenza si effettua in genere facendo sì che ciascuna prova sia preceduta da qualsiasi
altra prova lo stesso numero di volte, di modo che gli errori si distribuiscano lungo tutte le
prove.
b. Il controbilanciamento:
Esistono due strategie fondamentali per controllare gli effetti dell’ordine e della sequenza
chiamati controbilanciamento delle prove.
- Controbilanciamento tra i soggetti: è semplice perché si basa sulla costruzione di un
determinato numero di gruppi, quante sono le combinazioni delle prove in sequenza.
1. Completo: è il disegno tra i soggetti più efficace perché utilizza tutte le combinazioni
possibili e sottopone ciascuna di esse a un gruppo specifico.
2. Incompleto: in cui non vengono adoperate tutte le possibili combinazioni di prove. Una di
queste tecniche è chiamata anche quadrato latino perché è simile ad un antico gioco che
comportava la disposizione delle lettere alfabetiche in una matrice in modo che ciascuna
lettera occupasse un singolo posto nella riga e nella colonna. Due criteri: ogni prova deve
apparire con egual numero di volte in ogni posizione, ogni prova deve sempre precedere un
tipo di prova in uguale numero di volte.
- Controbilanciamento entro i soggetti: esso si esercita sottoponendo ciascun soggetto a
tutte le prove, più volte in diverse combinazioni.
1. Randomizzare: se ci sono più prove, ciascun soggetto sarà sottoposto più volte a diverse
prove e diverse successioni.
2. Inverso: consiste nel sottoporre ogni soggetto a tutte le prove prima in un ordine e poi
all’inverso. Pratico quando il campione è piccolo e quando si presume che il disturbo agisca
in modo lineare.
3. Randomizzazione a blocchi: esistono degli insieme di prove, ciascuna delle quali viene
presentata una sola volta all’interno di quell’insieme di prove, ciascuna delle quali viene
presentata una sola volta nell’insieme e in generale tante volte quanti sono gli insiemi. Le
sequenze non sono inverse, sono casuali e possono esserci più blocchi.

Capitolo 7 – attendibilità e validità della misurazione


Quando eseguiamo una misurazione associamo ad oggetti, individui o eventi una categoria e qui possiamo
compiere degli errori. Gli strumenti devono essere costruiti in modo da evitare errori e le condizioni di
somministrazione devono garantire una misurazione efficace. Errori simili sono considerati casuali perché
dovuti a fluttuazioni del caso. Bisogna evitare che gli errori che viziano la misurazione, cioè che vanno nella
stessa direzione. Errori sistematici. La sommatoria degli errori sistematici non tenderebbe a zero, per
prevenire o valutare l’entità degli errori di misurazione, i ricercatori hanno sollevato la questione
dell’attendibilità e della validità della misurazione.
Il costrutto è collocato in una teoria più generale e deve essere definito in modo operativo. Alcuni costrutti
psicologici sono molto semplici e per misurarli sono necessari pochi indicatori o item.
Un indicatore è una variabile o misura empirica che indica il costrutto non osservabile tramite una regola di
corrispondenza. Il rapporto che esiste tra costrutto e indicatori può essere di due tipi.
Un indicatore si dice riflettivo quando è una semplice manifestazione empirica del costrutto, un
prolungamento del costrutto a livello osservabile, una conseguenza della presenza del costrutto stesso.
L’indicatore riflette il costrutto.
Esistono costrutti più complessi che implicano una organizzazione gerarchica in dimensioni. Esse sono
aspetti psicologici organizzati e non osservabili che rappresentano ognuno una parte del costrutto che si
collocano tra i costrutti e gli indicatori.
1. Attendibilità e validità:
Se una misurazione è attendibile e valida, allora il costrutto è misurato bene.
- Validità: grado in cui uno strumento misura ciò che dice di misurare;
- Attendibilità: il grado di accordo tra misurazioni indipendenti dello stesso costrutto.
Le preoccupazioni dei ricercatori in merito a questioni relative all’attendibilità e alla validità sono
spesso affrontate chiarendo alcuni concetti di fondo.
a. Accuratezza, precisione e stabilità:
Se c’è alta correlazione tra le misurazioni indipendenti, questo significa che durante le
misurazioni sono stati fatti pochi errori.
- Stabilità: si riferisce al grado di correlazione tra misurazioni avvenute in tempi diversi dello
stesso costrutto.
- Accuratezza: si riferisce al grado di corrispondenza tra il costrutto misurato e la realtà.
- Precisione: è il grado di sistematicità o coerenza con cui eseguiamo la misurazione, cioè la
coerenza con cui si associano eventi od oggetti a determinate categorie di riferimento.
esempio di attendibilità può essere la metafora della pistola fissata davanti a un bersaglio e
con a disposizione 10 spari:
- Precisa e accurata: la pistola colpisce tutte e 10 volte al centro;
- Inaccurata e imprecisa: la pistola spara a caso commettendo vari errori;
- Inaccurata ma precisa: la pistola spara sistematicamente sullo stesso anello ma non al
centro, dimostra una notevole precisione ma una scarsa accuratezza.
In questo modo rispecchia la realtà, se una misurazione sarà accurata, sarà per forza
precisa mentre una misura precisa non è necessariamente accurata. Per esprimere la
stabilità si immagini che dopo sei mesi la pistola ripete la sessione di dieci spari se dopo
questo tempo la pistola resta attendibile, allora sarà anche stabile. Se uno strumento di
misura è accurato allora sarà stabile ma se è stabile allora non sarà necessariamente
accurato.
b. La teoria classica dell’attendibilità:
Secondo la teoria classica dell’attendibilità, il punteggio prodotto dalla misurazione è
formato da due componenti, il punteggio vero e l’errore:

X = V + E (Punteggio osservato = Punteggio Vero + Errore Causale)

In condizioni ideali l’errore casuale è nullo. In quelle reali ha sempre un suo peso.
Se potessimo fare infinite misurazioni di una stessa variabile, la sommatoria degli errori
casuali dovrebbe essere zero, così come la loro media, e il punteggio vero V diverrebbe la
media degli infiniti punteggi osservati X5.
L’attendibilità di uno strumento di misura viene definita come il rapporto tra la varianza
della parte vera e la varianza osservata o totale.

𝝏𝟐 (𝑽) 𝝏𝟐 (𝑿) − 𝝏𝟐 (𝑬) 𝝏𝟐 (𝑬)


𝒓𝒖 = = = 𝟏 −
𝝏𝟐 (𝑿) 𝝏𝟐 (𝑿) 𝝏𝟐 (𝑿)

Dove ∂2 (X) è la varianza del punteggio osservato, ∂2 (V) la varianza del punteggio vero e
∂2 (E) la varianza dell’errore.
Tale formula esprime il coefficiente di attendibilità, che di fatto è una proporzione. Il limite
minimo dell’attendibilità è 0, il massimo 1.
Quindi l’attendibilità finisce per essere la proporzione di varianza vera rispetto alla varianza
standard totale prodotta dallo strumento di valutazione.
c. Il rapporto tra attendibilità e validità:
Attendibilità e validità sono due componenti fondamentali per eseguire una componente
adeguata. Tuttavia, esse non si collocano sullo stesso livello. L’attendibilità ci assicura che le
diverse misure siano coerenti tra loro, la validità che riflettano adeguatamente il costrutto
che volevamo misurare.
L’attendibilità è considerata la base della validità: senza attendibilità una misura non può
essere valida.
d. Diverse applicazioni dell’attendibilità:
Il concetto di attendibilità della teoria classica è un concetto generale sotto le cui ali
possono trovarsi notevoli applicazioni.
- L’attendibilità test-retest: misura la stabilità nel tempo delle risposte dei soggetti o i
cambiamenti nelle situazioni sperimentali;
- Le forme parallele o equivalenti: consiste nel somministrare agli stessi partecipanti nello
stesso momento due forme diverse dello strumento che misurano lo stesso costrutto.
- Consistenza interna e “split-half” di una scala o di un test: due metodi diversi per vedere
se i molteplici item sono correlati tra di loro mostrando maggiore o minore eterogeneità
nel contenuto.
- Consistenza interna di due o più osservatori, valutatori, giudici: misura l’accordo o il
disaccordo tra loro in ciascuna codifica eseguita. Questa consistenza interna viene detta
calibrazione.
e. L’”α” di Cronbach di una scala di misura:
È uno degli indici più utilizzati all’interno della psicologia sociale perché è un indice chiaro e
comprensibile per molti aspetti.
Supponiamo di avere una scala composta da 8 item, 4 da un lato e 4 dall’altro, calcoliamo
poi i punteggi totali di ciascun gruppo di item per ciascun soggetto e quindi correliamo
queste due misure. Abbiamo un primo coefficiente di correlazione. Poi dividiamo ancora gli
8 item in altri due gruppi della stessa numerosità, diversi dai precedenti e calcoliamo anche
qui la correlazione. Il processo procede nella stessa maniera fin quando non è stato
calcolato un coefficiente di correlazione per tutte le possibili suddivisioni a metà degli 8
item. Il coefficiente di α di Cronbach è dato dalla media di tutte le correlazioni. Viene infatti
definito come la media delle intercorrelazioni tra tutte le possibili divisioni a metà del test.
La ripetizione di Item simili è spesso in contrasto con le esigenze di brevità di una scala.
Inoltre scale simili possono nuocere alla validità nella misura in cui una parte del costrutto
viene iper-rappresentata a spese di altre parti importanti del costrutto. Questi problemi
sono correlati a due fenomeni conosciuti come:
- Paradosso dell’attenuazione: indica che l’incrementare oltre un limite la consistenza
interna di un test non aumenta necessariamente la validità di costrutto.
- Il dilemma della larghezza della banda: si riferisce al fatto che l’eccessivo restringimento
del contenuto della scala, non correla con nient’altro di interesse o rilevanza psicologica.
Invece l’eccessivo allargamento del contenuto ha un grosso potere predittivo rispetto ai
costrutti psicologicamente rilevanti, a spese però di comportamenti specifici.
f. Il “K” di Cohen di una griglia di osservazione:
È un coefficiente di attendibilità utilizzato principalmente quando ci sono due o più
valutatori che eseguono una stessa misurazione in genere basata su una forma di codifica o
classificazione nominale o ordinale.
supponiamo che un ricercatore voglia analizzare l’interazione in gruppi di persone
impegnate in un compito di problem solving. A tal fine utilizza una griglia di codifica.
Dopo aver registrato ogni seduta di interazione ed addestrato alcuni osservatori all’uso
dell’IPA, gli osservatori codificano ciascun evento interattivo di interesse di ciascuna seduta
sulla base delle categorie della griglia stessa. La principale fonte di errore è l’osservatore
stesso.
Perciò il concetto di base di attendibilità relativa ad un sistema di codifica è quello di
accordo: se due osservatori che osservano lo stesso materiale vanno d’accordo, allora il
sistema può dirsi attendibile.
La procedura per calcolare il K di Cohen è il seguente:
1. Addestrare i due osservatori all’uso della griglia;
2. Fargli codificare il materiale indipendentemente l’uno dall’altro;
3. Costruire la matrice di confusione che riporta in riga tutte le categorie del sistema di
riferimento al primo osservatore mentre in colonna quelle del secondo (O1 e O2) e nelle
celle la frequenza riferibile all’accordo tra i due osservatori rispetto a ciascuna categoria. La
matrice è costruita in modo che maggiore è l’accordo tra i due osservatori, maggiore sarà la
frequenza in celle in diagonale rispetto a quelle fuori dalla diagonale.
La soluzione tradizionale è la proporzione di accordo che consiste nel rapporto tra tutti gli
accordi e la somma degli accordi più i disaccordi. Si tratta di sommare le frequenze nelle
celle in diagonale e dividerle per le frequenze totali della matrice di confusione. Questo
indice varia tra 0 e 1 indicando con 0 assenza totale di accordo e con 1 il massimo accordo.
2. Validità:
a. Validità di contenuto:
La validità di contenuto è un aspetto della validità alquanto controverso. Viene stabilita
dimostrando che gli item utilizzati per la misurazione sono un campione rappresentativo
dell’universo del contenuto degli item rilevanti per quel costrutto.
Può essere definita come il grado in cui gli item che fanno parte dello strumento
costituiscono un campione rappresentativo dell’universo dei comportamenti possibili
relativi al costrutto che si vuole misurare.
Secondo alcuni, pur essendo un aspetto centrale nella misurazione, non dovrebbe essere
considerata validità di costrutto perché una definizione effettiva di costrutto implica un
dominio di contenuto.
Ogni ricercatore deve soppesare la presenta rappresentatività di un item rispetto
all’universo immaginabile.
Un ultimo aspetto che a volte viene fatto rientrare nella validità di contenuto riguarda la
validità di facciata, cioè il grado in cui gli item utilizzati appaiono ragionevoli o sensibili,
come indicatori di costrutto che si vuole misurare alle persone a cui è diretto quel test o
anche a quelle che lo usano.
b. Validità di criterio o esterna:
È il grado di corrispondenza tra la misura e una variabile esterna, diversa dal costrutto
originario, che si assume come criterio di riferimento.
Quando il criterio è concomitante con il costrutto di cui si vuole stabilire la validità di
criterio, si parla di validità concorrente, quando il criterio è differito nel tempo si parla
validità predittiva.
Procedura per determinare la validità di criterio: si usano tre metodi:
1) si usa spesso per stabilire la validità concorrente e consiste nell’eseguire una
correlazione tra il test e il criterio;
2) Si usa invece per stabilire la validità predittiva e consiste nell’applicare tecniche di
regressione al criterio;
3) Si applica a entrambi e consiste nel verificare se il test discrimina tra due o più gruppi di
soggetti che sulla base delle proprie caratteristiche dovrebbero differenziarsi per la
caratteristica misurata.
c. Validità di costrutto:
Viene definita come il grado in cui uno strumento misura ciò che intende misurare.
Secondo l’approccio più diffuso, una misurazione ha validità di costrutto quando essa
correla con misurazioni dello stesso costrutto fatte con metodi diversi e non correla invece
con misurazioni di costrutti diversi. Perciò essa è composta da due aspetti:
1. Validità convergente: il grado di accordo tra due misurazioni dello stesso costrutto fatte
con metodi diversi.
2. Validità divergente: il grado di discriminazione tra due misure di costrutti diversi. Questo
approccio è stato il primo che ha formalizzato queste definizioni all’interno di un approccio
sistematico che incrocia misure di diversi costrutti eseguite con metodi differenti, detto
metodo della matrice multi tratto-multi metodo (MTMM).
La validità di costrutto di uno strumento di misura è alta quando questo strumento riesce a
misurare il costrutto in modo che tale strumento utilizzato non è essenziale nella
misurazione del costrutto stesso e quando lo strumento misura quel costrutto in modo tale
che esso sia non correlato con costrutti diversi.
d. Validità nomologica:
Gli autori che sostengono una concezione integrata della validità di costrutto l’hanno
definita in questo modo, ovvero come il grado in cui il costrutto che vogliamo misurare si
inserisce in una serie di relazioni, predittive, positive o negative o nulle, tra costrutti e
criteri appositamente definiti. In questo caso non c’è un solo criterio ma molte misure
all’interno di una rete nomologica o di relazioni tra costrutti.

Capitolo 8 – metodi descrittivi di ricerca


I metodi descrittivi di ricerca sono delle tecniche costruite per identificare e descrivere accuratamente le
variabili di un comportamento o di un fenomeno ed eventuali loro relazioni.
1. Ricerca d’archivio:
a. Concetti e scopi:
La ricerca d’archivio si basa essenzialmente sull’analisi dei dati di archivio. Questi sono
costituiti da osservazioni, misure o rilievi di vario genere, raccolti da persone diverse dal
ricercatore, spesso in istituzioni che hanno uno scopo diverso da quello del ricercatore, e
conservati in appositi archivi.
La ricerca di archivio viene utilizzata soprattutto per due scopi:
1) descrivere un particolare fenomeno;
2) delineare la relazione tra variabili, senza la pretesa di stabilire un rapporto causale.
b. Vantaggi e limiti della ricerca d’archivio:
La presenza del ricercatore provoca spesso reazioni nei soggetti esaminati. Questo
comportamento viene tecnicamente chiamato “effetto di reattività”.
gli studi che si basano sui dati di archivio hanno il pregio di non produrre l’effetto di
reattività, in quanto sono stati registrati al di fuori di un contesto di ricerca.
La ricerca d’archivio inoltre, ha il vantaggio di costituire l’unico mezzo per verificare le
ipotesi di determinati fenomeni, come quelli accaduti nel passato.
La ricerca d’archivio si qualifica come una metodologia povera, non ha bisogno di molte
risorse, di apparecchiature costose, di laboratori sofisticati. Richiede i permessi per
accedere alle registrazioni, aghi archivi, alle biblioteche, cosa che qualche volta costituisce
la difficoltà maggiore.
Tale metodo non può prescindere dalla selettività dell’archivio stesso e dalla sopravvivenza
selettiva dei dati. La selettività dell’archivio è legata al fatto che gli archivi non contengono
tutte le informazioni che il ricercatore vorrebbe trovare, ma solo quelle raccolte.
Con l’espressione “sopravvivenza selettiva” si indica il fatto che vengono conservate a
lungo solo certe registrazioni e non altre. Dopo un determinato periodo di tempo, molti
dati vengono distrutti, perché non più utili da chi li ha raccolti.
Un altro limite di questo metodo è legato all’accuratezza con cui so0no stati raccolti i dati.
L’affidabilità della ricerca d’archivio dipende dalla precisione, spesso non verificabile, con
cui altre persone hanno eseguito la registrazione.
2. Osservazione naturalistica:
O etologica, fa parte del capitolo più ampio dell’osservazione diretta del comportamento.
È una tecnica che permette allo studioso di raccogliere dati sul comportamento dei soggetti senza
interferire sul loro modo di comportarsi. Le caratteristiche rilevanti di questo metodo sono
soprattutto due: la non intrusività e la mancanza di artificialità della situazione in cui viene
condotta.
La non intrusività comporta che l’osservatore non manipoli le variabili che interessano e rimanga
completamente in disparte ad osservare ciò che accade.
Per salvaguardare la non intrusività sono stati escogitati parecchi accorgimenti. Tra questi, lo
specchio unidirezionale, gli ambienti ben mimetizzati da cui effettuare le osservazioni, gli strumenti
di registrazione audio-video.
La mancanza di artificiosità della situazione comporta che i soggetti vengano osservati nel loro
ambiente naturale, in quanto quello artificiale avrebbe scarsa validità esterna.
Quando si parla di osservazione condotta in ambiente naturale non significa che il ricercatore sia
svincolato da qualsiasi regola o che il suo lavoro sia asistematico e privo di ipotesi.
Infatti, una delle caratteristiche fondamentali dell’osservazione naturalistica è la sistematicità. Il
ricercatore scegli solo determinati aspetti, quelli che suppone siano più strettamente legati
all’ipotesi da verificare.
Poiché l’osservazione naturalistica viene fatta sugli organismi viventi nel contesto della loro vita
quotidiana, essa comporta decisioni più complesse di quelle richieste dalla ricerca d’archivio.
L’osservazione naturalistica è la tecnica che maggiormente rispetta il fluire naturale dei
comportamenti, poiché ha come strategia fondamentale il rispetto assoluto dell’ambiente
ecologico.
L’osservazione naturalistica ha anche diversi limiti, non è utilizzabile quando il ricercatore vuole
individuare le cause di un comportamento: dato che ognuno di essi può essere prodotto da più
variabili che operano indipendentemente o in combinazione, non ha i mezzi per isolarli. Il controllo
sui dati è modesto perché le variabili osservate non sono manipolate le sequenze comportamentali
non vengono isolate e analizzate nel loro reciproco rapporto.
Un altro limite comporta dei tempi molto lunghi.
a. Alcuni elementi fondamentali dell’osservazione naturalistica:
Non può prescindere da alcuna regola di conduzione, fra cui:
- Categorizzazione o classificazione: il comportamento degli individui va classificato in
categorie di comportamento. Importante non incorrere nell’errore categoriale, cioè l’errore
che attribuisce a categorie differenti un oggetto reale o mentale, invece lo stesso oggetto
appartiene a due categorie differenti.
- Tempo di osservazione: indica la quantità di tempo da dedicare a una ricerca. La durata di
questo tempo cambia di ricerca in ricerca.
- Unità di misura: durante la sessione osservativa si possono mettere in atto quattro
strategie generali per rappresentare adeguatamente i dati raccolti:
1. Eventi: semplice associazione tra alcune categorie di comportamento col
comportamento avvenuto.
2. Stati: permettono di registrare la durata di evento e la registrazione simultanea di due o
più flussi paralleli di comportamento.
3. Eventi temporali: simili agli stati. Oltre alla durata vengono registrati anche i
comportamenti di frequenza di cui non ha senso raccogliere la durata temporale.
4. Intervalli: applicati in maniera diversa. Stabilirli in anticipo o invece di dare una durata
prefissata il ricercatore fissa l’intervallo quando l’inizio o la fine dell’interazione sono
identici alle precedenti (intervallo naturale).
b. Osservazione, interpretazione e registrazione nell’osservazione naturalistica:
Nelle registrazioni è utile mantenere distinta la fase dell’osservazione da quella
dell’interpretazione. È importante annotare tutte le riflessioni, le connessioni causali che
l’osservatore fa e il grado di coinvolgimento emotivo nell’attuazione del compito.
ma se questi elementi di interpretazione non si tengono separati dalle cose che vengono
osservate, non si può più distinguere l’osservazione dall’interpretazione.
La registrazione del comportamento avviene con mezzi diversi.
Le note di osservazione, secondo Lofland dovrebbero essere costituite da:
a) descrizione dei fatti;
b) avvenimenti precedenti ricordati ora;
c) concetti e deduzioni analitiche;
d) impressioni e sensazioni personali;
e) note per informazioni aggiuntive;
La registrazione delle note non deve mai essere fatta contemporaneamente
all’osservazione stessa.
- Sistemi di registrazione analogici o digitali: sebbene i videoregistratori possono sembrare
un insostituibile supporto di osservazione, non è comunque possibile prescindere dal
vecchio metodo della carta e matita. A sfavore dei videoregistratori troviamo ancora che
l’attenzione richiesta dal loro uso va a scapito dell’attenzione nell’osservazione. Elementi a
favore della registrazione sono, la possibilità che essi offrono di riosservare le sequenze
comportamentali e confrontarle con le annotazioni, l’opportunità di rendere visibili
movimenti troppo veloci per l’occhio umano ed al contempo cogliere l’emotività prodotta
dall’evento se questo fosse presentato in forma meno brutale.
3. Lo studio di casi singoli:
Non va confuso con gli esperimenti sui singoli soggetti. È anzi un approccio alternativo a quello
sperimentale. Lo studio di casi singoli consiste nell’analisi intensiva del comportamento di una
singola persona, attraverso colloqui.
in genere gli studi di casi singoli sono sempre ricchissimi di informazioni, anche se da queste non è
quasi mai possibile, trarre conclusioni generalizzabili, perché ogni individuo è unico. Le conoscenze
cui danno luogo permettono di delineare delle ipotesi che possono essere verificate
sperimentalmente.
I dati vengono raccolti mediante i colloqui. Il ricercatore appunta le osservazioni a mano a mano
che il soggetto manifesta sentimenti e comportamenti. Ma lo studio del caso singolo non è solo una
descrizione dei fatti, comporta anche la loro organizzazione e interpretazione e integrazione.
a. Utilità, vantaggi e svantaggi degli studi del caso singolo:
Il modello si dimostra utile in due principali situazioni. Prima di tutto, quando il caso da
studiare è unico.
In secondo luogo, quando si vuole illustrare punti teorici o tecniche terapeutiche. Un
efficace modo di illustrare le differenze e le somiglianze tra i tre maggiori approcci di
terapia è di analizzare uno stesso caso nella prospettiva di ognuna di queste tre maggiori
scuole di pensiero.
Gli studi di casi singoli presentano il vantaggio di consentire descrizioni in profondità che
possono essere utili per ulteriori speculazioni e teorizzazioni.
Consentono di analizzare il flusso delle interazioni umane, di descrivere gli individui nella
loro piena complessità, invece di segmenti di comportamento o di categorie.
4. Le ricerche correlazionali:
La ricerca correlazionale è volta a determinare il grado di relazione tra due variabili, in genere non
manipolate né controllate nel vero senso di questi termini.
L’approccio correlazionale consente di fare delle previsioni. Se tra due variabili si riscontra una
elevata correlazione, non solo si descrive la loro relazione, ma è possibile predire il valore di una di
essere quando si conosce il valore dell’altra.
Il problema della terza variabile riguarda il fatto che, la correlazione riscontrata tra due variabili non
dipende esclusivamente dalla loro reciproca relazione, ma anche dall’influenza di una terza
variabile.
Un altro problema legato all’approccio correlazionale è la direzionalità. Anche se due variabili
correlano positivamente, non è sempre facile sapere quale delle due influisce sull’altra.
Oltre a essere utile nella ricerca pre-sperimentale per indentificare le variabili rilevanti, la ricerca
correlazionale è utile quando i veri esperimenti sono eticamente inammissibili.
5. Studi longitudinali e studi trasversali:
Analizzano i cambiamenti di sviluppo che si manifestano con il passare del tempo.
- Longitudinale: implica la scelta di un solo gruppo di soggetti e la misura costante nel tempo, ad
intervalli fissi, dei cambiamenti di qualche caratteristica.
- Trasversale: si identificano campioni rappresentativi di soggetti con livelli ed età differenti e si
rilevano i cambiamenti della stessa caratteristica in questi gruppi.
Un punto a sfavore di queste due tecniche è che non sempre hanno portato a risultati simili.
Questa differenza è stata attribuita a quello che è chiamato effetto della coorte di età.
gli studi longitudinali possono essere considerati casi particolari di disegni entro e tra i soggetti, la
maggior parte delle ricerche condotte con questi metodi sono ricerche descrittive.
6. L’inchiesta o “survey”:
È una tecnica descrittiva ampiamente usata, che consiste nel porre un certo numero di domande ad
un campione di persone rappresentativo di un’intera popolazione. Mediante un questionario
postale, oralmente, per telefono o mail. L’inchiesta mediante questionario a prospettiva sociologica
si distingue da un semplice sondaggio d’opinione perché mira a verificare le ipotesi teoriche e le
correzioni che queste ipotesi suggeriscono.
a) la realizzazione nello stesso momento;
b) l’utilizzazione di un insieme ordinato di domande;
c) la possibilità di una classificazione precisa delle risposte;
Quando si dice che le inchieste sono realizzate nello stesso momento si intende che la raccolta dei
dati deve essere completata nel più breve tempo possibile. Invece gli studi che vengono attuati in
un arco di tempo molto ampio, sono i cosiddetti studi di panel e studi di trend.
Gli obiettivi per cui l’inchiesta è particolarmente conveniente sono:
1. La conoscenza di condizioni, modi di vita, dei comportamenti, dei valori, delle opinioni, degli
atteggiamenti di una popolazione in quanto tale.
2. L’analisi di un fenomeno sociale che si pensa possa essere evidenziato meglio a partire dalle
informazioni raccolte direttamente dagli individui della popolazione in studio.
3. Quando è necessario interrogare un gran numero di persone perché si pone il problema di
rappresentatività.
I principali vantaggi dell’inchiesta sono:
1. La possibilità di quantificare i dati raccolti e di processare numerose analisi statistiche.
2. La facilità con cui si può ottenere la rappresentatività del campione intervistato.
i limiti e i problemi dell’inchiesta sono:
1. Le difficoltà e i costi generalmente elevati della tecnica.
2. La superficialità e la schematicità delle risposte.
3. L’individuazione degli intervistati che non sono considerati in rapporto con le loro reti di relazioni
sociali.
4. La relativa fragilità è debolezza dello strumento di misura.
7. La meta-analisi:
tale termine fu introdotto da Glass per indicare un approccio quantitativo ideato per integrare i
risultati di numerose ricerche relative alla stessa tematica, eseguite nel corso del tempo. In
psicologia, raramente un singolo studio offre una risposta esauriente e completa a un problema di
ricerca.
Per ottenere una risposta sufficientemente esaustiva si devono condurre numerose ricerche. In
psicologia, infatti, su quasi tutti gli argomenti vi è stata una proliferazione di studi.
in queste ricerche sono stati usati definizioni, campioni, variabili e procedimenti differenti. Per
questo motivo si è sentito il bisogno di integrare i risultati di tali ricerche.
attualmente esistono due classi di meta-analisi. Entrambe cercano di arrivare ad una conclusione
generale basando i propri risultati sugli indici statistici provenienti da singole ricerche; il primo tipo
di meta-analisi si basa sulla significatività delle ricerche, la seconda sugli indici di ampiezza
dell’effetto.
Il primo caso assume che siano state eseguite quattro ricerche per studiare l’efficacia di un tipo di
psicoterapia nel trattamento della depressione. Si supponga che in due di queste ricerche non sia
emerso alcun risultato significativo, perché il valore di probabilità raggiunto in questi studi è
rispettivamente di p=0,10 e p=0,08, quando è convenzionalmente stabilito che il valore di p, per
essere significativo, non deve superare 0,05; nelle altre due ricerche invece, l’effetto della
psicoterapia risulta significativo in quanto i valori sono p=0,04 e p=0,01 rispettivamente. È facile
capire che potrebbe dimostrarsi di notevole utilità la possibilità di combinare insieme i risultati di
queste quattro ricerche per poter far emergere un effetto significativo globale.
Il secondo tipo di ricerca tratta con l’ampiezza dell’effetto riscontrato nella ricerca.
8. I livelli di costrizione dei diversi metodi:
I metodi descritti in questo capitolo e i disegni sperimentali e quasi-sperimentali possono essere
ordinati sulla base delle limitazioni che impongono al ricercatore e all’affidabilità dei risultati
ottenuti. I vincoli tecnicamente vengono chiamati “livelli di costrizione”. Si tratta di
condizionamenti strettamente legati alle caratteristiche della ricerca, tra cui:
a) la natura del problema da indagare;
b) la quantità e il tipo di informazioni disponibili su di esso;
Sulla base di questi due elementi, le scelte del ricercatore potranno essere piuttosto aperte, oppure
molto particolareggiate.

Capitolo 9 – veri esperimenti


Costruire un disegno sperimentale vuol dire mettere a punto un insieme di elementi e di procedure che
consentano di dire che gli effetti riscontrati nella variabile dipendente sono causati dalla manipolazione di
quella dipendente.
In genere, i piani di ricerca vengono distinti in veri esperimenti e quasi esperimenti.
I veri esperimenti consentono allo studioso di avere un controllo completo su tutte le vaiabili della ricerca.
I quasi-esperimenti non controllano tutte le condizioni perché i soggetti possono essere sottoposti alle varie
condizioni sperimentali solo in ragione di raggruppamento già costruiti.
Proprio perché sono basati su gruppi già esistenti, i quasi-esperimenti talvolta vengono chiamati anche ex
post facto.
1. Opzioni procedurali per il disegno sperimentale:
L’impostazione dei diversi disegni sperimentali viene fatta sulla diversa combinazione delle
seguenti quattro opzioni procedurali.
1. La misura della variabile dipendente può essere eseguita sia prima che dopo il trattamento o solo
al termine del trattamento.
2. I modi di sottoporre a trattamento i gruppi sono:
a) ogni gruppo è sottoposto a un solo livello della variabile indipendente: disegno tra gruppi o tra
soggetti;
b) ogni gruppo è sottoposto a tutte le condizioni di trattamento: disegno entro i gruppi, entro i
soggetti o disegno a misure ripetute.
3. Il numero delle variabili indipendenti. Queste possono essere: una soltanto, due o più, in questo
caso si fa fronte a un disegno fattoriale.
4. Il controllo della variabile estranea viene eseguito mediante randomizzazione, pareggiamento o
metodo a blocchi.
In genere gli autori presentano i differenti piani sperimentali seguendo la divisione proposta dalla
modalità indicata al terzo punto, e illustrano prima i disegni con una sola variabile indipendente e
poi quelli con due o più variabili indipendenti.
1. Disegni con una sola variabile indipendente:
- Disegni sperimentali tra gruppi indipendenti;
- Disegni sperimentali entro i gruppi;
2. I disegni con due o più variabili indipendenti, o disegni fattoriali;
2. Disegni pre-sperimentali:
Alcuni piani di ricerca vengono spesso utilizzati per esplorare nuovi problemi o per mettere a punto
eventuali nuove ipotesi.
Proprio perché servono per compiti esplorativi, alcuni autori li chiamano disegni pre-sperimentali.
Questi disegni non forniscono alcuna garanzia alla validità.
a) Disegno con un solo gruppo ed una sola prova: si tratta di un piano in cui viene eseguito il
trattamento e il post-test ad un solo gruppo di soggetti. Da un punto di vista del controllo, questo
piano di ricerca ha i seguenti limiti: una totale carenza di validità interna e assenza di un qualsiasi
punto di paragone fisso.
b) Disegno con un solo gruppo e due prove: del tutto simile al precedente, ma contiene in più la
prova preliminare. Si rileva la velocità media di lettura prima del trattamento, si sottopongono i
soggetti alla condizione sperimentale, si somministra il post-test, si confrontano le medie ottenute
nelle due prove e si applica un appropriato test statistico. Tale disegno può apparire valido perché
si basa su una logica di confronto prima-dopo. In realtà presenta numerosi inconvenienti. Infatti da
un lato non assicura che il trattamento sia solo o anche il maggiore fattore della differenza dei
risultati tra le due misurazioni e dall’altro non controlla le minacce alla validità interna dovute alla
storia, alla maturazione, all’effetto della strumentazione, alla regressione statistica e alla mortalità.
c) Disegno con due gruppi non equivalenti ed una prova: comprende un gruppo di confronto, il
quale tuttavia non è un vero e proprio gruppo di controllo perché non è randomizzato. Un gruppo
di soggetti viene sottoposto al trattamento mentre l’altro no. Apparentemente il procedimento
sembra adeguato; il motivo è che nella comparazione finale si assume che i due gruppi fossero
equivalenti in partenza. Ma tale equivalenza non è stata verificata, perché i soggetti non sono stati
assegnati ai gruppi in modo randomizzato. Anche questo disegno può essere adoperato per un
esperimento vero e proprio, ma non come base per trarre conclusioni scientifiche.
3. Disegni con una sola variabile indipendente:
Essi si suddividono in piani tra gruppi e piani entro i gruppi.
i disegni tra gruppi comportano che i soggetti siano scelti in modo casuale dalla popolazione e siano
assegnati pure casualmente alle condizioni di trattamento; ogni soggetto deve essere sottoposto ad
una sola condizione sperimentale, per cui si avrà una sola prestazione e un solo punteggio per ogni
soggetto, il numero delle osservazioni corrisponderà al numero dei soggetti.
I piani entro i gruppi richiedono che i soggetti siano sottoposti a tutte le condizioni sperimentali, ciò
che viene assegnato casualmente è l’ordine di esposizione alle prove.
a. Piani tra gruppi con una sola variabile indipendente:
I piani a gruppi indipendenti comportano la presenza di due o più gruppi, i cui singoli
elementi devono essere:
a) scelti in modo casuale da una popolazione;
b) assegnati pure casualmente ai diversi livelli della variabile indipendente.
La pluralità dei gruppi richiesta da questi piani ha un ruolo fondamentale per controllare le
influenze delle variabili di disturbo. L’effetto del trattamento viene evidenziato
confrontando il rendimento di un gruppo sottoposto ad un livello della variabile
indipendente con quello di un gruppo differente che non riceve il trattamento o che è
sottoposto ad una condizione sperimentale dello stesso tipo ma di diverso livello.
i. Disegno classico e sue variazioni:
Comporta la presenza di due gruppi randomizzati, due prove e il trattamento per
un solo gruppo. Un gruppo sperimentale randomizzato viene sottoposto al pre-test,
al trattamento e al post-test. Ed un gruppo di controllo randomizzato esegue il pre-
test ed il post-test ma non subisce il trattamento.
a) Si scelgono i soggetti da una popolazione con uno dei procedimenti di
campionamento casuale;
b) Si assegnano i soggetti in egual numero al gruppo sperimentale e a quello di
controllo mediante randomizzazione;
c) Sia i soggetti del gruppo sperimentale che quelli del gruppo di controllo vengono
sottoposti al pre-test;
d) Si tengono costanti tutte le condizioni per ambedue i gruppi, ad eccezione del
trattamento;
e) Si sottopongono i due gruppi al pre-test e si trovano le medie dei punteggi;
f) Si confrontano le medie per determinare Se il trattamento è associato ad un
cambiamento a favore del gruppo sperimentale rispetto a quello di controllo;
g) Si applica un appropriato test statistico per verificare se la differenza tra i due
post-test è significativa.
Per quanto riguarda la validità interna, in questo disegno si possono escludere gli
effetti della regressione statistica, della selezione e della mortalità. Inoltre la
presenza del gruppo di controllo equivalente consente di analizzare gli effetti
dovuti alla storia, maturazione, fluttuazioni dello strumento di misura e alla
interazione tra mortalità e trattamento.
La validità esterna di questo disegno può essere delineata:
a) interazione tra pre-test e trattamento non può essere controllata;
b) sull’interazione tra selezione e trattamento si deve dire che i soggetti hanno
caratteristiche del tutto diverse da quelle delle persone a cui si vuole generalizzare
i risultati, non è possibile eliminare la presenza di errori sistemativi;
c) Anche l’interazione tra trattamento e altri fattori possono limitare la possibilità
di generalizzazione;
d) Gli effetti dovuti alla reazione ai procedimenti sperimentali possono
compromettere la generalizzazione.
in alcune circostanze è preferibile il piano in cui anche il gruppo di controllo
randomizzato è sottoposto al trattamento, purché il livello sia differente da quello
del gruppo sperimentale.
Nel caso si adoperassero tre gruppi invece di due, il terzo dei quali fa da gruppo di
controllo e non viene sottoposto a trattamento, il disegno diventerebbe ancora più
affidabile.
La validità interna di questo disegno risulta rafforzata rispetto a quella del disegno
classico perché sono controllati gli eventuali fattori di disturbo tra le due sessioni.
L’unico problema che può incorrere è la maggiore difficoltà di ottenere gruppi
omogenei col crescere del numero dei gruppi. Per quanto riguarda la validità
esterna, valgono le stesse osservazioni di quello precedente.
ii. Il disegno di Solomon:
Solomon ha ampliato in diversi modi il disegno classico basato su un solo gruppo di
controllo. Uno di questi è il piano che Campbell e Stanley hanno chiamato “disegno
a quattro gruppi randomizzati di Solomon”. Richiede quattro gruppi di soggetti, che
sono sottoposti alle condizioni sperimentali.
Questo disegno comporta un doppio esperimento: uno eseguito con il pre-test e
uno senza. Questo è anche il suo principale difetto: è molto difficile da attuare
perché molto articolato, sia perché richiede la disponibilità di un gran numero di
soggetti.
Il primo gruppo viene sottoposto ad ambedue le prove e al trattamento; il secondo
gruppo esegue ambedue le prove ma non la condizione sperimentale; il terzo
gruppo viene sottoposto al trattamento e alla seconda prova; il quarto gruppo
esegue il post-test. Tutti i gruppi devono essere randomizzati.
Il piano di Solomon consente tre importanti tipi di controllo.
1. Permette di verificare l’omogeneità del rendimento del gruppo sperimentale con
quello di controllo, dato che ambedue i gruppi sono sottoposti al medesimo pre-
test, e di verificare perciò l’efficacia del trattamento.

𝑇2 + 𝑇5 𝑇4 + 𝑇6

2 2

Questa è chiamata anche effetto principale del fattore sperimentale perché misura l’effetto del solo trattamento.
2. Permette di verificare se la presenza della prova preliminare produce qualche
effetto sul rendimento dei soggetti.

𝑇2 + 𝑇4 𝑇5 + 𝑇6

2 2

Se questa differenza risulta positiva e statisticamente significativa, si deve dire che è presente l’effetto principale della pro
3. Consente anche di controllare se esiste una integrazione tra prova preliminare e trattamento.

𝑇2 + 𝑇6 𝑇5 + 𝑇4

2 2

La validità offerta da questo disegno è quindi assai interessante, in quanto permette il controllo e la misura sia degli effett
− test, sia degli effetti di interazione tra pre − test e trattamento.
b. Piani entro i gruppi con una sola variabile indipendente:
I disegni entro i gruppi, comportano che tutti i soggetti siano sottoposti a tutte le condizioni
sperimentali.
i. Disegno a misure ripetute semplice:
a) Ogni soggetto è sottoposto a tutti i livelli della variabile indipendente; perciò i
punteggi di ogni condizione sono correlati tra loro;
b) Ogni soggetto viene valutato più di una volta sulla variabile dipendente;
c) il confronto critico consiste nel calcolare la differenza dei punteggi ottenuti dai
soggetti nelle due o più condizioni sperimentali.
Quando viene usato in modo appropriato, il disegno entro i soggetti presenta i
seguenti vantaggi:
1. Garantisce l’equivalenza dei gruppi rispetto a variabili importanti nelle varie
condizioni prima dell’esperimento.
2. È molto sensibile agli effetti della variabile indipendente rispetto ai disegni tra
gruppi.
3. L’attuazione corretta di questo piano comporta un numero di soggetti minore di
un disegno tra gruppi.
4. L’efficacia di questo disegno è aumentata dal fatto che non è necessario
impartire le istruzioni più volte perché ad essere sottoposti a più condizioni sono gli
stessi soggetti.
Il disegno entro i soggetti comporta anche dei limiti non trascurabili, primo fra tutti
l’effetto dell’ordine e della sequenza.
ii. Disegno controbilanciato entro i soggetti:
Viene adoperato quando ci si trova di fronte alle seguenti situazioni:
a) Non è possibile assegnare casualmente i soggetti ai vari livelli del trattamento
perché i gruppi devono rimanere intatti.
b) I livelli della variabile indipendente sono più di uno;
c) Il numero dei soggetti è limitato;
d) Non c’è la possibilità di applicare il pre-test;
Procedura:
1. Ogni gruppo di soggetti viene sottoposto ad ogni variazione della variabile
indipendente. Ogni gruppo è sottoposto a un livello per volta, ogni condizione di
trattamento precede e segue ogni altra condizione in eguale numero di volte.
2. Quando sono terminate tutte le sessioni, viene calcolata la media di ogni
variazione di X per ciascuna colonna. Il risultato è il punteggio medio di tutti i
gruppi che sono stati sottoposti alla particolare condizione del trattamento indicata
in testa alla rispettiva colonna.
a) il disegno controbilanciato elimina le differenze dovute al fatto che i gruppi
possono non essere equivalenti, poiché sottopone tutti i soggetti a tutte le
condizioni del trattamento.
b) Non controlla eventuali effetti di interazione;
c) Non controlla gli effetti di sequenza. Se questi esistono, si deve interporre una
certa pausa tra una prova e l’altra, in modo da consentire la dissoluzione di tale
influenza.
4. Disegni con più variabili indipendenti o disegni fattoriali:
Nella ricerca psicologica molto spesso è necessario analizzare l’effetto combinato di due o più
variabili indipendenti. In tal caso ci si trova di fronte ai cosiddetti disegni fattoriali. In un disegno
fattoriale la variabile dipendente è sempre quantitativa. E la tecnica statistica adeguata per tali
disegni è detta analisi della varianza o anche analisi della varianza fattoriale.
a. Caratteristiche dei disegni fattoriali:
I disegni fattoriali si caratterizzano:
1. Per la presenza di due o più variabili indipendenti, fattori, ciascun fattore è composto da
due o più livelli, uno dei quali è di controllo, l’altro prevedono il trattamento.
2. Per la presenza dell’effetto esclusivo di ciascuna variabile indipendente sulla variabile
dipendente. Effetto principale di ciascun fattore.
3. Per la presenza dell’effetto dovuto contemporaneamente alle due o più variabili
indipendenti. Effetto di interazione dei fattori.
Per verificare la supposizione che vi sia anche un effetto di interazione tra le due variabili
indipendenti il nostro ricercatore dopo aver trovato il modo di misurare la paura del
bambino, procede nel manipolare le due variabili differenti. Il fattore buio può essere
variato in due modi. Buio, luce e immagini può essere presentato a due livelli differenti:
immagini di paura e neutre. Ambedue le variabili indipendenti hanno due livelli e
combinandoli insieme, si otterrà una matrice a celle con quattro combinazioni di
trattamento. Il risultato sarà perciò un disegno fattoriale 2x2.
Le due variabili indipendenti, possono essere differenziate a più livelli, così il fattore A può
essere portato a tre livelli diversi: buio, luce debole e luce piena. E il fattore B anche:
immagini paurose, immagini neutre, immagini divertenti. Questa suddivisione dà luogo ad
un disegno fattoriale 3x3 che produce una matrice di nove celle.
b. Effetti principali e interazioni:
In metodologia si parla di interazione tra variabili quando l’effetto di una variabile
indipendente risulta diverso nei differenti livelli dell’altra variabile indipendente.
Lo sperimentatore estrae e assegna casualmente i soggetti alle quattro combinazioni delle
due condizioni per ciascun fattore.
- Effetto interattivo: si verifica tutte le volte che il risultato è diverso dalla somma degli
effetti principali, non solo più grande.
c. Possibili esiti di un disegno fattoriale:
Poiché l’azione di un effetto non esclude la possibilità che qualsiasi altro effetto agisca, i
possibili esiti di questo disegno fattoriale sono otto.
d. Progettazione di un disegno fattoriale:
La progettazione di un esperimento fattoriale a quella dei disegni con una singola variabile.
- Stabilire il problema;
- Definire le variabili operazionalmente;
- Sviluppare e definire le ipotesi di ricerca;
- Assegnare in modo randomizzato i soggetti alle condizioni;
- Determinare le misure dipendenti;
- Scegliere con cura i metodi statistici per misurare le risposte dei soggetti;
Lo scopo è di verificare una o più ipotesi casuali. Tuttavia i disegni fattoriali sono più
complicati dei disegni con una sola variabile indipendente.
Il disegno fattoriale 2x2 poiché ha due variabili indipendenti che devono essere manipolate,
ha una validità interna più fragile di un disegno con una sola variabile indipendente.
inoltre, poiché è essenzialmente un disegno composto da due disegni, contiene più di una
ipotesi nulla.
Ad esempio, in un disegno fattoriale 2x2, vi sono tre ipotesi nulle per ogni misura
dipendente.
a) nessuna differenza tra i livelli del fattore A;
b) nessuna differenza tra i livelli del fattore B;
c) nessuna interazione significativa tra i fattori A e B;
Con disegni fattoriali più complessi, si dovranno verificare più ipotesi nulle.
Lo si fa ricorrendo all’analisi della varianza.
5. Alcuni disegni fattoriali:
a. Disegno fattoriale completamente randomizzato:
Si parla di disegno fattoriale completamente randomizzato quando sono presenti
contemporaneamente:
a) due o più variabili indipendenti manipolate, con due o più livelli per ciascuna di esse;
b) quando ogni variabile indipendente è completamente incrociata con ogni altra variabile
indipendente, cosa che comporta che ogni livello di una variabile indipendente sia
combinata con ogni livello dell’altro fattore;
c) quando i soggetti sono assegnati in modo randomizzato ad ogni gruppo;
d) quando ogni gruppo è sottoposto solamente a una combinazione delle variabili
indipendenti.
b. Disegno fattoriale entro i soggetti (o a misure ripetute):
Oltre i disegni fattoriali tra soggetti esistono anche i disegni fattoriali entro i soggetti,
chiamati anche disegni fattoriali a misure ripetute. I gruppi sono sottoposti a tutte le
combinazioni dei fattori invece che a uno di essi.
Rispetto al disegno tra i soggetti, quello entro i soggetti comporta degli svantaggi che
derivano dal fatto che ogni soggetto è sottoposto ad ogni condizione. Questo può
consentire la presenza di effetti dovuti all’ordine e alla sequenza.
se gli effetti dell’ordine e della sequenza sono tenuti sotto controllo, allora i piani fattoriali
entro i soggetti offrono notevoli vantaggi. Questi sono:
a) Una maggiore sensibilità agli effetti della variabile indipendente;
b) L’equivalenza dei gruppi all’inizio e durante l’esperimento;
c) L’esigenza di un minor numero di soggetti;
d) Una migliore efficienza;
c. Disegni misti:
Alle volte le due o più variabili indipendenti che costituiscono un disegno fattoriale possono
essere di tipo diverso. Ad esempio, una tra i soggetti e uno entro i soggetti, oppure una
manipolabile e l’altra no. Questi piani vengono chiamati disegni misti. Tale termine è usato
in due modi differenti:
a) Nel primo significato indica un piano che include una variabile indipendente tra i soggetti
ed una entro i soggetti;
b) Nel secondo significato si intende un disegno fattoriale che comprende un fattore
manipolato ed uno non manipolato;
i. Disegno misto con fattori tra i soggetti ed entro i soggetti:
Tale disegno non presenta nulla di nuovo rispetto alle finalità descritte per i
precedenti disegni fattoriali, ad eccezione del fatto che nella scelta delle formule
dell’analisi della varianza si dovrà tener conto di questa combinazione.
La forma più semplice di un disegno del genere implica una situazione in cui due
variabili indipendenti variano in due maniere diverse. Uno dei fattori richiede tanti
gruppi di soggetti quanti sono i suoi livelli di variazione e l’altro fattore comporta
che tutti i soggetti siano sottoposti a tutti i livelli.
Questo disegno consente di verificare gli effetti principali di ciascun fattore, come
pure l’effetto di interazione tra le due variabili indipendenti. Tale verifica è attuata
con un minor numero di soggetti rispetto al disegno fattoriale completamente
randomizzato.
ii. Disegno misto con fattori manipolati e non manipolati:
il secondo tipo di disegni misti è composto da fattori manipolati e fattori non
manipolati, ed i soggetti sono assegnati in modo randomizzato alle condizioni della
variabile manipolata, mentre ai livelli del fattore non manipolato vengono
assegnati sulla base delle caratteristiche preesistenti.
Il problema presentato da questo disegno riguarda quello dell’interpretazione dei
risulatti, perché le variabili non manipolate comportano sempre degli effetti di
confusione, per cui è difficile fare inferenze causali basate sull’analisi degli effetti
principali delle variabili indipendenti.

Capitolo 10 – quasi-esperimenti ed esperimenti su singoli soggetti


Nelle ricerche psicologiche capita spesso di non poter utilizzare i veri esperimenti. La migliore soluzione è di
dirottare la scelta sui quasi-esperimenti.
Poiché non controllano tutte le variabili di disturbo, le inferenze basate sui loro dati non sono molto
affidabili. Tale limite è dovuto ad uno dei seguenti:
a) non è possibile manipolare a piacimento la variabile indipendente;
b) non si possono scegliere in modo casuale dalla popolazione i soggetti che devono formare il campione;
c) non si possono assegnare i soggetti ai gruppi in modo randomizzato;
Nei disegni quasi-sperimentali quindi è possibile:
- Stabilire l’ipotesi causale;
- Determinare almeno due livelli della variabile indipendente, ma non manipolarla a piacimento;
- Attuare Le procedure specifiche per verificare le ipotesi;
- Includere alcuni controlli sulle minacce alla validità;
- Assegnare i soggetti ai gruppi ma non in modo casuale.
1. Disegni con gruppi di controllo non equivalenti:
Si tratta di piani che comportano un procedimento simile a quello del disegno classico “classico” dei
veri esperimenti. Ad eccezione del fatto che i soggetti non sono assegnati ai gruppi in modo
casuale.
I gruppi si assomigliano solo per la loro facile reperibilità e vengono sottoposti al pre-test e
successivamente al post-test. I limiti di questi disegni dipendono dalla mancanze di un punto di
paragone fisso con cui confrontare i risultati del gruppo sperimentale. Il pregio, invece, è dato dal
fatto che costituiscono la soluzione migliore quando i gruppi formano delle entità naturali, che
devono essere mantenute intatte per studiarne le caratteristiche.
I due principali problemi:
a) La mancanza di equivalenza nei gruppi;
b) L’impossibilità di controllare con l’assegnazione casuale tutte le variabili parassite.
Le conseguenze dovute all’assenza di equivalenza dei gruppi vengono in genere limitate
componendo un gruppo di controllo quanto più possibile simile a quello sperimentale.
Ma anche se il grado di equivalenza del rendimento al pre-test fosse elevato, non è mai eliminata la
possibilità che possano influire altre variabili estranee. Per limitare tali effetti di disturbo è
importante isolare tutte le potenziali variabili di confusione, adottando le procedure di controllo.
a) si sottopongono i due gruppi al pre-test, al trattamento e al successivo post-test.
b) si calcolano le differenze tra i punteggi del pre-test e del post-test di ogni gruppo.
c) si applica un appropriato test statistico per verificare se vi è una differenza significativa tra le
differenze dei due gruppi.
La correttezza dell’uso e dell’interpretazione dei disegni con un gruppo di controllo non equivalente
richiede una notevole esperienza.
La validità interna può risultare abbastanza controllata quando:
a) i gruppi hanno medie e deviazioni standard simili nel pre-test;
b) il gruppo di controllo permette di evidenziare gli errori dovuti alla storia, al pre-test, alla
maturazione, alla strumentazione e al trattamento.
c) l’effetto dovuto alla mortalità è controllato mediante il confronto tra i risultati del pre-test e
quelli del post-test;
d) la regressione statistica è eliminata;
e) l’interazione tra selezione-maturazione e selezione-storia viene sufficientemente controllata.
Si deve sempre sospettare a motivo dell’assenza della randomizzazione, qualche differenza critica
contamini i risultati del post-test.
Per quanto riguarda la validità esterna, valgono le stesse osservazioni fatte a proposito del disegno
classico. Il piano con un gruppo di controllo non equivalente ha, però, il vantaggio di rispettare
l’integrità naturale dei gruppi e di non toglierli dal contesto della vita quotidiana.
2. Disegni a serie temporali interrotte:
Assomigliano a un disegno con un solo gruppo e due prove ma, invece di una singola misura prima
del trattamento e un’altra dopo, richiedono diverse misurazioni della variabile dipendente, a
scadenze ben definite, sia prima della condizione sperimentale che dopo. Prima del trattamento e
per un certo periodo di tempo, si effettuerà la prima serie di misurazioni, poi si darà luogo alla fase
della manipolazione. Infine si riprenderanno le misurazioni per un periodo di tempo.
La molteplicità delle misurazioni protratta nel tempo ha un ruolo molto importante. Consente,
infatti, di evidenziare la tendenza dei dati prima della condizione sperimentale, chiamata linea di
base, che viene utilizzata come punto di paragone fisso per l’andamento dei dati raccolti dopo il
trattamento. Tale confronto ha funzione di controllo.
a. Disegni a serie temporali interrotte semplice:
Quando si dispone di un solo gruppo di soggetti. Un esempio è quello di Graziano volto a
studiare il comportamento violento dei bambini autistici. Lo studio fu condotto su quattro
bambini autistici. La serie di misurazioni prima del trattamento durò un anno intero, poi fu
applicato il trattamento. Interrotto esso, fu ripresa la serie di misure per un altro anno
solare. La linea di base dopo il trattamento non assomiglia affatto a quella riscontrata
prima del trattamento.
Tale disegno offre la possibilità di utilizzare dati raccolti in passato e confrontarli con quelli
che si stanno raccogliendo nel momento di ricerca e può essere usato anche per studiare
fenomeni su larga scala.
b. Disegni a serie temporali interrotte multiple:
Un interessante sviluppo del disegno a serie temporali interrotte è quello a multiple.
Tale piano utilizza un secondo gruppo di soggetti che non è sottoposto al trattamento. In
questo modo si ottengono due indicazioni sulla efficacia del trattamento.
1. La prima è data dal confronto tra rendimenti pre-sperimentali e post-sperimentali
misurati sullo stesso gruppo.
2. La seconda proviene dal confronto con il rendimento del gruppo di controllo che non
riceve il trattamento.
Questo piano ha il pregio di permettere il controllo degli effetti di confusione dovuti alla
storia.
Molte altre minacce vengono controllate. Invece, non è possibile controllare l’interazione
fra trattamento e prove, poiché l’introduzione dell’intervento è successiva alla serie di
misure pre-sperimentali. Un altro limite di questo piano è il carattere graduale o differito
dell’effetto del trattamento, per cui non è sempre facile sapere se i cambiamenti sono
dovuti al trattamento o alla presenza di altre variabili di disturbo.
3. Disegni simulati prima-dopo:
Quando le ricerche sono condotte sul campo, non si può sempre assegnare casualmente i soggetti
a differenti livelli di trattamento. In molte circostanze, però, è possibile esercitare un sufficiente
controllo sui momenti di registrazione delle prove preliminari e del post-test, come pure sui
campioni.
Negli studi su grandi popolazioni è possibile rilevare l’impatto esercitato da un intervento
qualunque sull'insieme della popolazione se si possono raccogliere e misurare i dati della variabile
che interessa sia prima che accada l’evento che modifica la variabile, sia dopo.
In questi tipi di ricerche si possono adoperare i seguenti due disegni:
1. Piani a campione differente nel pre-test e post-test.
2. Piani a campione differente nel pre-test e post-test, con o senza trattamento.
a. Piani a campioni differenti nel pre-test e nel post-test:
Si supponga che il consiglio di facoltà di una grande università promuova una campagna
pubblicitaria per una appropriata e corretta utilizzazione della biblioteca.
Per valutare l’impatto della campagna pubblicitaria sui 10.000 iscritti alla facoltà, all’interno
della popolazione si possono formare due gruppi di soggetti: quello sperimentale e quello
di controllo.
a) si misurano le abitudini di consultazione del gruppo di controllo prima dell’inizio della
campagna pubblicitaria;
b) una volta che questa è terminata, si misurano le abitudini di consultazione del gruppo
sperimentale;
c) si confrontano i dati ottenuti nella prova preliminare del gruppo di controllo con quelli
ottenuti nel post-test dal gruppo sperimentale.
Questo disegno a campioni differenti nel pre-test e nel post-test.
b. Piani a campioni differenti nel pre-test e nel post-test con o senza trattamento:
Questo disegno richiede che il gruppo sperimentale e quello di controllo siano a loro volta
suddivisi in due sottogruppi. I sottogruppi 1 e 2 del gruppo sperimentale corrispondono a
quello di controllo del disegno a campioni nel pre-test e nel post-test. I sottogruppi 3-4 del
gruppo di controllo sono rispettivamente sottoposti a pre-test e post-test. L’efficacia del
trattamento viene verificata confrontando la differenza osservata tra i risultati dei
sottogruppi 1-2 e quella dei sottogruppi 3-4.
È possibile però che i risultati siano influenzati da certe variabili esterne che intervengono
solo nel gruppo sperimentale. In tal caso si può pensare all’interazione tra selezione e
fattori storici.
4. Gli esperimenti sui singoli soggetti:
Anche se si tratta spesso di disegni sperimentali la loro struttura ricalca da vicino i disegni a serie
temporali interrotte.
La legge della psicofisica classica e i metodi psicofisici indiretti per misurare le soglie differenziali.
Ebbinghaus eseguì gli studi sulla memoria usando se stesso come soggetto. Wundt misurò le varie
risposte psicologiche e comportamentali su soggetti singoli.
La soluzione adottata per sostenere la validità scientifica del loro lavoro consisteva nel fare
numerose osservazioni e nel replicare le prove per verificare la somiglianza dei risultati.
a. Vantaggi degli esperimenti su soggetti singoli:
Sebbene la ricerca su gruppi sia ormai di gran lunga la più seguita, si deve rilevare che
l’esperimento sui soggetti singoli presenta dei vantaggi che la ricerca sui gruppi non offre.
i. La prestazione individuale:
Già nel 1918 Skinner denunciava il fatto che la maggior parte dei dati empirici
provenissero dall’impiego di una metodologia centrata sullo studio di più soggetti.
Sidman faceva notare che la prestazione media di un gruppo rappresenta il
comportamento di un individuo inesistente. Le basi del suo comportamento era
che gli esperimenti sui gruppi comportano il confronto dei valori medi del
rendimento di più persone. In questa media si perdono le informazioni sulla
specificità del comportamento dei singoli individui.
ii. Evidenziamento dei grossi effetti:
Per comprendere cosa significa ci si deve rifare ad alcuni concetti di statistica. La
potenza di un test statistico è data dalla probabilità di rigettare l’ipotesi nulla (H0)
quando è falsa nella popolazione.
Poiché nell’ipotesi nulla si suppone che non vi sia differenza significativa tra due
campioni scelti casualmente e sottoposti a trattamento diverso, la potenza di un
test è la sua capacità di rigettare tale uguaglianza quando questa effettivamente
non c’è. Così si può dire che la potenza di un test è la probabilità di pervenire ad
una decisione corretta.
Potenza di un test è uguale a 1 – β, in cui β indica la probabilità di commettere un
errore di secondo tipo, cioè di accettare l’ipotesi nulla quando è falsa.
Dalla statistica si sa che la probabilità di commettere un errore di secondo tipo è
inversamente proporzionale all’ampiezza del campione.
Ma questa regola non è applicabile agli esperimenti con un soggetto solo. In tal
caso il metodo consiste nel potenziare l’entità dell’effetto sperimentale. Si deve
elevare l’intervallo tra i valori della variabile indipendente utilizzati per definire le
condizioni sperimentali.
In un esperimento condotto su grandi gruppi di soggetti è probabile scoprire che
una variabile indipendente produce un effetto significativo, anche se tale effetto è
piccolo; mentre negli esperimenti su soggetti singoli, è necessario che l’effetto sia
consistente.
iii. Flessibilità del disegno:
Il disegno sui singoli soggetti è assai più facile e flessibile del disegno sui gruppi.
Lavorando con campioni di soggetti è necessario formare dei gruppi che siano
omogenei. Inoltre se nel corso di un esperimento, un ricercatore scopre che un
soggetto non risponde a un rinforzo che ha funzionato con altre persone,
l’intervento di modifica diventa oneroso e richiede tempi lunghi; mentre se sta
lavorando con un solo soggetto può intervenire immediatamente cambiando i
rinforzi o le istruzioni senza troppa fatica. Il disegno sui soggetti singoli permette
interventi da parte dello sperimentatore più tempestivi e meno dispendiosi.
Il fatto che questi disegni non esigano l’esame di soggetti di controllo, consentono
di interrompere il trattamento appena questo si è dimostrato efficace.
b. Caratteristiche strutturali:
I piani sperimentali sui soggetti singoli vengono spesso confusi con gli studi sui casi singoli,
mentre i primi tendono a precisare la relazione causale esistente tra variabili indipendenti e
dipendenti nei soggetti singoli, i secondi hanno per compito la descrizione di una singola
persona, o aspetti particolari del suo comportamento.
i. Manipolazione delle variabili:
I disegni sperimentali sui singoli soggetti richiedono necessariamente l’introduzione
di una sola variabile indipendente per volta. Qualora si introducessero
contemporaneamente due variabili, sarebbe impossibile determinare in che misura
ognuna di esse contribuisce al cambiamento osservativo.
ii. Valutazione dell’effetto del trattamento:
Per quanto riguarda la valutazione dei risultati degli esperimenti sui soggetti
singoli, si deve dire che non sempre i ricercatori ricorrono alle analisi statistiche.
Spesso preferiscono rappresentare i risultati mediante grafici, dove l’andamento
delle curve indica chiaramente l’evoluzione del comportamento del soggetto
durante le differenti fasi dell’esperimento. Queste due diverse procedure si basano
su due criteri differenti di valutazione: uno sperimentale ed uno clinico.
Il criterio sperimentale è certamente associato ad un effetto statisticamente
significativo del trattamento; mentre il criterio clinico riguarda il grado di
cambiamento capace di permettere all’individuo di comportarsi adeguatamente
alla società.
c. I disegni di ricerca sui singoli soggetti:
Il più primitivo disegno sperimentale sui casi singoli è indicato dalle lettere A-B, in cui A
indica la fase di misura delle linee di base, e B quella del trattamento. Tuttavia, il disegno A-
B è poco usato, ed in genere è ampliato con l’aggiunta di un’altra fase, volta a verificare
l’effetto del trattamento. Anche questa fase è indicata con la lettera A. Così esso diventa
come disegno A-B-A. Esso presenta due problemi.
Il primo riguarda la reversibilità del comportamento al livello della fase antecedente al
trattamento. Se questo ritorno non si verifica completamente, il piano A-B-A risulta
deformato; in effetti non ha luogo la seconda fase della linea di base.
Il secondo problema del disegno A-B-A è deontologico. In certi casi può essere desiderabile
lasciare il soggetto nella nuova condizione determinata dal trattamento anziché riportarlo
allo stato originale.
Il disegno B-A-B consente di evitare che l’esperimento termini con un ritorno al livello di
base. Esso comporta le seguenti tre fasi:
1. Prima presentazione del trattamento;
2. Assenza che coincide con il rilevamento della linea di base;
3. La seconda presentazione del trattamento;
Questo piano è utile quando è superfluo stabilire il livello di base dato che è già acquisito.
Poiché in questo disegno il trattamento viene somministrato nella fase iniziale e non in
quella di mezzo, i risultati cui dà luogo non possono essere confrontati con una precedente
misura del comportamento; quindi formulare delle relazioni casuali è poco corretto.
Il disegno A-B-A-B è praticamente un disegno a trattamenti ripetuti. La ripetizione del
trattamento ha un duplice scopo: prima di tutto, di permettere al soggetto di continuare a
godere del beneficio ottenuto con l’azione della prima somministrazione del trattamento,
beneficio che viene rafforzato dalla seconda fase del trattamento; in secondo luogo, di
consentire un’ulteriore diminuzione degli aspetti negativi di un comportamento.

Potrebbero piacerti anche