Sei sulla pagina 1di 53

CAP.

1
L’epistemologia (letteralmente “discorso sulla scienza”) si occupa proprio
dei problemi del sapere scientifico sia nel suo procedere logico sia nei
metodi di verifica. Problemi dell’epistemologia:
a) chiarire e precisare le nozioni del discorso scientifico
b) classificare le diverse discipline scientifiche e individuarne i
fondamenti
c) comprendere i rapporti fra teoria ed esperienza
d) studiare il processo di sviluppo della conoscenza scientifica
e) analizzare i rapporti tra scienza, cultura e organizzazione
economico-sociale

Lungo il corso della storia del pensiero occidentale si possono distinguere


tre differenti concezioni di scienza:
- dimostrazione
- descrizione
- autocorregibilità

LA CONCEZIONE DIMOSTRATIVA DELLA STORIA


Già nei primi secoli della Grecia classica si iniziò a distinguere tra:
- scienza: tipo di conoscenza assolutamente certo
- opinione: conoscenza priva di certezza
Il cosiddetto problema della conoscenza consisteva nel determinare la via
per raggiungere la scienza.
Secondo l’ideale classico, la scienza garantiva la propria validità perché
dimostrava le proprie affermazioni, cioè le connetteva in un sistema
unitario nel quale ciascuna di esse era necessaria e nessuna poteva essere
tolta, aggiunta o mutata. Chi nell’antichità realizzò in maniera perfetta
quest’ideale di scienza fu Euclide nei suoi Elementi, opera in cui portò la
matematica a livello di scienza perfettamente deduttiva; è giudizio
unanime che le uniche discipline in cui fu raggiunta la scienza siano state
la matematica e la logica formale.
La scienza moderna non ha messo in crisi questo ideale, anche se le
dottrine moderne si accontentano di un’esigenza assai più debole, poiché
si limitano a ritenere che le proposizioni che costituiscono il corpo
linguistico della scienza siano tra loro compatibili, cioè non
contraddittorie.

METODO DEDUTTIVO E METODO INDUTTIVO


Sono due modi di pensare o ragionare. La logica di base della loro
differenziazione può essere fatta risalire ad Aristotele, secondo cui il
ragionamento induttivo parte dal particolare e arrivs a principi di carattere

generale, mentre quello deduttivo procede dall’universale e giunge al


particolare.
METODO INDUTTIVO: “poiché gli oggetti di una certa classe che
hanno una proprietà A godono anche di una proprietà B, allora tutti gli
altri oggetti che hanno la proprietà A godranno della proprietà B”. la
conclusione del ragionamento induttivo può essere falsa anche se le
premesse sono vere, perché nelle premesse non sono inclusi tutti i casi e
quindi la generalizzazione può essere indebita. Inoltre, nel ragionamento
induttivo è incluso il concetto di probabilità: un concetto riscontrato non è
mai una certezza ma una regola probabilistica. Tale metodo presenta 4
tappe:
1) osservazioni specifiche
2) individuazione di regolarità
3) formulazione delle ipotesi
4) formulazione della teoria

METODO DEDUTTIVO: “date alcune premesse di carattere generale e


un caso particolare che rientra nella categoria, si giunge a una
conclusione che ne consegue logicamente. Se le premesse sono vere, ne
consegue una conclusione vera. Anche tale metodo presenta 4 tappe:
1) formulazione di una teoria
2) formulazione di ipotesi specifiche
3) osservazioni
4) verifica delle ipotesi

CAP.2- IL PROCESSO DI RICERCA


Le ricerche psicologiche tendono a risolvere sia problemi teorici che
pratici. I primi danno luogo alla “ricerca di base”, chiamata anche
fondamentale o pura, ha l’obiettivo di aumentare le conoscenze teoriche
su un dato argomento, senza uno scopo pratico. La “ricerca applicata”
utilizza teorie, metodi e strumenti della ricerca di base per la soluzione
pratica di problemi concreti. Il processo di ricerca è però identico e
prevede alcune fasi:

1.identificazione del problema di ricerca


2.pianificazione del disegno sperimentale
3.fase delle osservazioni
4.fase dell’analisi dei dati
5.fase dell’interpretazione dei dati
6.fase della comunicazione dei risultati

IDENTIFICAZIONE DEL PROBLEMA DI RICERCA

La ricerca scientifica inizia dai problemi. Un problema è una


contraddizione tra una teoria e un fatto; di solito genera nel ricercatore
un’idea anticipatoria volta a spiegare il contrasto osservato, diventando
così il punto di partenza della ricerca. Le fonti più comuni dei problemi
della ricerca psicologica sono:

• interessi personali del ricercatore: importanti sia perché lo stimolano a


individuare i problemi, sia perché gli suggeriscono la direzione del
lavoro di ricerca e lo aiutano a proseguirlo. Tali interessi possono
riguardare i temi più vari e ognuno può servire da punto di partenza
per la ricerca.
• Fatti paradossali e fortuna: quando essi pongono al ricercatore esperto
un problema rilevante, si parla di “serendipità”, ossia il dono di
fare delle scoperte utili alle quali non si mirava.
• Tentativi di risolvere problemi pratici
• Le teorie e i risultati delle ricerche: un aspetto utile delle teorie è la loro
capacità di far sorgere nuove problematiche, di essere il punto di
partenza di nuove ricerche e ciò possono farlo in due modi:
euristicamente (!una teoria genera un enorme interesse dal quale
prendono avvio numerosi studi e ricerche) o sistematicamente (!
quando le teorie o le ricerche fanno affermazioni esplicite e
direttamente verificabili).
• Competizione: in alcuni sistemi esistono dei meccanismi, istituiti di
solito per aumentare il livello di qualità della ricerca, che si basano
sulla competizione tra diversi ricercatori. A volte questi
meccanismi possono produrre delle disfunzioni: i ricercatori
tendono a focalizzarsi sugli ambiti che rendono di più in termini di
carriera o si adeguano alle “mode” scientifiche ecc. e perciò
tendono a formulare delle ipotesi più sulla base di fattori esterni
che sulla base del valore intrinseco delle ipotesi.

DOMANDE DI RICERCA, IPOTESI DI RICERCA, IPOTESI


STATISTICHE

DOMANDA DI RICERCA: serie di quesiti più specifici, sollevati


dall’identificazione di un problema rilevante dal punto di vista teorico e/o
sociale, che guideranno l’intera ricerca e che nascono da mancanza di
conoscenza o da alcune lacuna nella teoria.

IPOTESI DI RICERCA: congettura che il ricercatore intende verificare

sulle relazioni esistenti tra le variabili, espressa tramite un’affermazione


condizionale: “ Se accade x, allora si osserva y”. Essa collega almeno due
variabili e deve essere operazionalizzata, verificabile empiricamente e
può essere espressa in forma matematica o grafica.

L’ipotesi di ricerca dà luogo a due IPOTESI STATISTICHE:

• ipotesi nulla (H0): afferma la mancanza dell’effetto ipotizzato


• ipotesi alternativa (H1): afferma la presenza dell’effetto ipotizzato
Le due ipotesi si escludono reciprocamente, o è vera l’una o è vera l’altra.

FASE DELLA PIANIFICAZIONE DEL DISEGNO DI RICERCA

Questa fase porta a una serie di scelte che portano a delineare il disegno
della ricerca nel suo complesso. Durante questa tappa vanno prese anche
le decisioni sui soggetti da sottoporre alle prove e si devono analizzare i
problemi etici legati all’attuazione dell’esperimento.

FASE DELLE OSSERVAZIONI O RACCOLTA DATI

In questa fase il ricercatore mette in atto le procedure stabilite


precedentemente e raccoglie i dati che saranno oggetto di studio nelle
tappe successive. La ricerca ruota attorno alle “osservazioni empiriche”
che costituiscono i fatti della ricerca.

MISURAZIONE E SCALE DI MISURA DELLE VARIABILI

Secondo la teoria della misurazione di Stevens (1946) la “misurazione” è


l’associazione tra una categoria e oggetti, eventi o individui in base a
regole di corrispondenza. In questa definizione sono presenti tre elementi
fondamentali:

• realtà: ciò che viene misurato


• insiemi di categorie: possono avere diverse caratteristiche e si applicano
alla realtà per eseguire misurazioni
• regole di corrispondenza: devono essere applicate affinchè la
misurazione sia corretta.

Misurazione di un sistema empirico: costruzione di un sistema numerico


in modo tale che ci sia una relazione di omomorfismo (=stessa forma)
con il sistema empirico; l’attribuzione simbolica del sistema numerico
deve mantenere inalterata la struttura dei legami relazionali presenti nel

sistema empirico.

Caso o soggetto: ciò a cui si applica la misurazione e che solitamente


viene assegnato a una delle condizioni sperimentali. Esso può essere
formato da esseri umani (partecipanti) ma anche da animali, oggetti del
mondo reale, eventi… quando si effettua una misurazione su un soggetto,
si utilizza un sistema di categorie detto “variabile”: qualsiasi
caratteristica (fisica o psichica) del soggetto che può assumere valori
diversi in un dato intervallo e che varia da individuo a individuo; è una
caratteristica che può essere misurata. Ogni variabile può avere valori
differenti e può essere espressa con scale di misura diverse. Ciascuna
variabile è formata da un insieme di categorie che esprimono il suo
ambito di variazione e che vengono detti “livelli o “modalità”.

Dati: prodotto della variazione.

Stevens individua 4 categorie di variabili sulla base della scala utilizzata


per la misurazione, cioè sulla base delle relazioni intercorrenti tra i livelli
di variazione di una variabile:

• variabile nominale: quando i livelli sono costituiti da categorie discrete


che non possono essere ordinate in alcun modo. Ai livelli della
variabile possono essere assegnati dei nomi (“maschi” e
“femmine”) o dei codici astratti (a,b,c,d…) ma MAI dei valori
numerici o ordinali.
• Variabile ordinale: quando i livelli, oltre a essere diversi, sono anche
indicati in modo che uno venga prima dell’altro e non hanno valore
numerico; possono ordinare le variabili in base a una determinata
caratteristica, ad es. la classe sociale. A ogni livello può essere
assegnato un valore ordinale (I, II, III…) ma mai un valore
numerico.
• Variabile a intervalli equivalenti: quando i livelli della variabile
possono essere oltre che ordinati, anche numerati, cosicchè ciascun
livello corrisponda a un numero e l’intervallo tra un livello e
quello adiacente sia costante. In psicologia molte variabili sono a
intervalli: il QI, i test di atteggiamento, gli inventari di
personalità… In questo caso anche il valore “zero” è un valore
arbitrario assegnato a un livello e non è uno zero assoluto.
• Variabile a rapporti equivalenti: quando oltre ad avere diversità, ordine
ed equivalenza dell’intervallo, nella scala una variabile contiene
uno zero che indica vera assenza di quantità misurata.
Le variabili nominali e ordinali vengono dette “qualitative”, quelle a
intervalli e a rapporti “quantitative” o “metriche”:

• misurazione a scala qualitativa: produce una classificazione o codifica,


che con un minimo di elaborazione produce una frequenza; perciò
sono anche dette “variabili di frequenza” ed esprimono quanti
eventi, quanti individui o quanti oggetti sono presenti in ciascun
livello della variabile. Una misurazione con scala qualitativa
produce anche un “punteggio”, che esprime spesso l’intensità di un
fenomeno.
Nella logica della scala di misurazione di Stevens ogni livello più
complesso incorpora le caratteristiche fondamentali del livello
precedente, a costo di una semplificazione o di una perdita di
informazioni, ma non il contrario.

Una volta eseguite le idonee misurazioni per verificare le ipotesi di


ricerca, i dati vanno organizzati in una “matrice di dati”, uno strumento
fondamentale per organizzare in maniera sistematica i dati raccolti
rispetto a ciascun soggetto e a ciascun caso. Per ciascun soggetto, la
matrice permette di individuare in modo preciso il gruppo di cui fa parte e
la misura dell’atteggiamento. I più comuni programmi di elaborazione
sono Excel (programma di gestione dei dati) e SPSS (elaboratore per le
analisi statistiche).

METODO PER INDIVIDUARE CORRETTAMENTE LA SCALA DI


MISURA DI UNA VARIABILE

1.I livelli della variabile sono ordinabili?


NO: la scala è nominale

SI:

! 2. Gli intervalli tra i livelli della variabile sono equivalenti?

NO: la scala è ordinale

SI:

! 3. Lo zero indica veramente l’assenza della qualità misurata?

NO: la scala è a intervalli

SI: la scala è a rapporti

IL RUOLO DELLE VARIABILI NELLA RICERCA

In un esperimento, i ricercatori sono interessati a due particolari variabili


che si suppongono connesse, le variabili sperimentali. La supposizione di
una loro connessione costituisce, molto spesso, l’ipotesi di ricerca da
verificare.

Criteri alla base della distinzione delle variabili:

1. riguarda il livello di precisione nella misurazione, per cui vengono


distinte in variabili “continue” e “discrete”:
• continue: variabili che all’interno del proprio ambito di variazione può
assumere i valori di tutti i numeri reali (es: altezza delle persone,
durata degli eventi, peso…). Sono necessariamente variabili
quantitative.
• discrete: variabili che possono assumere solo un numero discreto di
valori all’interno del loro ambito di variazione o tra due loro punti
qualunque (es: numero di bambini in una famiglia, studenti di
un’aula scolastica, numero di abitanti di un paese, volumi di una
biblioteca, colore degli occhi…). Esse possono essere tanto
qualitative (colore degli occhi) quanto quantitative (numero di
figli).
2. relativo al ruolo che hanno le variabili all'interno dell'esperimento, che
le distingue in:
a) variabili indipendenti: stimoli o eventi comportamentali che si sospetta
causino cambiamenti su altri eventi o comportamenti (variabili
dipendenti). Esse si distinguono a loro volta in:
- manipolate: possono essere manipolate e controllate attivamente dal
ricercatore
- non manipolate: non possono essere controllate a piacere dal ricercatore
e spesso esistono "in natura" (QI, appartenenza religiosa, età...)
b) variabili dipendenti: variazioni di determinati comportamenti che si
suppone dipendano dalle modifiche delle variabili indipendenti.
Si può inoltre distinguere tra ricerche "ad alta costrizione" ( il controllo di
tutte le variabili è elevato --> esperimenti in laboratorio)e " a bassa
costrizione".

3. riguarda il ruolo che possono avere le variabili nel confondere una


relazione tra una variabile indipendente e una variabile dipendente. In
base a questo criterio si possono distinguere due tipi di variabili:
a) variabile di disturbo o confondente: variabile non controllata che
covaria con la variabile indipendente ma è estranea ad essa; costituisce
una minaccia alla validità interna perchè è una messa in discussione
dell'esistenza del nesso causale individuato.

b) variabile confusa: variabile non controllata che covaria con la variabile


indipendente ed è intrinsecamente associata ad essa o alla sua
operazionalizzazione. Essa costituisce una minaccia alla validità del
costrutto perchè si mette in discussione la validità della spiegazione
dell'esistenza dell'effetto. Il controllo delle variabili confuse è più
complicato e si compie sostanzialmente attraverso la corretta
programmazione e pianificazione del disegno di ricerca e della variabile
indipendente.

4. riguarda l'errore che si compie durante la misurazione. Si distinguono


due tipi di variabili:
a) variabili che inducono errori casuali
b)variabili che inducono errori sistematici

5. riguarda le possibilità di osservare direttamente la variabile e distingue


le variabili in latenti e manifeste, dove una variabile "latente" è una
variabile che non può essere osservata ma di cui si ipotizza l'esistenza per
spiegare altre variabili che possono essere osservate direttamente, le quali
vengono dette "manifeste".

FASE DELL'ANALISI DEI DATI


Per diventare comprensibili, le osservazioni empiriche vengono
codificate in forma numerica e disposte secondo un qualche ordine atto a
permetterne l'elaborazione statistica. La matrice di dati e la tabella di
contingenza sono due di questi modi. Queste consentono di descrivere
grandi quantità di informazioni e di evidenziarne la significatività.
In genere, in questa fase vengono eseguite le elaborazioni descrittive sul
campione e i test statistici che permettono di prendere delle decisioni e di
verificare le ipotesi.

FASE DELL’INTERPRETAZIONE
In questa fase il ricercatore deve verificare due cose:
a) se i risultati danno una risposta all’ipotesi di ricerca
b) se tale risposta contribuisce ad approfondire la conoscenza del
problema.

FASE DELLA COMUNICAZIONE


La divulgazione dei dati scientifici avviene attraverso tre canali:
1) comunicazioni orali nei convegni
2) articoli nelle riviste scientifiche
3) libri
Il resoconto di una ricerca scientifica richiede la descrizione dettagliata
sia dei risultati che delle procedure, in modo da offrire tutti gli elementi

necessari per una eventuale sua ripetizione, importante in quanto


costituisce un metodo di controllo.

CAP.3- COMUNICAZIONE, PRINCIPI ED ESEMPI DI


RICERCA

COME SI LEGGE O SI SCRIVE UNA RICERCA?


La pubblicazione scientifica appartiene a un genere letterario. Sebbene
essa abbia un linguaggio tecnico e specialistico, è coerente e semplice ed
è caratterizzata dalla presenza di un filo conduttore che va dalle domande
irrisolte alla loro soluzione, o ai tentativi di soluzione, passando per la
descrizione puntuale delle modalità con le quali si è giunti alla risposta.
La struttura di una pubblicazione di ricerca in una rivista scientifica è
formata da 7 parti:
1) Titolo, autori e istituzione di appartenenza: l’ordine degli autori
indica solitamente l’importanza del contributo fornito da ciascun
autore

2) L’introduzione teorica: solitamente solleva delle problematiche


rilevanti a cui la ricerca vuol dare risposta; propone una breve e
aggiornata “rassegna della letteratura” per mostrare come altri
autori a titolo diverso abbiano contribuito all’argomento, quali
siano stati i modelli o gli approcci teorici a quel problema e i
tentativi precedenti di risoluzione (ogni frase o concettualizzazione
di altrui provenienza dovrebbe contenere una citazione tra
parentesi con il nome degli autori e l’anno di pubblicazione);le
questioni e le problematiche di carattere generale discusse sono poi
trasformate in specifiche “ipotesi” che sono formulate
esplicitamente.

3) Il metodo: questa sezione è schematica e riporta le informazioni e


le modalità con cui la ricerca è stata condotta, affinché qualsiasi
altro ricercatore possa replicare la stessa ricerca. Lo stile
linguistico adatto per questa parte è di tipo descrittivo. Nelle
pubblicazioni di ricerca in contesti scientifici, la descrizione del
metodo è divisa in sezioni:
- “soggetti o campione”: fornisce delle informazioni di base sul
numero e le caratteristiche del campione di soggetti che fanno parte
dell’esperimento (popolazione di riferimento, procedure di
campionamento, criteri di assegnazione ai gruppi…). Se lo studio
riguarda soggetti che hanno preso parte attivamente alla ricerca, si
usa il termine “partecipanti”.

- “misure” vengono descritte tutte le variabili indipendenti e la loro


operazionalizzazione. A seconda del tipo di studio, si può trovare al
posto di questa sezione la sezione “strumenti”: in tal caso gli
strumenti utilizzati vengono indicati ed eventualmente descritti. È
fondamentale riportare l’indice di attendibilità degli strumenti
utilizzati: nelle ricerche psicologiche questa sezione così
importante che talvolta viene descritta a parte.
- “procedure”: descrivono dettagliatamente lo svolgimento
dell’esperimento
- “disegno di ricerca (e l’analisi dei dati)”: indicano che tipo di
studio si sta conducendo, quali variabili sono state misurate, le loro
caratteristiche e che tipo di analisi statistica è stata condotta e il
programma di analisi dei dati utilizzato.

4) I risultati: a corredo e illustrazione dei risultati vengono indicati gli


indici delle analisi statistiche eseguite, gli indici descrittivi e le
modalità di descrizione più appropriate. Lo stile linguistico di
questa sezione è fattuale e descrittivo, in modo tale da mettere i
membri della comunità scientifica in grado di capire le
informazioni nel concreto e di avere la possibilità di criticare o
riportare spiegazioni alternative degli stessi risultati.

5) La discussione e le conclusioni: in questa sezione il ricercatore


mette in collegamento tutti i risultati che ha ottenuto e ne trae un
quadro composito e articolato. Lo stile è interpretativo, anche se la
fase di interpretazione deve essere sempre basata sulle risultanze
empiriche della ricerca, tenendo anche in conto le possibili
limitazioni dello studio.

6) La bibliografia: lista delle fonti da cui è stata tratta l’ispirazione


della ricerca. I riferimenti bibliografici devono poter essere
consultati da chiunque ne abbia necessità. Le citazioni dei lavori
altrui dovrebbero focalizzarsi su lavori pubblicati su riviste
prestigiose o su testi riconosciuti dalla letteratura internazionale:
una bibliografia ben fatta dà l’idea della serietà del lavoro.

L’ABSTRACT E LE PAROLE CHIAVE


L’abstract è un riassunto brevissimo (circa 100-200 parole) del contributo
strutturato in maniera tale che in esso siano presenti:
- gli scopi del contributo
- il metodo utilizzato
- i principali risultati
- un abbozzo di conclusione

Esso è molto utile perché:


- permette al lettore di capire rapidamente se quel contributo è di
interesse per lui
- viene immagazzinato insieme a tutte le altre info relative
all’articolo in banche dati tematiche, che possono essere consultate
rapidamente grazie a motori di ricerca e all’uso di parole chiave.

Le “parole chiave” sono di solito due o tre parole particolarmente


indicative del contributo così da permettere a colui che sta eseguendo una
ricerca in un certo ambito di individuare tutti quei contributi che hanno a
che fare con quelle parole.

ETICA E RICERCA
La riflessione sui principi etici della ricerca su soggetti umani può essere
distinta in quattro fasi:
1) presa di coscienza dei problemi
2) elaborazione di un codice etico
3) diffusione e stabilizzazione in diverse nazioni e presa di
consapevolezza di problemi etici sulla spinta di diffusione di
malattie gravi
4) fase in cui si sente l’esigenza di integrare i diversi codici a livello
internazionale e di prendere posizione su questioni rilevanti

Nel 1953 si giunse alla pubblicazione del primo codice etico degli
psicologi americani per opera della American Psychological Association.
Il codice ebbe poi numerose revisioni (l’ultima nel 2010).
Per ciò che riguarda la situazione italiana, l’Ordine professionale degli
psicologi ha emanato nel 1998 il Codice deontologico degli psicologi
italiani, e l’Associazione italiana di psicologia (AIP) in questi stessi anni
promulgava il Codice etico della ricerca e dell’insegnamento in
psicologia, di cui l’ultima versione è del 2015.

IL CODICE ETICO DELL’AIP


Articolato in tre aree fondamentali, quella dei Principi generali, quella
delle undici Regole di condotta e, infine, quella delle disposizioni
attuative.
Principi generali:
1. integrità
2. rispetto della dignità della persona
3. competenza
4. responsabilità sociale
5. tutela del benessere
Regole di condotta:

1. informazione e consenso
2. uso dell’inganno nella ricerca
3. restituzione dei risultati
4. riservatezza e anonimato
5. rischi e gestione dei rischi
6. protezione dei partecipanti alla ricerca
7. ricerca con animali
8. diffusione della ricerca scientifica
9. ricerca, insegnamento e valutazione
10.comitato etico locale.

PRINCIPALI PROBLEMI ETICI NELLA RICERCA SUGLI ANIMALI


Con “ricerca animale” si intende l’impiego degli animali per il progresso
della conoscenza scientifica.
Il problema etico della ricerca sugli animali riguarda due questioni
basilari:
a) gli animali non sono in grado di dare un consenso formale
b) la natura della ricerca è più invasiva di quella condotta sugli esseri
umani

Il rifiuto della ricerca animale è basato su tre motivazioni:


a) è inutile e inefficace, cioè non porta e non ha portato a risultati
significativi
b) è sostituibile con metodi alternativi, come la coltura dei tessuti e la
simulazione al computer
c) non è etica perché, per esempio, implica dolore e sofferenza in
esseri viventi

La prima argomentazione a favore della sperimentazione animale è


che essa ha fornito dei contributi fondamentali alla comprensione di
processi di apprendimento, memoria, percezione, motivazione ed
emozioni.

La seconda argomentazione a favore della sperimentazione animale


sostiene che essa ha contribuito in modo sostanziale allo sviluppo del
trattamento di diversi disordini clinici, come ansia, fobie, depressione,
schizofrenia, disabilità di apprendimento, dipendenza da droghe, da
sostanze o comportamentali, o malattia di Alzheimer.

Negli USA esiste un protocollo al quale attenersi al fine di ottenere


l’approvazione per condurre una ricerca animale. Esso recepisce la
cosiddetta “regola delle tre R” per ridurre l’impatto della sperimentazione

sugli animali , formalizzata da Russel e Burch nel 1959 e recepita anche


dalla direttiva dell’Unione Europea:
1. il Rimpiazzamento (Replacement) consiste, quando possibile, nel
cercare di sostituire l’animale con metodi alternativi (colture o
simulazioni) o con specie filogeneticamente più basse.
2. La Riduzione (Reduction) consiste nell’identificare il numero
minimo di animali necessario per verificare l’ipotesi di ricerca
3. Il Raffinamento (Refinement) consiste nell’utilizzare il metodo che
migliora al massimo le condizioni degli animali e minimizza
dolore e sofferenza.
Quando i ricercatori utilizzano il protocollo per l’approvazione, essi
devono indicare in quale delle 4 categorie predisposte essa ricade:
- B: gli animali vengono osservati nelle loro condizioni naturali
- C: gli animali sono sottoposti a procedure che causano un leggero
dolore o non ne causano affatto
- D: gli animali vengono sottoposti a procedure di insegnamento o
ricerca che implicano dolore, che però viene soppresso o alleviato
con anestesie, analgesici, eutanasia ecc.
- E: gli animali vengono sottoposti alle stesse procedure senza
interventi di sollievo perché questi ultimi altererebbero i risultati.
In genere, circa l’8% degli animali impiegati nella ricerca ricade in
quest’ultima categoria.

CAP.4- METODI DESCRITTIVI DI RICERCA


I metodi descrittivi di ricerca sono delle tecniche costruite per identificare
e descrivere accuratamente le variabili di un comportamento o di un
fenomeno ed eventuali loro relazioni.

RICERCA D’ARCHIVIO O ANALISI SECONDARIA

CONCETTI E SCOPI
La ricerca d’archivio si basa essenzialmente sull’analisi dei dati
d’archivio. Questi sono costituiti da osservazioni, misure o rilievi di vario
genere, raccolti da persone diverse dal ricercatore, spesso in istituzioni
che hanno uno scopo diverso da quello della ricerca. La ricerca d’archivio
vine anche detta “ricerca o analisi secondaria” in contrasto con la ricerca
primaria con cui il ricercatore raccoglie i dati in prima persona. In molti
casi, la ricerca primaria e secondaria vengono utilizzate in modo
complementare.
La ricerca d’archivio viene utilizzata soprattutto per due scopi:
1) descrivere un particolare fenomeno
2) delineare la relazione tra variabili

LE FONTI DELLA RICERCA D’ARCHIVIO


Le fonti per il prelievo dei dati secondari si classificano in:
1) prodotti della ricerca primaria
2) archivi in senso stretto: tutti i dati non necessariamente testuali, che
originano dall’attività del governo, delle aziende, trascrizioni
cliniche o di terapie mediche, verbali di sedute parlamentari o
comunali, di processi penali o civili, di consigli di dipartimento, di
senato accademico, corrispondenza privata, scambi di e-mail ecc.
Tutti questi dati sono raccolti intenzionalmente dall’uomo, e per
questo possono essere detti “diretti”. Esistono anche degli archivi
“indiretti”, i quali originano dall’attività umana in modo non
intenzionale.
3) Metodi non-reattivi basati su internet: tali dati sono detti “non-
reattivi” in quanto vengono depositati in internet dal normale
comportamento quotidiano delle persone e si contrappongono
perciò ai metodi reattivi che implicano che il partecipante alla
ricerca risponda a un questionario o partecipi a un setting
sperimentale.

VANTAGGI E LIMITI DELLA RICERCA D’ARCHIVIO


Limiti:
1) i dati d’archivio contengono sempre informazioni pazrziali;
2) la conservazione delle osservazioni è molto aleatoria: dopo un
determinato perido di tempo, molti dati vengono distrutti, perché
non sono più ritenuti utili da chi li ha raccolti, altri vengono persi
in modo selettivo;
3) limite legato all’accuratezza con cui sono state ottenute le
informazioni: l’affidabilità della ricerca d’archivio dipende dalla
precisione, spesso non verificabile, con cui altre persone hanno
eseguito le registrazioni originariamente;
4) effetto di reattività: si dice che gli studi basati sui dati d’archivio
hanno il pregio di non produrre l’effetto di reattività, in quanto
sono stati registrati al di fuori di un contesto di ricerca. Tuttavia,
quando ci si basa su dati raccolti da altri, l’effetto di reattività può
essersi verificato al tempo della raccolta; e in più le modalità del
suo eventuale accadimento sono sconosciute al ricercatore attuale.

Vantaggi:
1) la ricerca d’archivio costituisce l’unico mezzo per verificare le
ipotesi di determinati fenomeni, come quelli accaduti in passato;
2) a differenza degli altri metodi, la ricerca d’archivio si qualifica
come una metodologia povera: spesso non ha bisogno di molte
risorse, di apparecchiature costose, di laboratori sofisticati.

Richiede i permessi per accedere alle registrazioni, agli archivi, alle


biblioteche, cosa che qualche volta costituisce la difficoltà
maggiore, soprattutto quando si tratta di documenti privati.

OSSERVAZIONE NATURALISTICA
L’osservazione naturalistica, o etologica, fa parte del capitolo più ampio
dell’osservazione diretta del comportamento; è una tecnica che permetto
allo studioso di raccogliere dati sul comportamento dei soggetti senza
interferire sul loro modo di comportarsi. Le caratteristiche rilevanti di
questo metodo sono soprattutto due:
1) non intrusività: comporta che l’osservatore non manipoli le
variabili che interessano e rimanga completamente in disparte a
osservare ciò che accade;
2) mancanza di artificiosità: comporta che i soggetti vengano
osservati nel loro ambiente naturale, in quanto quello artificiale
avrebbe scarsa validità esterna.
Un’altra caratteristica fondamentale di tale tecnica è la “sistematicità”. Il
ricercatore, cioè, da un’ampia quantità di interazioni comportamentali,
sceglie solo determinati aspetti, quelli che suppone siano più strettamente
legati all’ipotesi da verificare.
L’osservazione naturalistica ha anche diversi limiti: in generale, il
controllo sui dati è modesto perché le variabili osservate non sono
manipolate e le sequenze comportamentali nn vengono isolate e
analizzate nel loro reciproco rapporto.

ALCUNI ELEMENTI FONDAMENTALI DELL’OSSERVAZIONE


NATURALISTICA
L’osservazione naturalistica non può prescindere da alcune regole di
conduzione:
- categorizzazione
- scelta del modo con cui rappresentare i comportamenti osservati
- registrazione

Il “tempo di osservazione” è la quantità di tempo da dedicare a una


ricerca. La durata di questo tempo cambia da ricerca a ricerca, a seconda
che si tratti di un esperimento eseguito in laboratorio o sul campo. In
quest’ultimo caso, l’osservazione può durare da pochi giorni a qualche
anno. Il ricercatore può inoltre stabilire la durata di ciascuna “sessione
osservativa”, che può essere variabile o fissa. Di fatto, ciò che definisce la
lunghezza della sessione osservativa, è l’oggetto di studio.
Dal punto di vista dell’unità di misura, durante la sessione osservativa si
possono mettere in atto 5 strategie generali per rappresentare i dati
raccolti:

- sequenze di eventi semplici: associazione tra alcune categorie di


comportamento e dei comportamenti effettivamente accaduti, in
modo che alla fine si possa stabilire la frequenza di quei
determinati comportamenti e anche la loro successione;
- sequenze di eventi multipli: utilizzate per assegnare più categorie
contemporaneamente a un comportamento;
- sequenze di stati: utilizzate qualora si voglia conoscere anche la
durata dei comportamenti; permettono inoltre la registrazione
simultanea di due o più cosiddetti “flussi paralleli” di
comportamento: si può cioè registrare il comportamento verbale
(primo flusso) e quello non verbale (secondo flusso) degli
interagenti; infine consentono di studiare le cooccorrenze di
comportamenti diversi;
- eventi temporali: permettono di registrare anche i cosiddetti
“comportamenti di frequenza”, comportamenti di cui non ha senso
raccogliere la durata temporale (colpo di tosse);
- sequenze di intervalli: possono essere applicate in maniera diversa.
Una delle più comuni è che il ricercatore stabilisca in anticipo un
intervallo di tempo predefinito e allo scadere di ogni intervallo
esegua la codifica; oppure codifica tutti i comportamenti che si
verificano all’interno dell’intervallo.

OSSERVAZIONE, INTERPRETAZIONE E REGISTRAZIONE


NELL’OSSERVAZIONE NATURALISTICA
Nella registrazione è utile mantenere distinta la fase dell’osservazione da
quella dell’interpretazione. È importante annotare tutte le riflessioni, le
connessioni causali che l’osservatore fa e il suo grado di coinvolgimento
emotivo nell’attuazione del compito. L’aderenza a un manuale di
codifica, in cui sono definiti chiaramente i concetti di base su cui fondare
l’osservazione e la sua consultazione continua permettono all’osservatore
di evitare errori o molte distorsioni.
La registrazione del comportamento avviene con mezzi diversi, le note di
osservazione o l’audio o videoregistrazione digitale.
Le note di osservazione: secondo Lofland le note di osservazione
dovrebbero essere costituite da:
a) descrizione dei fatti
b) avvenimenti precedenti ricordati ora
c) concetti e deduzioni analitiche
d) impressioni e sensazioni personali
e) note per informazioni aggiuntive
La registrazione delle note non deve mai essere fatta durante
l’osservazione stessa. I motivi sono diversi: da parte dell’osservatore,
perché si avrebbe una perdita di informazioni derivante dall’interruzione

della sequenza osservativa e conseguentemente anche del clima emotivo;


da parte dell’osservato, sia perché la registrazione potrebbe produrre una
inibizione o un perdurare innaturale dell’azione o della comunicazione,
sia perché l’osservato stesso potrebbe interpretare che l’altro valuti
positivamente ciò che fa, dato che ne prende nota, sia perché viene
condizionato a una maggiore consapevolezza dei propri atti,
Sistemi di registrazione cartacei o digitali: sono le modalità più semplici
ed economiche per eseguire l’osservazione del comportamento.
Caratteristiche dell’osservazione assistita al computer:
- possibilità di riprodurre in qualsiasi momento e a qualsiasi velocità
il comportamento registrato
- registrazione automatica e precisa del tempo di accadimento
durante la codifica
- strutturazione del progetto prima della codifica
- rilevazione automatica di alcuni tipi di errori
- individuare prima il comportamento di interesse e poi codificarlo
- selezionare delle parti di materiale e utilizzarle poi per altri scopi
Svantaggi:
- l’attenzione richiesta dall’uso delle telecamere e del processo di
registrazione va a scapito dell’attenzione nell’osservazione
- l’ampiezza del campo visivo offerta dalle telecamere è spesso
inferiore a quella dell’osservatore umano
- la presenza del videoregistratore aumenta i problemi di reattività

LO STUDIO DI CASI SINGOLI


Consiste nello studio profondo, intensivo e dettagliato di una singola
unità- una persona, un gruppo, un evento, una comunità, un ente, una
corporazione-, in genere per un determinato periodo di tempo, attraverso
una molteplicità di metodi, spesso qualitativi (colloqui e interviste non
strutturate, documenti e archivi con informazioni informali o formali,
osservazione diretta e partecipante). Il caso è spazialmente limitato, cioè
si svolge in un unico contesto fisico, che di solito viene studiato per un
periodo di tempo limitato ma non breve. Lo studio del caso singolo può
essere:
- retrospettivo: si basa su eventi successi in passato
- prospettico: si basa su eventi che stanno accadendo mentre il caso è
sotto osservazione e si stanno sviluppando nel tempo.
Lo studio del caso singolo si basa su un approccio “idiografico”. Si
distinguono diverse tipologie di studi di casi singoli:
- studio intrinseco: condotto quando è il caso in sé ad essere unico e
interessante
- strumentale: quando il ricercatore è interessato alla tipicità o
esemplarità del caso.

Il ricercatore può prevedere dei momenti di sintesi del materiale raccolto,


e spesso la storia o lo sviluppo del caso vengono organizzati in modo da
confluire in una relazione scritta o report. A seconda della tecnica che
utilizza, lo studio del caso singolo può essere:
a) descrittivo fattuale: quando i dati sono costituiti da registrazioni,
descrizioni minuziose e dettagliate di comportamenti, esperienze,
eventi e contesto in cui il caso si verifica. Di solito il ricercatore
produce una cronaca, un profilo o dei fatti.
b) Interpretativo o configurativo idiografico, se si colloca a livello di
interpretazione del fenomeno, della comprensione del significato,
producendo una sintesi o una storia;
c) Valutativo, quando si vuole valutare l’effetto di un intervento che è
stato implementato.
Ci possono essere casi in cui queste tecniche sono compresenti.

VANTAGGI E SVANTAGGI DELLO STUDIO DEL CASO SINGOLO


Vantaggi:
- consente descrizioni ricche, dettagliate, olistiche dei casi o dei
fenomeni;
- consente di analizzare il flusso delle interazioni umane, di
descrivere gli individui nella loro piena complessità;
- permette di avere informazione su contesti altrimenti non
indagabili con altre tecniche, per motivi pratici o etici.
Svantaggi:
- dato che sono basati su dati descrittivi e presentati dal ricercatore-
analista, essi dipendono dalla sua soggettività;
- la particolarità del caso rende difficile generalizzare i risultati a
persone, situazioni e contesti diversi, nonché la ripetizione della
ricerca da parte di altri ricercatori, aspetti che diminuiscono la
validità esterna;
- implica un forte investimento di risorse per accumulare dati e
osservazioni per un periodo di tempo sostenuto. Perciò richiede
tempo, energie e risorse.

LE RICERCHE CORRELAZIONALI
Nella sua forma più semplice, la ricerca correlazionale è volta a
determinare il grado di relazione tra due variabili, in genere, non
manipolate né controllate.
Se tra due variabili si riscontra un’alta correlazione, non solo si descrive
la loro relazione, ma è possibile predire il valore di una di esse quando si
conosce il valore dell’altra.
Il “problema della terza variabile” riguarda il fatto che, alle volte, la
correlazione riscontrata tra due variabili non dipende esclusivamente

dalla loro reciproca relazione, ma anche dall’influenza di una terza


variabile.
Un altro problema è la “direzionalità”. Anche se due variabili correlano
positivamente, non è sempre facile sapere quale delle due influisce
sull’altra.
La ricerca correlazionale non porta ad affermazioni causali poiché non
implica la manipolazione delle variabili e non comporta alcun controllo
della situazione in cui queste si manifestano.
La ricerca correlazionale è utile quando gli esperimenti sono eticamente
inammissibili.

STUDI LONGITUDINALI E STUDI TRASVERSALI


Gli “studi longitudinali” e quelli “trasversali” analizzano i cambiamenti
di sviluppo che si manifestano con il passare del tempo, ma le loro
modalità di approccio sono differenti.
Lo studio longitudinale implica la scelta di un solo gruppo di soggetti e la
misura costante nel tempo, a intervalli fissi, dei cambiamenti di qualche
caratteristica.
Nello studio trasversale si identificano campioni rappresentativi di
soggetti, con livelli di età differenti, e si rivelano i cambiamenti della
stessa caratteristica in questi gruppi.
Un punto a sfavore di queste due tecniche è che non sempre hanno
portato a risultati simili. Questo fatto è stato attribuito a quello che è
chiamato “effetto della coorte d’età”: gli studi longitudinali seguono nel
tempo solo un gruppo o una coorte di persone, così tutti gli elementi di
questo gruppo sperimentano eventi ambientali simili. Mentre gli studi
trasversali studiano gruppi di individui differenti o coorti diverse. A causa
dei cambiamenti degli eventi ambientali, i membri di queste coorti non
sono esposti alle stesse esperienze.

L’INCHIESTA CAMPIONARIA O SURVEY


L’inchiesta è una tecnica descrittiva usata in molte scienze sociali, che
consiste nella raccolta di dati su un campione di persone rappresentative
di una popolazione; essa offre notevoli opportunità per generalizzare i
risultati delle proprie ricerche e per sviluppare teorie.
L’inchiesta può utilizzare i diversi metodi di campionamento per ottenere
un campione rappresentativo. Molte inchieste campionarie sono basate su
una serie di “domande” organizzate; in questi casi, la raccolta dati
dell’inchiesta avviene con diverse modalità:
a) Intervista: le interviste “faccia-a-faccia” sono molto onerose in
termini di costi e tempi. In genere, richiedono numeroso personale
formato da intervistatori ben addestrati che si recano a casa
dell’intervistato; nel caso delle interviste “telefoniche” le risposte

vengono immagazzinate dall’operatore/intervistatore direttamente


in un pc;
b) questionari autosomministrati: il partecipante compila il
questionario per conto proprio. L’autosomministrazione è
impiegata in diversi casi: questionari “carta e matita”, ad oggi
quasi del tutto sostituiti dai più moderni questionari ricevuti via
mail ed eseguiti sul computer o eseguiti online collegandosi a
determinati link

Molto spesso per le condizioni in cui l’inchiesta avviene e per l’onerosità


della raccolta dati su innumerevoli soggetti, si preferisce “standardizzare”
le procedure:
a) formulare poche domande ma fondamentali;
b) in un ordine coerente;
c) spesso in un formato chiuso;
d) con una scala strutturata e precodificata.

La raccolta dei dati può essere fatta da diversi soggetti:


- dal personale a disposizione del responsabile della ricerca
- dai ricercatori individuando fonti secondarie
- da agenzie che si occupano di operare questo tipo di rilevazioni e
hanno già disponibili campioni di soggetti rappresentativi.

L’inchiesta può essere condotta con diversi metodi. I principali sono:


a) inchiesta trasversale: si caratterizza in quanto la raccolta di dati su
un campione rappresentativo della popolazione avviene in uno
stesso momento. Lo scopo può essere descrittivo, di correlare
alcune variabili tra loro senza che questo implichi la verifica di
nessi causali, oppure di valutare l’impatto di un evento sociale. Un
tipo particolare di inchiesta trasversale è quella “ripetuta”. In
questo caso, il ricercatore conduce una serie di inchieste multiple
nel tempo, una indipendentemente dall’altra, estraendo più
campioni rappresentativi della stessa popolazione.
b) Inchiesta sul panel o coorte: consiste nel raccogliere dati sullo
stesso campione di soggetti più volte nel tempo. Implica lo studio
di una coorte, cioè un gruppo di persone che condivide una
caratteristica o un’esperienza comuni in un determinato periodo.
Gli studi di panel sono utili per valutare la stabilità dei costrutti
psicologici nel tempo e per identificare le determinanti di quella
variabile.

L’inchiesta è molto simile al sondaggio. La differenza è costituita


sostanzialmente dal livello di estensione e approfondimento

dell’inchiesta; il sondaggio indaga l’opinione o l’atteggiamento verso un


fenomeno, rimanendo su un piano descrittivo, mentre l’inchiesta affronta
questioni più approfondite che spesso hanno bisogno di correlare alcune
variabili. Il primo ha, perciò, un’ottica più descrittiva, la seconda più
confermativa.

ERRORI, VANTAGGI E LIMITI DELL’INCHIESTA CAMPIONARIA


Errori:
- errori nella copertura della popolazione (sovra o sotto-copertura):
si verificano quando il pool di potenziali partecipanti non include
porzioni di popolazioni di interesse o rappresentative;
- errori di campionamento: dovuti a differenze tra campione e
popolazione;
- mancanza di risposte da parte di alcuni soggetti del campione;
- errori di costrutto: avvengono quando i costrutti sono stati misurati
in modo errato;
- errori di misurazione, dovuti a errori sistematici ascrivibili al
rispondente, all’intervistatore o al questionario;
- errori nei pesi utilizzati per le correzioni;
- errori di elaborazione dovuti alla pulizia e trasformazione dei dati
della matrice dei dati grezzi.
I dati dell’inchiesta vengono spesso pesati, cioè corretti sulla base di
alcuni pesi, per rendere le inferenze del campione alla popolazione il più
possibile corretti.

Vantaggi:
- avere a disposizione un campione rappresentativo della
popolazione;
- quantificare e analizzare statisticamente i dati raccolti in un
intervallo di tempo breve.

Svantaggi:
- difficoltà e costi della tecnica
- eventuale superficialità
- mancanza di accuratezza e onestà nelle risposte
- difficoltà nell’ottenere rilevazioni attendibili

L’INCHIESTA TRAMITE WEB O IL QUESTIONARIO ONLINE


La ricerca online può essere svolta in tre modi diversi:
a) con i metodi non-reattivi;
b) con la somministrazione di questionari online;
c) con gli esperimenti condotti sul web.

Il questionario è uno strumento di raccolta dati della ricerca psicologica.


La somministrazione online di un questionario può essere considerata
come l’uso di uno strumento classico di rilevazione dei dati attraverso un
nuovo medium. Il suo successo è dovuto all’apparente facilità con cui i
questionari possono essere costruiti e gli studi condotti, raggiungendo in
breve tempo un ampio numero di partecipanti. Questo metodo presenta
però alcuni problemi: spesso non si sa bene qual è il criterio con cui il
campionamento viene svolto e, perciò, quanto il campione raccolto sia
rappresentativo della popolazione che si voleva raggiungere; inoltre, il
senso di anonimità dei partecipanti a un’inchiesta online è enfatizzato e
talvolta esso influenza la frequenza di abbandono dello studio.
Attraverso questionari online è possibile somministrare strumenti di
misura psicologici, come inventari di personalità o scale di self-
monitoring. Data la delicatezza della somministrazione, tuttavia, è
necessario tenere conto delle particolari situazioni in cui essa avviene e
della validità degli strumenti utilizzati.

LA METANALISI
In psicologia, raramente un singolo studio offre una risposta esauriente e
completa a un problema di ricerca. Questa situazione è dovuta sia al fatto
che il comportamento umano è troppo complesso per essere spiegato da
una ricerca singola, sia agli esperimenti stessi, che possono essere
disomogenei relativamente all’ambiente di ricerca, al campione e alle
procedure utilizzate. Allora, per ottenere una risposta sufficientemente
esaustiva, si devono condurre numerose ricerche.
L’approccio tradizionale per compiere questo lavoro è la “rassegna della
letteratura di ricerca”. Essa implica la raccolta delle ricerche condotte su
un dato argomento, la loro categorizzazione e quindi il tentativo di trarre
conclusioni di carattere generale sulla base della proporzione di ricerche
che convergono su un determinato risultato.
Difetti della rassegna:
a) i criteri di selezione degli studi spesso non vengono esplicitati;
b) non vengono esplicitate le procedure per catalogare le
caratteristiche degli studi e per valutare la qualità del metodo di
ogni studio;
c) quando i risultati differiscono, è difficile capire se questo è dovuto
alle differenze nei metodi;
d) si basano sui test di significatività piuttosto che su quelli di
dimensione dell’effetto.

La metanalisi evita questi scogli perché si basa sull’uso di tecniche


quantitative ideate per analizzare i risultati degli studi in questione. Il
termine “metanalisi” fu introdotto da Glass per indicare un approccio

quantitativo ideato per integrare i risultati di numerose ricerche relative


alla stessa tematica e indica un’ “analisi fatta successivamente”. È quindi
un metodo di analisi secondario che si basa sui dati della ricerca primaria.
Esistono 2 classi di metanalisi.
La prima tende a stabilire un risultato globale combinando statisticamente
gli “indici di significatività” (p) dei risultati delle singole ricerche. Questa
forma combina i valori p delle singole ricerche, con lo scopo di ottenere
un valore p globale che vuole essere rappresentativo dell’effetto
combinato delle ricerche prese in considerazione. Tuttavia, questo primo
approccio non prende in considerazione né la forza né la direzione della
relazione tra variabili.
La seconda classe di metanalisi si basa su “indici di grandezza
dell’effetto” tra le due variabili riscontrato nella ricerca. Un indice di
grandezza dell’effetto indica la forza della relazione tra le due variabili.
Questa forma condente al ricercatore di combinare i risultati di parecchi
studi e di arrivare a una stima combinata dell’ampiezza dell’effetto.
I due approcci alla metanalisi possono essere anche applicati insieme. In
genere, quelli applicati agli indici di grandezza dell’effetto sono preferiti
perché, mentre i primi variano al variare della numerosità del campione, i
secondi ne sono indipendenti.
La procedura per la metanalisi è sintetizzabile in 4 passi:
1) definire concettualmente il fenomeno sotto studio, le variabili o
l’ipotesi di ricerca;
2) individuare i criteri per campionare gli studi precedenti. I criteri
principali sono : a) correlazione o causa; b) miglior prova, cioè si
eliminano gli studi metodologicamente più difettosi a favore di
quelli ad alta qualità; c) omogeneità metodologica, che previene
l’uso problematico di ricerche con metodi marcatamente diversi; d)
inclusione o meno di studi mai pubblicati;
3) codificare sistematicamente le caratteristiche di base degli studi
selezionati;
4) stimare gli indici di grandezza dell’effetto di ogni studio,
analizzarli statisticamente, interpretare i risultati e diffonderli.

Ci sono due aspetti importanti della metanalisi da prendere in


considerazione:
- errore sistematico nelle pubblicazioni: gli studi con risultati meno
significativi hanno una probabilità minore di essere pubblicati e
perciò inclusi nel campione. Ciò crea un errore sistematico, in
quanto gli studi che accettano l’ipotesi nulla sono meno
rappresentati. Perciò, i risultati della metanalisi tendono a
dimostrare la presenza di un effetto più di quanto sia vero. Proprio
perché lo scopo della metanalisi è descrivere l’universo degli studi

su quel fenomeno, non un campione selezionato, uno dei compiti


degli studiosi che fanno metanalisi è includere nel campione studi
non pubblicati;
- uso di moderatori: a volte, numerose ricerche ottengono risultati
difformi perché l’effetto della variabile indipendente sulla
dipendente è “moderato” da una terza variabile”. Perciò, l’analista
deve trattare questa terza variabile come un moderatore (variabile
che influenza la direzione o la forza della relazione tra le due
variabili).

UN BILANCIO
Metodi, disegni sperimentali e non sperimentali, possono essere ordinati
sulla base delle limitazioni che impongono al ricercatore (vincoli) e
dell’affidabilità dei risultati ottenuti. Questi vincoli tecnicamente vengono
chiamati (livelli di costrizione). Si tratta di condizionamenti strettamente
legati alle caratteristiche della ricerca, tra cui:
a) la natura del problema da indagare;
b) la quantità e il tipo di informazioni disponibili su di esso.
Sulla base di questi due elementi, le scelte del ricercatore potranno essere
o piuttosto aperte, con le ipotesi e le procedure di ricerca flessibili e
relativamente poco definite, oppure molto particolareggiate, che non
lasciano spazio ad alcuna flessibilità. Se sono usati in modo appropriato,
tutti i livelli di costrizione sono scientificamente validi.
I livelli di costrizione più comunemente usati nella ricerca psicologica
sono:
1. osservazione naturalistica: il suo livello di costrizione richiede
che il ricercatore osservi il comportamento dei soggetti nel loro
ambiente naturale. Vieta ogni tentativo di modificare l’ambiente o
di condizionare il comportamento dei soggetti; non comporta
ipotesi particolarmente costrittive e quindi i ricercatori sono liberi
di rivolgere la loro attenzione a ogni comportamento che sembri
loro interessante ai fini della ricerca
2. studio dei casi singoli: comporta una costrizione maggiore: il
ricercatore deve in qualche misura intervenire sul comportamento
del soggetto. Nonostante ciò, il metodo consente grande
flessibilità, perché il ricercatore può dirigere l’attenzione verso il
tipo di comportamento che gli sembra più rilevante.
3. Inchiesta e inchiesta online: comporta la scelta di un numero
sufficientemente grande di soggetti in poco tempo e una
somministrazione di domande strutturate, così che si devono
predisporre categorie di domande e di risposte predefinite. In questi
casi, bisogna quantificare ciò che si misura, spesso con statistiche
descrittive.

4. Ricerca d’archivio: è difficile individuare esattamente il grado di


costrizione di questo metodo perché esso risente delle operazioni
che sono state fatte da altre persone precedentemente. Pertanto, in
base ai casi, il ricercatore può essere sottoposto a pochi vincoli o a
molti vincoli.
5. Ricerca correlazionale: il livello di costrizione di tale ricerca è più
elevato che nei casi precedenti. Questo metodo, infatti, può essere
applicato sia a variabili osservate in ambiente naturalistico che a
quelle rilevate in laboratorio. Poiché la ricerca correlazionale
quantifica le relazioni tra due o più variabili, comporta precise
costrizioni legate alle scale di misura adoperate nella raccolta dati e
ai metodi statistici della correlazione.
6. Studi longitudinali e trasversali: il livello di costrizione di questi
studi implica una esplicita comparazione o tra due misure,
prelevate a distanza di tempo, del rendimento di un solo gruppo di
soggetti, oppure tra quelle di due gruppi di soggetti e raccolte nello
stesso momento.
7. Quasi-esperimenti: il livello di costrizione è più elevato. È simile a
quello sperimentale a eccezione del controllo sull’estrazione e
sull’assegnazione casuale dei soggetti alle condizioni.
8. La ricerca sperimentale: è quella che comporta più restrizioni. Si
devono attuare espliciti confronti tra i soggetti sottoposti a
differenti condizioni; richiede che i soggetti siano estratti
casualmente dalla popolazione, siano assegnati ai gruppi o
condizioni in modo randomizzato, che le variabili di confusione
siano strettamente controllate…

CAP. 5-VARI ESPERIMENTI

Costruire un disegno (o piano) sperimentale vuol dire mettere a punto


un insieme di elementi e di procedure che consentano di dire che gli
effetti riscontrati nella variabile dipendente sono causati dalla
manipolazione di quella indipendente e non dall’influenza di variabili non
controllate.
In genere, i piani di ricerca vengono distinti in:
- veri esperimenti: consentono allo studioso di avere un controllo
completo su tutte le variabili della ricerca.
- Quasi esperimenti: il ricercatore non può manipolare a suo
piacimento i livelli della variabile indipendente, ma li prende così
come sono in natura; inoltre non è possibile controllare tutti i
fattori di confusione.

OPZIONI PROCEDURALI PER IL DISEGNO SPERIMENTALE

L’impostazione dei diversi disegni sperimentali viene fatta sulla diversa


combinazione delle seguenti 4 opzioni procedurali:
1) la misura della variabile dipendente può essere eseguita: a) sia
prima che dopo il trattamento; b) solo dopo il trattamento.
2) I modi di sottoporre a trattamento i gruppi sono: a) ogni gruppo è
sottoposto a un solo livello della variabile indipendente; b) ogni
gruppo è sottoposto a tutte le condizioni di trattamento: in questo
caso il disegno è entro i gruppi.
3) Il numero delle variabili indipendenti. Queste possono essere a)
una soltanto; b) due o più; in questo caso si parla di disegno
fattoriale.
4) Il controllo delle variabili estranee viene eseguito mediante
randomizzazione, pareggiamento o metodo dei blocchi.

In genere, gli autori presentano i vari piani sperimentali seguendo questa


divisione:
1. prima i disegni con una “sola variabile indipendente”,
suddividendoli in questo modo:
- “disegni sperimentali tra gruppi” indipendenti
- “disegni sperimentali entro i gruppi”
2. poi i disegni con due o più variabili indipendenti, cioè i “disegni
fattoriali.

DISEGNI PRE-SPERIMENTALI
Utilizzati per compiti esplorativi. Questi disegni non forniscono alcuna
garanzia di validità, nel senso che non controllano spiegazioni alternative
dei risultati. Nonostante ciò, costituiscono la base su cui si può costruire,
aggiungendo controlli, dei veri esperimenti o dei quasi esperimenti.
Disegni con un solo gruppo e una sola prova: piano in cui viene
eseguito il trattamento e il post-test a un solo gruppo di soggetti. Dal
punto di vista del controllo, questo piano di ricerca ha i seguenti limiti: a)
totale carenza di validità interna; b) assenza di qualsiasi punto di
paragone fisso.
Sebbene non possa costituire una base per trarre conclusioni scientifiche,
è utile come fonte di suggerimenti.
Disegni con un solo gruppo e due prove: del tutto simile al precedente,
ma contiene in più la prova preliminare. Questo disegno può apparire
valido perché si basa su una logica di confronto prima-dopo. In realtà,
anche questo disegno presenta numerosi inconvenienti: da un lato, non
assicura che il trattamento sia il solo o anche il maggiore fattore della
differenza dei risultati tra le due misurazioni, e dall’altro, non controlla le
minacce alla validità interna dovute: a) alla storia; b) alla maturazione
tra la prima e la seconda prova; c) all’effetto delle prove; d) agli effetti

della strumentazione; e) alla regressione statistica; f) alla mortalità, se


qualche soggetto non effettua sia il pre-test che il post-test.
Come il precedente, anche questo piano può essere utilizzato per studiare
nuove strategie di ricerca o per mettere a fuoco nuove ipotesi.
Disegno con due gruppi non equivalenti e una sola prova: comprende
un gruppo di confronto, il quale tuttavia non è un vero gruppo di
controllo perché non è randomizzato. In questo disegno, un gruppo di
soggetti viene sottoposto al trattamento mentre l’altro no; cioè la variabile
indipendente comprende in questo caso due livelli: la sua presenza e la
sua assenza.
Il procedimento, anche se può sembrare adeguato, non lo è, in quanto
l’equivalenza dei due gruppi in partenza non è stata verificata, perché i
soggetti non sono stati assegnati ai gruppi in modo randomizzato,
nonostante sia stata assunta come vera. Pertanto non si può sapere se
siano intervenute altre variabili di disturbo nel modificare il risultato
finale.
Anche questo disegno può essere adoperato come base per trarre
conclusioni scientifiche.

DISEGNI CON UNA SOLA VARIABILE INDIPENDENTE


I disegni con una sola variabile indipendente si suddividono in piani tra i
gruppi (o tra i soggetti) e piani entro i gruppi (o entro i soggetti). La
distinzione si basa sulle modalità con cui si scelgono i soggetti dalla
popolazione e su quelle con cui si assegnano alle varie condizioni
sperimentali.

PIANI TRA GRUPPI CON UNA SOLA VARIABILE INDIPENDENTE


“disegni tra i gruppi” comportano che i soggetti siano scelti in modo
casuale dalla popolazione e siano assegnati pure casualmente alle
condizioni di trattamento; ogni soggetto (o gruppo) deve essere
sottoposto a una condizione sperimentale. Questi piani comportano la
formazione di tanti gruppi quanti sono i livelli della variabile
indipendente. L’effetto del trattamento viene evidenziato confrontando il
rendimento di un gruppo sottoposto a un livello della variabile
indipendente con quello di un gruppo differente che non riceve il
trattamento.

DISEGNO CLASSICO E SUE VARIABILI


Il disegno classico di ricerca comporta la presenza di due gruppi
randomizzati, due prove e il trattamento per un solo gruppo. Il
procedimento si svolge come segue:
a) si scelgono i soggetti da una popolazione con uno dei procedimenti
di campionamento casuale;

b) si assegnano i soggetti in uguale numero al gruppo sperimentale e a


quello di controllo mediante randomizzazione;
c) sia i soggetti del gruppo sperimentale che quelli del gruppo di
controllo vengono sottoposti al pre-test:
d) viene applicato il trattamento SOLO al gruppo sperimentale;
e) si sottopongono i due gruppi al post-test e si trovano le medie dei
punteggi;
f) si controllano le medie per determinare se il trattamento è associato
a un cambiamento a favore del gruppo sperimentale;
g) si applica un appropriato test statistico per verificare se la
differenza tra i due post-test è significativa.

Per quanto riguarda la validità interna, in questo disegno si possono


escludere gli effetti della “regressione statistica”, della “selezione” e della
“mortalità”.
La validità esterna di questo disegno può essere delineata come segue:
a) l’interazione tra pre-test e trattamento non può essere controllata;
pertanto la prova preliminare influisce in qualche misura sui
soggetti, allora la validità esterna è compromessa;
b) sull’interazione tra selezione e trattamento si deve dire che se i
soggetti hanno caratteristiche del tutto diverse da quelle delle
persone a cui si vuole generalizzare i risultati, non è possibile
eliminare la presenza di errori sistematici;
c) anche l’interazione fra trattamento e altri fattori, come la storia,
può limitare la possibilità di generalizzazione.
d) Gli effetti dovuti alla reazione ai procedimenti sperimentali
possono compromettere la generalizzazione.

Esistono alcune variazioni del disegno classico. A volte è preferibile il


piano in cui anche il gruppo di controllo randomizzato è sottoposto al
trattamento, purchè il livello sia differente da quello del gruppo
sperimentale.
Nel caso si adoperassero tre gruppi invece di due, il terzo dei quali fa da
gruppo di controllo e non viene sottoposto a trattamento, il disegno
diventerebbe ancor più affidabile. Anche in questo caso, la verifica
dell’effetto del trattamento si ha dal confronto delle prove finali.
La validità interna di questo disegno risulta rafforzata rispetto a quella
del disegno classico perché sono controllati, contemporaneamente per i
due gruppi, gli eventuali fattori di disturbo tra il pre e il post-test. L’unico
problema che può intercorrere è la maggiore difficoltà di ottenere gruppi
omogenei col crescere del numero dei gruppi. Per quanto riguarda la
validità esterna, valgono le stesse osservazioni del disegno classico.

PIANI ENTRO I GRUPPI CON UNA SOLA VARIABILE


INDIPENDENTE
I disegni entro i gruppi (o entro i soggetti) comportano che tutti i soggetti
siano sottoposti a tutte le condizioni sperimentali: si tratta, quindi, di
disegni a misure ripetute, e pertanto ogni soggetto serve da controllo a
se stesso. Ne esistono di due tipi:
Disegno a misure ripetute semplice:
modalità di attuazione:
a) ogni soggetto è sottoposto a tutti i livelli della variabile
indipendente;
b) ogni soggetto viene valutato più di una volta sulla variabile
dipendente;
c) il confronto critico consiste nel calcolare la differenza dei punteggi
ottenuti dai soggetti nelle due o più condizioni sperimentali.
Il disegno entro i soggetti presenta i seguenti vantaggi:
1. garantisce l’equivalenza dei gruppi rispetto a variabili importanti,
perché tutti i soggetti vengono sottoposti a tutte le condizioni;
2. è molto più sensibile agli effetti della variabile indipendente. I
disegni entro i soggetti eliminano del tutto la varianza dovuta alle
differenze dei soggetti, perciò riducono la varianza dell’errore.
3. Comporta un numero di soggetti minore di un disegno tra gruppi;
4. Non è necessario impartire le istruzioni più volte perché a essere
sottoposti a più condizioni sono gli stessi soggetti.

Il disegno entro i soggetti comporta anche dei limiti, ossia gli effetti
dell’ordine e della sequenza.

DISEGNI CONTROBILANCIATI PER IL CONTROLLO DEGLI


EFFETTI DELL’ORDINE E DELLA SEQUENZA
A volte agli stessi partecipanti vengono somministrate molte condizioni o
“prove”. In questi casi vengono utilizzati dei disegni particolari
principalmente basati sul controbilanciamento. Negli esperimenti in cui
ciascun soggetto è sottoposto a più condizioni sperimentali è possibile
che l’esecuzione delle prime prove influisca sul rendimento di quelle
successive. A questo proposito, gli autori distinguono due possibili effetti:
dell’ordine e della sequenza.

GLI EFFETTI DELL’ORDINE E DELLA SEQUENZA


Effetto dell’ordine: è dovuto all’ordine delle condizioni,
indipendentemente dalle specificità delle condizioni stesse. L’effetto
dell’ordine si realizza tutte le volte in cui, se il soggetto viene sottoposto
a una prova all’interno di altre prove, la sua performance viene
influenzata dalla “posizione” piuttosto che dalla prova in sé, per motivi

legati a fattori quali affaticamento, stanchezza, noia, familiarità,


apprendimento, pratica ecc. Perciò, il controllo degli effetti dell’ordine
consiste nel far si che ogni prova si realizzi lo stesso numero di volte in
ogni posizione (controbilanciamento della posizione), in modo che gli
errori stessi dovuti all’ordine si distribuiscano in modo uniforme per
ciascuna prova.
Effetto della sequenza: è dovuto alla parziale dipendenza di una
condizione sperimentale da quella che la precede. L’effetto della
sequenza è chiamato anche “effetto residuale”, perché è come se la prova
precedente lasciasse un “residuo” che influenza la prova successiva, non
dovuto al fatto che ci sia stata una prova prima ma che ci sia stata quella
specifica prova.
Il controllo sugli effetti della sequenza si realizza facendo sì che ciascusa
prova sia preceduta lo stesso numero di volte da qualsiasi altra prova
(controbilanciamento delle prove), in modo tale che eventuali errori
dovuti a effetti della sequenza siano distribuiti tra tutte le prove.

IL CONTROBILANCIAMENTO
Il controllo degli effetti dell’ordine e della sequenza viene detto
“controbilanciamento delle prove”. Ne esistono due strategie principali:
Controbilanciamento tra i soggetti: si basa sulla costituzione di un
determinato numero di gruppi, con ugual numero di partecipanti, tanti
quanti sono le cominazioni delle prove in sequenza: a ogni gruppo viene
somministrata una combinazione unica di queste prove. Se si
somministrano tutte le combinazioni di prove possibili si tratta di
“controbilanciamento completo”, se vengono selezionate solo
combinazioni particolari di prove esso si dice “incompleto”.
Il controbilanciamento incompleto è detto anche “quadrato latino” e deve
attenersi a due criteri:
a) ogni prova deve apparire un uguale numero di volte in ogni
posizione;
b) ogni prova deve precedere sempre un tipo di prova e seguire
sempre un altro tipo di prova un uguale numero di volte.

Rispetto al controbilanciamento completo, che rimane in teoria la tecnica


migliore per il controllo degli effetti nei disegni tra soggetti, la tecnica del
quadrato latino ha il vantaggio di ridurre drasticamente il numero di
soggetti da esaminare.

Controbilanciamnto entro i soggetti: nel controbilanciamento entro i


soggetti il controllo si esercita sottoponendo ciascun soggetto a tutte le
prove, più volte, in diverse combinazioni. Si possono distinguere tre
soluzioni di controbilanciamento entro i soggetti:

1. Randomizzazione delle prove: se gli esperimenti richiedono che


ciascuno stimolo sia presentato innumerevoli volte, la migliore
soluzione consiste nel RANDOMIZZARE l’ordine delle prove per
ciascun soggetto. Perciò, se ci sono più prove, ciascun soggetto
sarà sottoposto più volte alle diverse prove in successioni casuali.
2. Controbilanciamento inverso: è un modo per controllare gli
effetti del solo ordine e consiste nel sottoporre ogni soggetto a tutte
le prove prima in un ordine e poi nell’ordine inverso. Esso non
completa il controllo della sequenza, è perciò efficace quando si ha
la certezza che non ci siano effetti di sequenza. Il
controbilanciamento inverso è pratico quando si verificano
congiuntamente le due condizioni seguenti: a) il campione è
piccolo, mentre le condizioni sono numerose e possono essere
applicate poche volte; b) quando si sospetta che le possibili
variabili di disturbo agiscano in modo costante per ogni posizione
successiva della sequenza.
3. Randomizzazione a blocchi: variazione efficace per controllare
contemporaneamente gli effetti dell’ordine e della sequenza. In
questa randomizzazione esistono insiemi di prove, dette blocchi,
ciascuna delle quali viene presentata una sola volta all’interno di
quell’insieme e tante volte quanti sono gli insiemi. Le sequenze
all’interno dei blocchi sono scelte casualmente e i blocchi possono
essere più di due.
Perciò, questa tecnica consiste nel randomizzare l’ordine delle prove con
l’avvertenza che la seconda (ed eventualmente la terza) ripetizione delle
condizioni formi un blocco diverso dalla prima.

DISEGNI CON PIU’ VARIABILI INDIPENDENTI O DISEGNI


FATTORIALI
Nella ricerca psicologica molto spesso è necessario analizzare l’effetto
combinato di due o più variabili indipendenti per poter spiegare un
fenomeno. In tal caso ci si trova di fronte ai cosiddetti disegni fattoriali.
In un disegno fattoriale la variabile dipendente è sempre quantitativa e la
tecnica statistica adeguata per tali disegni è detta analisi della varianza o
anche analisi della varianza fattoriale.

CARATTERISTICHE DEI DISEGNI FATTORIALI


I disegni fattoriali si caratterizzano:
1. per la presenza di due o più variabili indipendenti, tecnicamente
chiamate “fattori”: ciascun fattore è composto da due o più livelli,
uno dei quali è di controllo, l’altro prevede il trattamento;

2. per la presenza dell’effetto esclusivo di ciascuna variabile


indipendente sulla variabile dipendente; quest’effetto è chiamato
“effetto principale” di ciascun fattore;
3. per la presenza dell’effetto dovuto contemporaneamente alle due o
più variabili indipendenti: si tratta del cosiddetto “effetto di
interazione” dei fattori.
Le caratteristiche generali dei disegni fattoriali sono:
1. ogni numero separato da “x” indica un fattore (o variabile
indipendente) perciò tanti sono i numeri altrettante sono le variabili
indipendenti del disegno;
2. il numero in sé indica il numero di livelli del rispettivo fattore;
3. esiste sempre un’ulteriore variabile coinvolta nel disegno di
ricerca, la variabile dipendente, che non viene indicata e che è
sempre metrica.

CAP. 6 – QUASI-ESPERIMENTI ED ESPERIMENTI SUI


SINGOLI SOGGETTI
Quando non è possibile utilizzare i veri esperimenti, la migliore soluzione
è quella di usare i quasi-esperimenti, perché, fra tutti gli altri metodi,
offrono qualche possibilità di fare delle inferenze causali.
Poiché non controllano tutte le variabili di disturbo, le inferenze basate
sui loro dati non sono molto affidabili. Tale limite è dovuto a uno (o alla
combinazione) dei seguenti motivi:
a) non è possibile manipolare a piacimento la variabile indipendente;
b) non si possono scegliere in modo causale dalla popolazione i
soggetti che devono formare il campione;
c) non si possono assegnare i soggetti ai gruppi in modo
randomizzato.
Nei disegni quasi-sperimentali è possibile:
- stabilire l’ipotesi causale;
- determinare almeno due livelli della variabile indipendente, ma
non manipolarla a piacimento;
- attuare le procedure specifiche per verificare le ipotesi;
- includere alcuni controlli sulle minacce alla validità;
- assegnare i soggetti ai gruppi ma non in modo causale.

DISEGNI CON GRUPPO DI CONTROLLO NON EQUIVALENTE


Si tratta di piani con procedimento simile a quello del “disegno classico”,
ma nei quali i soggetti non sono assegnati ai gruppi in modo causale. I
gruppi si assomigliano solo per la loro facile reperibilità e vengono
sottoposti al pre-test e successivamente al post-test. Il limite di questi
disegni consiste nella mancanza di un punto di paragone fisso con cui
confrontare i risultati del gruppo sperimentale. Il pregio è che

costituiscono la soluzione migliore quando i gruppi formano delle “entità


naturali”, che devono essere mantenute intatte per studiarne le
caratteristiche.
Le conseguenze dovute all’assenza di equivalenza dei gruppi vengono in
genere limitate componendo un gruppo di controllo quanto più possibile
simile a quello sperimentale. Per verificare il grado di equivalenza di due
gruppi non randomizzati è sempre necessario sottoporli al pre-test: più i
risultati sono simili, più i gruppi possono dirsi equivalenti.
La validità interna può risultare abbastanza controllata quando:
a) i gruppi hanno medie e deviazioni standard simili nel pre-test;
b) il gruppo di controllo permette di evidenziare gli errori dovuti alla
storia, al pre-test, alla maturazione, alla strumentazione e al
trattamento;
c) l’effetto dovuto alla mortalità è controllato attraverso il confronto
tra i risultati del pre-test e quelli del post-test;
d) la regressione statistica è eliminata mediante qualche verifica;
e) l’interazione tra selezione-maturazione e selezione-storia viene
sufficientemente controllata.

Il piano con un gruppo di controllo non equivalente ha il vantaggio di


rispettare l’integrità naturale dei gruppi e di non toglierli da contesto della
vita quotidiana. Cosi la validità esterna ,e in particolare quella ecologica,
sono meglio salvaguardate.

GLI ESPERIMENTI SUI SINGOLI SOGGETTI


VANTAGGI:
prestazione individuale: gli esperimenti sui gruppi comportano il
confronto dei valori medi del rendimento di più persone. In questa media
si perdono le informazioni sulle specificità del comportamento dei singoli
individui.
Flessibilità del disegno: se nel corso di un esperimento un ricercatore
scopre che un soggetto non risponde a un rinforzo che ha funzionato con
altre persone, può intervenire immediatamente cambiando i rinforzi o le
istruzioni senza troppa fatica. Il disegno sui soggetti singoli, cioè,
permette interventi da parte dello sperimentatore più tempestivi e meno
dispendiosi in denaro e tempo rispetto agli esperimenti sui gruppi.
La flessibilità del disegno comporta anche vantaggi a livello
deontologico. Il fatto che questi disegni non esigano l’esame di soggetti
di controllo consente di interrompere il trattamento appena questo si sia
dimostrato efficace.

CARATTERISTICHE E STRUTTURAZIONE

I piani sperimentali sui soggetti singoli tendono a precisare la relazione


causale esistente tra variabili indipendenti e variabili dipendenti nei
soggetti singoli.

MANIPOLAZIONE DELLE VARIABILI


I disegni sperimentali sui singoli soggetti richiedono l’introduzione di una
sola variabile indipendente per volta.

VALUTAZIONE DELL’EFFETTO DEL TRATTAMENTO


Per quanto riguarda la valutazione dei risultati degli esperimenti sui
soggetti singoli, i ricercatori preferiscono rappresentare i risultati
mediante grafici, dove l’andamento delle curve indica chiaramente
l’evoluzione del comportamento del soggetto durante le differenti fasi
dell’esperimento.

QUANTO SONO GENERALIZZABILI I RISULTATI DEGLI


ESPERIMENTI SUI SINGOLI SOGGETTI?
Dalla metodologia classica si sa che il grado di generalizzazione dei
risultati di un esperimento è legato sia alla rappresentatività del campione
sia alla situazione in cui si svolge un’indagine. Ora queste caratteristiche
non sono del tutto presenti nei piani con soggetti singoli. Il modo in uso
per rendere rappresentativi gli esperimenti sui soggetti singoli è di
ricorrere a due strategie: la ripetizione dell’esperimento e l’eterogeneità
dei soggetti utilizzati nelle successive ricerche.
Si può, inoltre, pensare di modificare le condizioni nelle quali ha luogo
l’esperimento.

CAP. 9- DIVERSI TIPI DI VALIDITA’ DELLA RICERCA

Il termine “validità della ricerca” indica la solidità e l’attendibilità di


un’indagine, ossia una vera corrispondenza tra mondo reale e conclusioni
della ricerca. Poiché le condizioni di un esperimento sono sempre parziali
e limitate, i ricercatori si sono preoccupati di controllare tutti gli elementi
che, nelle loro indagini, possono nuocere alla validità, distinguendone i
vari aspetti:
1. l’esistenza o meno di una relazione causale tra variabile
indipendente e variabile dipendente nelle condizioni e sui soggetti
realmente studiati (validità interna);
2. verificare se la relazione riscontrata tra le suddette variabili in una
particolare ricerca vale anche per persone, situazioni, luoghi e
tempi diversi da quelli esaminati (validità esterna);
3. assicurare che la ricerca effettivamente misuri quello che il
ricercatore si è proposto di misurare (validità di costrutto);

4. controlla se i risultati della ricerca sono dovuti alla manipolazione


della variabile indipendente oppure a variazioni casuali (validità
statistica);
5. possibilità o meno di generalizzare i risultati ottenuti (validità
ecologica)

I FINI E LA VALIDITA’ DELLA RICERCA


La validità di una ricerca deve essere valutata alla luce dei fini della
ricerca stessa. I fini sono tre:
1. dimostrare empiricamente: la ricerca viene condotta per stabilire
empiricamente l’esistenza di uno o più fenomeni e/o relazioni.
2. Verificare le relazioni causali: la ricerca viene condotta anche per
stabilire se le relazioni individuate sono di tipo causa-effetto.
3. Spiegare: la ricerca viene condotta anche per stabilire come,
perché e sotto quali condizioni esiste una relazione causale.

VALIDITA’ INTERNA
Si ha validità interna quando la relazione tra due variabili è di “tipo
causale”; cioè quando si può provare che le modifiche della variabile
indipendente causano quelle della variabile dipendente (direzione) e non
dipendono da altre variabili (esclusione di fattori di confusione). Una
verifica sperimentale di questa relazione si svolge nel modo seguente: si
realizza X in una situazione severamente controllata; si osserva se Y
subisce delle modificazioni oppure no. Di solito si definisce l’intervento
su X “manipolazione della variabile indipendente” e l’esito di Y
“variazione della variabile dipendente”.

MINACCE ALLA VALIDITA’ INTERNA


Variabili di disturbo:
- storia attuale: ogni evento che, durante il corso dell’esperimento,
produce un effetto che si sovrappone a quello della variabile
indipendente, creando confusione sul rapporto causale tra le due
variabili sperimentali. Tale confusione può essere causata da
variabili interne all’ambiente sperimentale, oppure da variabili
esterne.
- Processi di maturazione: cambiamenti sistematici, di ordine
biologico (età, fame, coordinazione, fatica…) e psicologico
(acquisizione di nuove conoscenze, noia, stanchezza, motivazione,
interesse…), che avvengono col trascorrere del tempo.
- Effetto delle prove: l’aver partecipato a precedenti esperimenti
può influire sulle successive prestazioni, a causa
dell’apprendimento o della pratica.

- Strumentazione: variabilità della struttura degli esperimenti e


degli sperimentatori.
- Effetti della regressione statistica: una legge statistica prevede
che, nelle prove ripetute sugli stessi soggetti e sulla stessa
variabile, i punteggi estremi tendano a regredire verso la media.
- Selezione: in un disegno ben condotto, il gruppo sperimentale e
quello di controllo devono essere equivalenti rispetto a tutte le
variabili. Ma numerosi fattori possono minacciare l’equivalenza
iniziale dei gruppi.
- Mortalità: abbandono o perdita differenziale dei soggetti:
nell’attività di ricerca capita spesso che, dopo il pre-test, da uno dei
gruppi si ritirino dei soggetti. Tale perdita può influire sui risultati
della ricerca.
- Interazione tra selezione e storia, selezione e maturazione ecc.:
quando il gruppo sperimentale e quello di controllo ottengono gli
stessi punteggi nella prova preliminare, le differenze del post-test
possono essere dovute all’interazione di altre variabili piuttosto che
al trattamento.

IL PROBLEMA DELLA TERZA VARIABILE E LA DISTINZIONE


TRA MODERATORE E MEDIATORE
a) Relazione diretta: terza variabile assente
b) Relazione spuria: la relazione tra X e Y che emerge quando non
controlliamo altri fattori importanti
c) Relazione causale moderata (moderatore): il nesso causale tra X e
Y esiste, esso viene diversamente qualificato attraverso i diversi
livelli della variabile C
d) Relazione causale indiretta (mediatore): la variabile X non ha una
relazione diretta con la variabile Y. Tuttavia esercita su di essa un
effetto causale grazie a una terza variabile C che risulta
indispensabile: X causa il mediatore C il quale a sua volta causa il
mediatore Y. La relazione tra X e Y in questo caso è “indiretta”, X
diviene una condizione sufficiente ma non necessaria affinchè ci
sia Y.

METODI PER RIDURRE LE MINACCE ALLA VALIDITA’ INTERNA


- il metodo per ridurre le differenze tra i gruppi è il bilanciamento,
che si ottiene in tre modi: con la randomizzazione, il
pareggiamento e l’uso dei blocchi.
- Per controllare gli effetti della storia:
a) casualizzazione delle situazioni sperimentali: distribuire
equamente le più importanti fonti di errore tra i gruppi
sottoposti a esperimento;

b) unica sessione e stessa situazione: per mantenere costanti e


comuni a tutti i soggetti gli imprevedibili effetti di distorsione
dovuti a sessioni sperimentali e a situazioni differenti;
c) controllo della costanza: si mantengono il più possibile costanti
le condizioni per tutti i soggetti della ricerca e per tutto il
periodo sperimentale, a eccezione del trattamento;
d) abbreviazione dell’intervallo di tempo tra le prove: per evitare
che i fattori estranei concorrano con il trattamento a influenzare
i dati della ricerca.
- i processi di maturazione possono essere neutralizzati mediante
l’uso di misurazioni ripetute a intervalli costanti, avvalendosi di un
gruppo di controllo.
- Gli effetti delle prove vengono eliminati:
a) eliminazione del pre-test;
b) trasformazione del pre-test in un evento ordinario della vita dei
gruppi;
c) utilizzo del disegno di Solomon la cui principale proprietà è
quella di controllare gli effetti del pre-test.
- la variabilità dovuta alla strumentazione viene evitata mantenendo
quanto più possibile costanti tutte le variabili della
sperimentazione.
- Gli effetti della regressione statistica sono neutralizzati estraendo
a caso un gruppo di controllo che, non essendo sottoposto a
trattamento, offre il punto di paragone per valutare i cambiamenti
dovuti alla regressione.
- Per quanto riguarda la mortalità non ci sono procedimenti di
controllo sufficientemente efficaci. Un metodo consiste
nell’effettuare le prove in tempi molto ravvicinati, in modo da
limitare la perdita dei soggetti. Purtroppo, però, molti esperimenti
richiedono più giorni o settimane.

VALIDITA’ ESTERNA
La validità esterna consiste nel poter generalizzare le conclusioni di una
ricerca a individui e contesti differenti da quelli che il ricercatore ha
considerato. Ne esistono di tre tipi:
- validità di popolazione: capacità di generalizzare i dati dal
campione alla popolazione;
- validità temporale: è comune l’assunzione che i risultati di una
ricerca rimangano stabili nel tempo. Su questa assunzione, però,
sono sorti molti dubbi che non hanno avuto riposte confortanti.
- Validità ecologica

MINACCE ALLA VALIDITA’ ESTERNA

- Minacce alla validità di popolazione. La difficoltà di reperire i


soggetti della ricerca ha indotto i ricercatori a ricorrere
prevalentemente ad alcune categorie di soggetti: i topi albini, gli
studenti di psicologia, alcune tipologie di pazienti e gli alunni delle
scuole, i soggetti volontari; soluzioni criticabili perché selezionano
i soggetti.
- Minacce alla validità temporale:
a) variazioni stagionali: cambiamenti che avvengono nella
popolazione a intervalli regolari: ad esempio, la percentuale di
incidenti automobilistici durante i mesi invernali aumenta
rispetto a quella dei mesi estivi;
b) variazione ciclica: dipende dall’organismo dei soggetti. Negli
esseri umani, le principali variazioni cicliche dipendono dal
ritmo cardiaco, dalla temperatura, dalle funzioni endocrine, dai
ritmi circadiani. Quando ha luogo l’interazione tra trattamento
sperimentale e variazioni cicliche, i risultati sono generalizzabili
solo al momento specifico del ciclo durante il quale è stato
eseguito l’esperimento.
c) variazione personologica: cambiamento delle caratteristiche
degli individui nel tempo.

SUGGERIMENTI PER AUMENTARE LA VALIDITA’ ESTERNA


- raccogliere i dati prima che i soggetti si accorgano che il
ricercatore ha iniziato il suo lavoro di indagine
- evitare di dire il vero motivo della ricerca
- il ricorso a disegni complessi, in quanto consentono di delineare
più chiaramente le interazioni e l’impatto che i vari aspetti della
situazione hanno sui dati della ricerca
- controllare gli effetti del pre-test sui dati della ricerca mediante la
ripetizione dell’esperimento, o ricorrendo al disegno di Solomon.

VALIDITA’ DI COSTRUTTO
In psicologia, il termino costrutto è un concetto astratto e indica un
complesso organizzato della vita psichica non osservabile direttamente. I
costrutti non sono osservabili ma vengono inferiti dal comportamento.
Esempi di costrutti psicologici sono l’intelligenza, l’affiliazione,
l’obbedienza, gli atteggiamenti, le opinioni, le emozioni.
L’ operazionismo specifica le operazioni che legano l’astratto, livello di
costrutto, all’empirico, livello misurabile.

MINACCE ALLA VALIDITA’ DI COSTRUTTO


- insufficiente definizione teorica dei costrutti: carenza di una
dettagliata analisi a livello concettuale dei costrutti.

- Inadeguata definizione operazionale


- Ambiguità delle variabili indipendenti.

SUGGERIMENTI PER RAGGIUNGERE LA VALIDITA’ DI


COSTRUTTO
- stabilire una definizione chiara del costrutto astratto;
- raccogliere quelle osservazioni che si dimostrano capaci di stabilire
chiaramente che la rappresentazione empirica della variabile indipendente
produce gli esiti attesi;
- i dati raccolti devono inoltre variare con la misura correlata con la
rappresentazione empirica della variabile indipendente, ma non con le
variabili concettuali differenti.

“MANIPULATION CHECK”
Quando si tratta di valutare la validità di costrutto i ricercatori possono
ricorrere ad alcune modalità di verifica della manipolazione effettuata.
Queste tecniche sono generalmente chiamate “manipulation check”.
- tramite interviste: consiste nel condurre delle interviste ai soggetti
dopo averli sottoposti all’azione della variabile indipendente con lo
scopo di stabilire se il costrutto può considerarsi ben manipolato.
- Tramite indicatori comportamentali: stabilire degli indicatori
comportamentali atti a rilevare l’effetto delle operazioni
strumentali.

“EFFETTO HAWTHORNE”
La ricerca: è stata una famosa ricerca a scoprire l’influenza della
consapevolezza di essere osservati sul comportamento dei soggetti
(effetto Hawthorne). Il nome deriva da quello della cittadina dell’Illinois,
nelle vicinanze di Chicago, in cui, tra il 1924 e il 1945, Mayo e i suoi
collaboratori eseguirono una serie di esperimenti di psicologia industriale.
Lo scopo degli esperimenti era studiare l’influenza delle varie
manipolazioni dell’ambiente, come luminosità, orari di lavoro ecc. sulla
produttività. Sei ragazze furono trasferite dal consueto ambiente di lavoro
a una stanza particolare, dove i ricercatori avevano maggiore possibilità
di controllare le condizioni ambientali.

Le ipotesi: era stato ipotizzato che alcune variabili indipendenti fossero


responsabili di una riduzione della produttività:
a) diminuzione della luminosità
b) riduzione di un’ora della giornata lavorativa
c) aumento del numero delle pause per il caffè
Quelle atte ad aumentare la produzione erano:
a) aumento della paga

b) regolazione ottimale della temperatura


c) regolazione ottimale della luminosità.

I risultati: le ipotesi non risultarono confermate. Infatti,


indipendentemente dalle condizioni ambientali, la produzione continuava
a crescere. Gli sperimentatori ipotizzarono perciò che la produzione
dipendeva da una terza variabile che avevano manipolato
inconsapevolmente.

La nuova interpretazione: dalle interviste post-sperimentali, risultò che


le ragazze si sentivano onorate di essere oggetto di studio da parte degli
sperimentatori, avevano la sensazione che i datori di lavoro avessero
finalmente rivolto loro maggiore attenzione. Come risultato, emerse uno
spirito di corpo, che spinse le giovani a lavorare in modo cooperativo per
il bene del gruppo.

Un’interpretazione opposta: Bramel e Friend hanno suggerito che la


vera variabile indipendente fosse il sospetto di un accordo tra i conduttori
dell’azienda e i ricercatori. Perciò le operaie variavano la loro produttività
in modo da mantenere il controllo su quelle determinate condizioni
lavorative che esse pensavano fossero importanti per i conduttori
dell’azienda e i ricercatori.

L’effetto Hawthorne: l’effetto Hawthorne si riferisce al fatto che sapere


di essere osservati in una situazione sperimentale può indurre i soggetti
ad assumere un comportamento differente da quello normale.

VALIDITA’ STATISTICA
Il concetto di validità statistica ha per scopo verificare se il rapporto tra le
variabili sperimentali è di tipo causale o casuale.
La variabilità introdotta dal caso viene controllata mediante la validità
statistica, la quale può avere luogo solo dopo che i dati sono stati
raccolti, e quindi non consente di anticipare alcun rimedio immediato, ma
può indicare se esiste la necessità di modificare le condizioni sperimentali
e di controllo in successivi esperimenti.

VALIDITA’ STATISTICA E PROBABILITA’


La validità statistica raggiunge il suo obiettivo mediante il ricorso al
calcolo delle probabilità e all’inferenza statistica, cioè quei procedimenti
che consentono di valutare, entro certi limiti, la variabilità dei fenomeni
che avrebbe luogo se agisse solo il caso. In genere, questi procedimenti
comportano il confronto tra la variabilità empiricamente osservata e
quella teorica prevista dal calcolo delle probabilità. Se da tale confronto

emerge che la variabilità empiricamente osservata è molto superiore alla


variabilità teorica, l’eccedenza può essere spiegata solo concludendo che,
oltre al caso, fattori sistematici dovuti ai trattamenti sperimentali abbiano
determinato la variabilità dei risultati.

ESAME DELLE IPOTESI STATISTICHE


Un’ipotesi statistica attribuisce determinate probabilità di comparsa ai
singoli valori di una variabile. Le ipotesi statistiche riguardano il valore
dei parametri o la forma di una legge di distribuzione di una popolazione,
della quale ci si propone di verificare la validità in base a osservazioni su
delle unità (campione) appartenenti a tale popolazione o sui risultati di
uno schema sperimentale. Esse comportano, quindi, una propria teoria dei
test statistici. La teoria dei test prevalentemente seguita prevede lo
svolgimento del test in quattro fasi:
1. si formulano due ipotesi statistiche: una da verificare e una ad essa
contrapposta. La prima è definita “ipotesi nulla” (H0) e la seconda
“ipotesi alternativa” (H1), le quali sono formulate in modo da
negarsi reciprocamente. L’ipotesi nulla indica che non esiste una
differenza significativa tra i dati di due (o più) gruppi omogenei di
soggetti sottoposti a trattamenti diversi di un esperimento. L’ipotesi
alternativa ammette, invece, che tra i dati ottenuti dopo un
trattamento sperimentale vi siano delle differenze significative
indotte dalla manipolazione della variabile indipendente.
Se un ricercatore ha un fine più esplorativo e si aspetta
semplicemente delle differenze tra le medie, si parla di ipotesi
alternativa bidirezionale; se ha delle ipotesi più chiare in mente e
si aspetta che una o l’altra media siano maggiori o minori delle
altre, allora si parla di ipotesi alternativa monodirezionale.
2. formulazione delle supposizioni ausiliarie; queste consentono di
dedurre una determinata grandezza d’esame e la rispettiva
distribuzione delle probabilità.
3. Si devono ricavare i campioni causali da una o più popolazioni.
Una volta che questi sono identificati, si sottopongono al pre-test,
poi al trattamento e quindi al post-test.
4. Si definisce una “zona di rifiuto”, cioè un campo di valori possibili
della grandezza d’esame che ci si attende con minor probabilità in
caso di verità dell’ipotesi nulla e con maggior probabilità in caso di
verità dell’ipotesi alternativa. Se la grandezza d’esame dovesse
rientrare in quest’ultimo campo, si rifiuterà H0 e si accetterà H1.
Se invece non rientra nel campo, la decisione in merito sarà per
l’ipotesi nulla. Si sceglie questo “valore critico” in modo tale che
esso, in caso di verità di H0, venga superato o raggiunto soltanto
con una probabilità che sia inferiore o uguale a un piccolo valore

alfa da determinare. Alfa è chiamato livello di significatività; si


tratta di un valore fissato convenzionalmente, che in genere è pari a
0,05 o a 0,01. Si ottengono entrambi i valori casuali e si calcola la
grandezza d’esame “t”. se t è superiore o uguale al valore critico,
allora si rifiuta H0 e si accetta H1. In tal caso si parlerà di “risultato
significativo”. Se t è inferiore al valore critico, si prende la
decisione contraria e si dirà che “il risultato non è significativo”. Se
erroneamente si rifiuta H0 quando essa è vera nella popolazione si
parlerà di errore di primo tipo, ma se erroneamente si accetta H0
quando nella popolazione è falsa si tratterà di un errore di secondo
tipo. La rispettiva probabilità è indicata con la lettera “beta”. Il
valore di 1-beta è definito “potenza del test”, che indica la
probabilità di rigettare un’ipotesi nulla quando effettivamente è
falsa.

MINACCE ALLA VALIDITA’ STATISTICA


- minacce che portano a un errore di primo tipo: quando si afferma
l’esistenza di una covariazione tra le due variabili sperimentali che
in realtà non esiste. Tra le situazioni specifiche nelle quali più
facilmente si incorre in questo tipo di errore, vi è il fenomeno
“fishing”. Piuttosto che elaborare specifiche ipotesi statistiche, il
ricercatore esegue innumerevoli analisi, coinvolgendo quasi tutte le
possibili combinazioni tra le variabili, fino a che non emerge
qualche risultato significativo che egli evidenzia rispetto ai risultati
non significativi.
- Minacce che portano a un errore di secondo tipo: a)bassa potenza
statistica: compromette la sensibilità dell’indagine. Generalmente
si corre tale rischio quando il campione è piccolo e il livello di alfa
è basso; b) violazione degli assunti che stanno alla base dei test
statistici: comporta la trasgressione delle norme fondamentali
relative a determinati test statistici.
- Altri fattori di minaccia: a) scarsa affidabilità degli strumenti di
misura; b) mancata standardizzazione delle procedure di
manipolazione della variabile indipendente; c) presenza di variabili
di confusione nell’ambiente sperimentale; d) eterogeneità dei
soggetti sperimentali.

MODI PER AUMENTARE LA VALIDITA’ STATISTICA


- elevare il livello di significatività: in questo modo si aumenta la
sensibilità del disegno, per cui si possono cogliere meglio le
differenze tra i risultati delle condizioni sperimentali. Tuttavia,
elevando il livello di significatività si abbassa la probabilità di un

tipo di errore ma si aumenta la probabilità dell’altro tipo. Quindi, le


modifiche vanno attentamente valutate per le loro conseguenze.
- Aumentare la grandezza dell’effetto: elevando l’intervallo tra i
valori della variabile indipendente usati per definire le condizioni
sperimentali.
- Ridurre l’errore casuale.

VALIDITA’ ECOLOGICA
All’incirca dagli anni ’50 in poi, in psicologia emerse l’esigenza di
considerare la validità ecologica degli esperimenti, cioè la
generalizzabilità dei risultati anche a contesti della vita quotidiana. La
validità ecologica è la dimostrazione che le condizioni in cui è stata
verificata una relazione sono le condizioni tipiche in cui si trova
normalmente la popolazione.
CONCETTO DI VALIDITA’ ECOLOGICA
Il termine fu coniato da Brunswick; egli si era convinto che l’artificialità
degli esperimenti condotti in laboratorio producesse dati poco
rappresentativi della vita reale. In situazioni di laboratorio l’attività
percettiva perde le proprie peculiarità, per cui bisogna studiarla nei
contesti di vita normale.
Ma fin dall’inizio, questa posizione fu criticata da Lewin, che ne propose
una diversa basata su due elementi:
a) che il comportamento nel momento t è una funzione della
situazione di quel momento t soltanto in quel preciso istante;
b) che la situazione che interessa lo studioso non è quella reale
concreta, ma quella psicologicamente vissuta.
Pertanto, per ottenere la validità ecologica, occorre tener conto della
percezione soggettiva del soggetto sperimentale sia verso il compito che
verso l’ambiente.
Bronfennbrenner, riprendendo il pensiero di Lewin, scrive che per
validità ecologica si intende il grado in cui l’ambiente del quale i soggetti
hanno esperienza in una determinata indagine scientifica ha proprio le
caratteristiche che il ricercatore suppone o assume. Tale definizione si
basa sull’importanza dell’ambiente psicologico così come è vissuto dal
soggetto che ne ha esperienza.

MINACCE ALLA VALIDITA’ ECOLOGICA


I fattori in grado di compromettere la validità ecologica sono distinguibili
in due categorie:
1. per la posizione di Brunswick, costituiscono delle minacce alla
validità ecologica tutti gli artefatti del laboratorio. Le
caratteristiche del laboratorio contribuiscono a rendere poco
naturali le reazioni o le prestazioni del soggetto. Dalla scarsa

familiarità della situazione sperimentale derivano risultati che


hanno ben poco potere conoscitivo sul comportamento normale.
2. Per l’interpretazione di Bronfenbrenner, costituisce una minaccia
per la validità ecologica tutto ciò che impedisce allo sperimentatore
di conoscere come il soggetto percepisce la situazione.

CAP.10 – CONTROLLO DEGLI EFFETTI DI DISTURBO

Il controllo indica “qualsiasi procedimento atto a neutralizzare o a


controllare le potenziali minacce alla validità di un esperimento”. Taluni
autori, nel concetto di controllo distinguono due aspetti tra loro
complementari: esperimenti di controllo e controllo sperimentale.
Gli esperimenti di controllo , oltre ad avere il compito di salvaguardare
la validità dell’esperimento, consento di affermare che una variabile
dipendente è associata con una variabile indipendente e non con altre
variabili.

IL CONTROLLO SPERIMENTALE
Il controllo sperimentale consente di affermare che i cambiamenti della
variabile dipendente sono prodotti dalla manipolazione della variabile
indipendente e non dall’influenza di altre variabili estranee.
Le strategie di controllo sperimentale più comunemente usate sono:
- strategie generali di controllo (controllo nel laboratorio, nella
preparazione della situazione della ricerca…)
- strategie di controllo sugli effetti dei soggetti e dello
sperimentatore (singolo e doppio cieco, uso di più osservtori e
valutatori, inganno…)
- strategie di controllo mediante la selezione e l’assegnazione dei
soggetti (metodi di campionamento, uso di soggetti particolari…)
- strategie di controllo degli effetti dell’ordine e della sequenza
(controbilanciamento entro i soggetti e tra i soggetti).

CHE COS’E’ L’ESPERIMENTO DI CONTROLLO?


L’esperimento di controllo si può ottenere in due modi:
1. ricorrendo a un secondo campione di soggetti, chiamato gruppo di
controllo, omogeneo a quello sperimentale.
2. Sottoponendo gli stessi soggetti a una seconda condizione, detta
condizione di controllo, del tutto simile a quella sperimentale.
La funzione del gruppo o della condizione di controllo è di offrire un
punto di paragone fisso per verificare l’efficacia della variabile
indipendente.
Mentre al gruppo sperimentale o tramite la condizione sperimentale
viene somministrato il trattamento, al gruppo di controllo o tramite la

condizione di controllo non viene somministrato alcun trattamento. Così,


se la condizione del gruppo sperimentale e quella del gruppo di controllo
differiscono solo per la variabile indipendente, qualsiasi differenza che
compaia nella prova successiva al trattamento può essere attribuita
all’azione di quella variabile. Quando si usa un gruppo di controllo il
disegno è tra gruppi, quando si usa la condizione di controllo il disegno è
entro i gruppi.

STRATEGIE GENERALI DI CONTROLLO

CONTROLLO NEL LABORATORIO


Il procedimento di controllo più generale è quello che definisce in modo
chiaro l’ambiente (setting) della ricerca, cioè il luogo dove essa viene
condotta. Fra tutti i possibili luoghi di ricerca, il laboratorio è stato
sempre considerato l’ambiente ideale, in quanto permette di eliminare o,
per lo meno, di tenere sotto controllo le variabili estranee o di confusione
(controllo della costanza).

IL CONTROLLO NELLA PREPARAZIONE DELLA SITUAZIONE


DELLA RICERCA
Quando si accinge a verificare un’ipotesi in laboratorio, uno dei primi
problemi che lo sperimentatore deve affrontare riguarda la scelta delle
varie strategie, degli strumenti, dei congegni per eseguire la sua ricerca. A
questo proposito, non vi sono indicazioni generali, perché ogni
esperimento comporta soluzioni diverse. Oggi, un ausilio importante per
preparare la situazione di ricerca è il computer.

LE CARATTERISTICHE DI RICHIESTA (“DEMAND


CHARACTERISTICS”)
Le caratteristiche della richiesta si riferiscono all’artefatto sperimentale
per cui i partecipanti all’esperimento si formano una propria
interpretazione, giusta o sbagliata che sia, dello scopo dell’esperimento e
adattano inconsciamente il loro comportamento a quell’interpretazione.
Per ciò che attiene agli effetti, le caratteristiche di richiesta sono simili
all’effetto placebo, in quanto esse tendono a far emergere risultati dovuti
non al vero trattamento ma alle credenze del soggetto verso il
trattamento.
Il controllo delle caratteristiche di richiesta: il monitoraggio delle
caratteristiche di richiesta può essere attuato adottando uno o più dei
seguenti accorgimenti:
a) controllare la costanza per tutti i soggetti;
b) randomizzare tra i gruppi eventuali differenze dell’ambiente;
c) condurre la ricerca in un ambiente naturale;

d) raccogliere i dati prima che il soggetto si renda conto che


l’esperimento è iniziato;
e) utilizzare il “singolo cieco”.
Per conoscere l’impatto che le diverse caratteristiche di richiesta possono
avere sui soggetti, si utilizzano varie strategie:
- interviste post-sperimentali: il ricercatore chiede al soggetto
informazioni su come ha percepito l’ambiente dell’esperimento;
- gioco dei ruoli o drammatizzazione, reale o immaginaria: si chiede
a un certo numero di soggetti di comportarsi, e di riferire come
pensano di doversi comportare, in una particolare situazione. Un
confronto tra il comportamento della drammatizzazione reale con
quello della drammatizzazione immaginaria permette di valutare
l’estensione con la quale le caratteristiche di richiesta possono
essere responsabili del comportamento osservato.

IL CONTROLLO SU ALCUNI ASPETTI DEL TEMPO


Il tempo può influire sui dati della ricerca attraverso tre modi differenti:
1. la conoscenza della durata nel tempo degli effetti del
trattamento o della stabilità dei risultati della ricerca.
2. Determinati esperimenti risentono dell’ora del giorno in cui sono
eseguiti, quindi essa diventa una variabile di disturbo che deve
essere controllata con uno dei seguenti accorgimenti:
a) o tenerla costante per le prove e per tutti i soggetti;
b) o variarla sistematicamente sia per le prove sia per i soggetti;
c) nel caso che i soggetti e le prove siano abbastanza bumerosi,
distribuirla in modo casuale.
3. anche la durata della prova o degli intervalli tra le prove può
provocare degli effetti di disturbo. Le principali cause sono:
a) la lunghezza della prova, che comporta due rischi: il primo è
dato dal sopraggiungere della stanchezza, con conseguente
scadimento del rendimento nelle ultime prove; il secondo è
legato alla ripetizione delle prove, che può consentire un
miglioramento delle prestazioni nelle prove finali per effetto
dell’allenamento.
La lunghezza degli intervalli tra le sessioni sperimentali, che
pone almeno tre possibili fonti di disturbo:
- maturazione dei soggetti;
- mortalità dei soggetti;
- eventi storici fuori dal laboratorio.

IL CONTROLLO NELLA MISURA DELLE RISPOSTE


L’efficacia del controllo sperimentale è connessa anche alle


caratteristiche e alla qualità degli strumenti di misura adoperati. Le
principali caratteristiche degli strumenti da tenere in considerazione sono:
1. l’uso di misure oggettive delle variabili dipendenti. Una misura è
obiettiva quando la somministrazione, la determinazione e
l’interpretazione dei punteggi sono indipendenti dal giudizio
soggettivo dei singoli esaminatori.
2. La sensibilità di uno strumento di misura si riferisce alla sua
capacità di dare informazioni più o meno specifiche del fenomeno
studiato. Essa può riferirsi tanto alla misurazione in senso stretto
quanto alla strumentazione utilizzata. Riferita alla misurazione, la
sensibilità si definisce come la variazione minima che induce un
cambiamento nell’unità di misura o nel livello della variabile
misurata.

IL CONTROLLO ATTRAVERSO LA RIPETIZIONE


DELL’ESPERIMENTO
Gli autori distinguono la ripetizione esatta o diretta dalla ripetizione
sistematica. La ripetizione esatta consiste nel rifare l’esperimento nel
modo più fedele possibile all’originale. La ripetizione sistematica ha per
scopo di verificare se un dato fenomeno ha luogo anche in situazioni
differenti da quelle originali variando un solo elemento, quello che
potrebbe essere cruciale per determinare il risultato verificatosi nella
ricerca originale.
Benchè la ripetizione aumenti la fiducia nei risultati di un esperimento,
non ne garantisce la validità.

STRATEGIE DI CONTROLLO SUGLI EFFETTI DEI SOGGETTI E


DELLO SPERIMENTATORE

LE CONOSCENZE E LE ASPETTATIVE DEI SOGGETTI


Le conoscenze del soggetto possono avere degli effetti di disturbo nella
ricerca. Esse sono di vari tipi:
1. le conoscenze psicologiche ,più o meno esatte. Sono più probabili
negli studenti di psicologia. Ma oggi è difficile trovare persone
sprovviste di conoscenze psicologiche, anche se sono molto più
frequenti coloro che hanno delle teorie ingenue su diversi ambiti
del sapere psicologico. Tali conoscenze possono avere un peso
molto rilevante nelle prove che misurano aspetti personali.
Per limitare questo tipo di inconvenienti, si possono adottare due
strategie. La prima consiste nel dare delle consegne che spingano il
soggetto a evitare di fare inferenze, connessioni, indagini sulle
proprie conoscenze prima di rispondere. La seconda nel far seguire

alla prova sperimentale un questionario, volto a raccogliere


informazioni sulla competenza del soggetto nelle aree indagate;
così sarà possibile escludere dall’analisi dei risultati i dati dei
soggetti “troppo esperti”. Per impedire, poi, vere e proprie
distorsioni volontarie nelle prove che raccolgono informazioni
sulla vita privata del soggetto, si deve assicurare:
a) l’anonimato della prestazione;
b) la certezza che saranno ricavate solo delle descrizioni generali
del fenomeno;
c) la sicurezza che l’interesse della ricerca riguarda ciò che la
gente pensa.
2. per quanto riguarda le conoscenze sulla procedura sperimentale,
bisogna distinguere tra i vari ambiti della ricerca. In ogni caso, per
evitare gli effetti di disturbo provenienti dalle supposizione del
soggetto si può suggerire qualche avvertenza generale:
3. a) dare al soggetto sufficienti informazioni in modo che eviti di
cercare le vere finalità dell’esperimento;
b) instaurare una relazione di fiducia e invitare il soggetto a
collaborare in modo spontaneo e rilassato;
c) ridurre l’ansia proveniente da una situazione di incertezza, sia
garantendo che egli alla fine sarà informato in modo completo
sull’obiettivo della ricerca, sia assicurandogli la libertà di
potersi ritirare in qualsiasi momento.
4. per evitare che i soggetti che hanno già terminato l’esperimento
comunichino informazioni ad altri soggetti che devono ancora
esservi sottoposti (effetto di diffusione) è sempre opportuno
invitarli a mantenere la riservatezza sul contenuto e sulla procedura
della ricrca fino alla conclusione dell’esame di tutto il campione. È
necessario anche accertarsi che prima della prova il soggetto non
sia già stato informato dagli altri. Per evitare qualsiasi scambio di
informazioni tra soggetti sperimentali, sarebbe opportuno tenerli
fisicamente separati. Le conoscenze del soggetto sullo scopo, vero
o presunto, della ricerca possono influire sui dati sperimentali in
due maniere: inducendo a dare risposte che vanno nella direzione
dell’obiettivo della ricrca, oppure spingendolo a mettere in atto un
atteggiamento di non collaborazione.

LE ASPETTATIVE DELLO SPERIMENTATORE


Leffetto sperimentatore come effetto di disturbo si riferisce
all’influenza che lo sperimentatore inconsciamente o intenzionalmente
ha sui soggetti dell’esperimento.

Le aspettative dello sperimentatore producono il cosiddetto “effetto


di attesa” che dipende dalle motivazioni e dalle ambizioni personali e
professionali del ricercatore.
Le caratteristiche individuali dello sperimentatore che possono
influenzare i soggetti sono:
- caratteristiche fisiche: sesso, età, etnia, condizione sociale;
- caratteristiche di personalità: bisogno di approvazione, esperienza,
stile interattivo amichevole, calore umano, attrazione.
L’effetto sperimentatore può agire in quasi tutte le fasi della ricerca:
a) nel selezionamento del campione;
b) nella fase della raccolta dei dati;
c) nella fase di interpretazione dei risultati;

LE STRATEGIE PER IL CONTROLLO – PROCEDIMENTI A


SINGOLO E A DOPPIO CIECO
Il procedimento a singolo cieco controlla soltanto gli effetti di
confusione provenienti dai soggetti sperimentali e non dagli
sperimentatori. Esso consiste nel nascondere ai soggetti sia lo scopo
generale della ricerca, sia la condizione alla quale sono sottoposti.
Invece, per controllare le minacce provenienti dai ricercatori, è
necessario, prima di tutto, evitare o ridurre al minimo i contatti diretti tra
ricercatori e soggetti. In secondo luogo i collaboratori non devono
conoscere né le ipotesi dell’esperimento, né a quale gruppo o condizione
siano stati assegnati i singoli soggetti., e neppure a quale gruppo
appartengono le risposte quando sono chiamati a valutarle. In tal caso,
“cieco” è sia il soggetto sperimentale, sia il ricercatore stesso. Questo
procedimento è tecnicamente chiamato doppio cieco.

AUTOMAZIONE DELLE ISTRUZIONI


Il fatto che le istruzioni possano veicolare aspettative e giudizi sulla
maggiore o minore facilità del compito o sulle ipotesi costituisce un
effetto di disturbo non indifferente.
Un sistema efficace per il ridurre il contatto tra sperimentatore e soggetti,
e quindi per controllare i potenziali errori dovuti alla loro interazione, è di
automatizzare le istruzioni da impartire ai soggetti. Le istruzioni
possono essere distribuite in “forma scritta” oppure comunicate mediante
una “registrazione” preparata in precedenza.

USO DI PIU’ OSSERVATORI E VALUTATORI


Nelle ricerche osservative il controllo si effettua mediante l’impiego di
due o più osservatori, in quelle in cui si usa l’analisi del contenuto si
effettua attraverso l’impiego di due o più codificatori, in quelle che usano
domande aperte le cui risposte devono essere codificate si esercita

attraverso l’impiego di due o più valutatori. In tutti questi casi, è


opportuno utilizzare il procedimento a doppio cieco, far eseguire la
codifica sullo stesso materiale indipendentemente a ciascun codificatore
e, infine, applicare un indice di accordo tra osservatori.

USO DELLA TECNICA DELL’INGANNO


Un comune metodo per controllare gli effetti dovuti al soggetto
sperimentale consiste nel far credere ai soggetti che la situazione
sperimentale sia qualcosa di diverso da quella che gli sperimentatori in
realtà stanno studiando e manipolando. Questo tipo di controllo è
chiamato inganno.
Alcune implicazioni negative della tecnica dell’inganno possono
provenire dal fatto che i soggetti potrebbero farsi un’idea distorta sulla
sincerità dello psicologo ricercatore e così nutrire una sfiducia
generalizzata per le ricerchè in tale settore.

ALTERNATIVE ALL’INGANNO
Gli inconvenienti legati all’inganno hanno indotto gli studiosi a cercare
delle tecniche alternative:
- drammatizzazione: comporta la costruzione di una situazione
fittizia, durante la quale il soggetto deve comportarsi “come se”
tale situazione fosse reale.
- Preavviso: comporta di mettere al corrente i soggetti della
situazione sperimentale a cui sono sottoposti. Le informazioni
raccolte sull’efficacia di questo metodo sembrano indicare che la
differenza di comportamento tra soggetti preavvisati e soggetti
ignari non possa essere eliminata.

CONTROLLO ATTRAVERSO LA SELEZIONE DEI SOGGETTI


DALLA POPOLAZIONE E L’ASSEGNAZIONE AI GRUPPI
Un’accurata selezione dei soggetti assicura due aspetti fondamentali di
una ricerca:
a) l’equivalenza dei gruppi;
b) la possibilità di generalizzare i risultati alla popolazione.
Bisogna distinguere due momenti fondamentali nel processo generali di
scelta dei soggetti per l’esperimento: uno riguarda la selezione dei
soggetti dalla popolazione per formare un campione di una certa
numerosità (“campionamento”), l’altro riguarda l’assegnazione dei
soggetti di questo campione ai diversi gruppi o condizioni sperimentali.

I METODI DI SELEZIONE DEI SOGGETTI DALLA POPOLAZIONE


Per comprendere come funzionano le regole del campionamento, è
necessario distinguere la “popolazione” dal “campione”, e, all’interno

della popolazione, il concetto di “popolazione bersaglio” da quello di


“popolazione accessibile”.
Il termine popolazione (o universo) indica tutti gli eventi di interesse cui
si rivolge il ricercatore per la sua indagine. Alcune di queste popolazioni
sono “finite”, altre “infinite”, ossia non definibili in termini del numero di
elementi che le compongono.
Il campione è un piccolo insieme di eventi tratto dalla popolazione di
interesse.
La popolazione bersaglio è la popolazione completa.
La popolazione accessibile è quella che il ricercatore può avvicinare.

LA RAPPRESENTATIVITA’ DEL CAMPIONE


Un campione deve essere rappresentativo della popolazione; cioè ne
deve riflettere adeguatamente le caratteristiche. Le difficoltà del concetto
di rappresentatività sono 2:
1. per generalizzare i risultati di un campione all’universo, sono
necessari due passaggi: il primo comporta la generalizzazione dei
dati dal “campione” alla “popolazione sperimentalmente
accessibile”. Questa avviene in modo corretto se il ricercatore
sceglie dalla popolazione accessibile, mediante un “procedimento
casuale”, un campione convenientemente numeroso. Il secondo
passaggio va dalla popolazione sperimentalmente accessibile alla
“popolazione bersaglio”.
2. La seconda difficoltà è dovuta alla numerosità dei campioni. In
genere, più è grande il campione, più è rappresentativo della
popolazione.

I TRE METODI DI CAMPIONAMENTO


Campionamento casuale: quando ogni elemento di un insieme ordinato
di N elementi, appartenenti a una popolazione, ha la stessa probabilità di
essere scelto per formare il campione. Le regole più comuni
dell’estrazione di un campione casuale sono due:
1. nel campionamento casuale con ripetizione o reinserimento ogni
elemento della popolazione può essere osservato più volte, in quanto,
dopo ogni estrazione, viene reinserito nell’insieme di origine.
2. nel campionamento casuale senza ripetizione o reinserimento, nessun
elemento estratto viene reinserito e, perciò, non è possibile osservare uno
stesso elemento più di una volta.

Campionamento casuale stratificato: richiede una preliminare


suddivisione della popolazione in “strati o sub-popolazioni”, da ognuna
delle quale viene estratto un campione in modo casuale. Le sub-

popolazioni vengono definite sulla base di una o più variabili dei soggetti
che si suppone influiscano sui risultati dell’esperimento.

Campionamento “ad hoc” o di convenienza: la popolazione a cui si


generalizzano i risultati di una ricerca deve essere definita dalle
caratteristiche del campione.

I QUATTRO METODI DI ASSEGNAZIONE DEI SOGGETTI AI


GRUPPI O ALLE CONDIZIONI
Assegnazione casuale: ogni soggetto deve avere la stessa probabilità di
entrare a far parte di ciascun gruppo. L’assegnazione casuale offre i
seguenti vantaggi:
a) controlla le minacce alla validità interna ed esterna;
b) mantiene sotto controllo simultaneamente più variabili;
c) è l’unico procedimento che può controllare anche i fattori
sconosciuti che possono influire sui risultati.

Pareggiamento: si ricorre a questo metodo quando sono presenti le tre


seguenti condizioni:
a) esiguità dei campioni;
b) sospetto che vi sia una variabile rispetto alla quale i soggetti
differiscono e che sia correlata in qualche modo con la variabile
dipendente;
c) possibilità di esaminare i soggetti prima dell’esperimento.
Il procedimento si svolge come segue:
a) si dispongono in ordine crescente o decrescente i soggetti sulla
base di una prova preliminare relativa alla variabile influente;
b) si formano delle coppie in base all’ordine precedente;
c) si assegnano a caso i membri di ciascuna coppia ai gruppi;
d) si applicano i trattamenti e quindi si esaminano le differenze tra i
membri delle coppie.

Metodo dei blocchi: consiste nell’abbinare le caratteristiche dei gruppi.


Prima di tutto, è necessario individuare la variabile in base alla quale
formare i blocchi, poi misurarla in tutti coloro che dovranno appartenere
al campione sperimentale, e infine suddividere i soggetti in base alla
media e alla deviazione standard ottenute in tali misure.

Soggetti come controllo di se stessi: sottoporre ciascun soggetto a


ciascuna condizione dell’esperimento (disegno entro i soggetti).

ALCUNI EFFETTI DI DISTURBO DOVUTI AI SOGGETTI

- selezione dei soggetti: spesso la difficoltà a reperire i protagonisti


della ricerca ha indotto gli studiosi a ricorrere prevalentemente ai
soggetti più facilmente avvicinabili (topi albini di laboratorio e
studenti dei corsi di psicologia). Questi gruppi hanno
caratteristiche proprie, non facilmente generalizzabili (minaccia
alla validità esterna).
- Soggetti volontari e non volontari: i soggetti “volontari” sono
caratterizzati da “disponibilità” o “acquiescenza”, ossia tendono a
rispondere agli esperimenti con un atteggiamento definito di
desiderabilità sociale. Tra i soggetti volontari vengono inclusi
anche coloro che collaborano dietro ricompensa in denaro o altro.
Sembra che al variare della quantità di ricompensa vari anche il
desiderio dei soggetti di partecipare all’esperimento.
I metodologi parlano di “soggetti non volontari” quando,
nell’attività di ricerca, si riscontrano persone che:
a) si rifiutano di partecipare;
b) non si presentano pur avendo accettato di collaborare (più
frequenti nei gruppi di controllo; questo fenomeno è noto come
“perdita differenziale” dei soggetti e porta a vanificare la
possibilità dell’esperimento di controllo);
c) non si incontrano affatto perché non sono reperibili.

Potrebbero piacerti anche