Sei sulla pagina 1di 9

L'indagine empirica

Il procedimento scientifico in psicologia e in psicopedagogia ha come obiettivo descrivere, predire, spiegare il comportamento e le relazioni regolari tra i
vari aspetti del comportamento stesso. Un comportamento che per gli insegnanti è importante è l'apprendimento, ad esempio. Tutte le ricerche partono
sempre da un quesito derivante: da un'osservazione o da una lacuna in una teoria. E tale quesito guida l'intera ricerca. Per poter procedere verso una
descrizione o spiegazione di un evento (di apprendimento, ad esempio) il ricercatore deve trasformare il quesito in una ipotesi di ricerca. Essa è quindi un
tentativo di spiegazione dell'evento ed è formulata secondo uno schema: "se….allora….".

Un processo scientifico
Il punto di partenza di un processo scientifico è quello di raccogliere informazioni per risolvere o capire un problema. L’individuazione del problema può
essere basato sullo stadio di sviluppo della disciplina, su osservazioni casuali che rivelano criticità nelle conoscenze disponibili, interessi del ricercatore
ma anche su richiesta di un committente. Si parte dalla formulazione di un problema da cui si vanno ad individuare i tipi di variabile, si formulano delle
ipotesi delle nostre variabili.

La teoria.
La teoria è una spiegazione possibile di un fenomeno, qualunque indagine empirica presuppone una teoria in quanto il ricercatore quando si appresta ad
osservare delle variabili lo fa presupponendo una teoria di riferimento decidendo cosa e come osservare un determinato fenomeno. La teoria scientifica a
differenza di quella ingenua viene definita in modo esplicito e sistematico da parte del ricercatore.

L’ipotesi
E una parte di una teoria, afferma e mette in relazione tra loro due o più variabili. Un ipotesi scientifica deve essere misurabile ed empirica, infatti non
deve utilizzare definizioni concettuali e astratte ma definizioni operative, rispettando i requisiti di PARSIMONIA, OPERAZZIONABILITA ed avere un livello
intermedio di GENERALITA, infatti ipotesi troppo specifiche rischiano di far perdere il significato del fenomeno studiato, al contrario ipotesi troppo generali
rischiano di non poter essere generalizzate. In definitiva un ipotesi deve proporre la spiegazione più semplice possibile al fenomeno preso in
considerazione. I parametri sui quali si fanno generalmente le ipotesi sono : media e varianza.

Una ipotesi può non essere verificabile se: 1)mancano le definizioni dei concetti implicati (ex: manca la definizione di aggressività) 2) l'ipotesi stessa è
circolare ove l'evento è usato come spiegazione di se stesso (se i bambini sono aggressivi, allora si sentono ostili) 3) si fa uso di concetti che non
possono essere verificati (ex: se qualcuno è aggressivo è a causa del suo segno zodiacale).
Le ipotesi quindi devono a) fondarsi su definizioni operative delle caratteristiche che sono oggetto di studio. b) Il ricercatore deve essere consapevole
che possono esserci più definizioni operative dello stesso concetto (ex: apprendimento) c) Il ricercatore si pone in atteggiamento critico rispetto al risultato
del proprio lavoro: cioè deve essere convinto che la spiegazione ottenuta è la più probabile rispetto alle altre spiegazioni possibili. d) Il ricercatore deve
avere chiaro fin dall'inizio che tipo di relazione ipotizza fra i concetti oggetto di studio. La relazione fra i concetti può essere di tipo causale (x è causa di
y) o di tipo correlazionale (x e y si presentano insieme nell'evento comportamentale). e) Se il ricercatore ha come obiettivo di limitarsi a fornire una
rappresentazione il più possibile accurata di ciò che avviene, allora la sua indagine empirica sarà a livello descrittivo. f) Se il ricercatore ipotizza una
compresenza sistematica in uno stesso evento, dei concetti studiati, il livello dell'indagine sarà correlazionale (ex: tutoring e apprendimento). g) Se il
ricercatore ha come obiettivo di spiegare il comportamento in funzione di un'unica causa, allora la sua indagine sarà sperimentale ed è il più elevato livello
di indagine. Il ricercatore ipotizza una relazione di causa ed effetto fra x e y.

Variabile
Si definisce variabile qualsiasi caratteristica o attributo che possa assumere diversi valori in un dato intervallo, le variabili devono essere misurabili nella
caratteristica che interessa, possono essere indipendenti o dipendenti. La variabili indipendente è una caratteristica dell’ambiente fisico, sociale o
psicologico, sono quelle variabili che causano una risposta o un comportamento, possono essere manipolate dal ricercatore che può fargli assumere
diversi valori (livelli) affinchè la sua influenza possa essere valutata ( anche se esistono variabili come il sesso, l’età, lo stato economico, etc che non
possono essere manipolate in modo diretto ma il ricercatore può far variare decidendo quali soggetti osservare). La variabile dipendente è la risposta del
soggetto alla variabile indipendente manipolata o meno dal ricercatore, essa infatti rifletta l’azione della V.I. Deve essere definita in termini operazionali,
facilmente quantificabile, sensibile ai cambiamenti della V.I. deve essere un buon indicatore del comportamento oggetto di studio.La variabile dipendente
è quella che il ricercatore misura. Le variabili di disturbo sono quelle variabili presenti durante l’osservazione ma che non sono rilevanti nello studio tra la
relazione della V.I e la V.D.

Interventi sulle variabili indipendenti


Il ricercatore può intervenire in 2 modi sulle variabili indipendenti: manipolandole direttamente ( es presentando al soggetto delle parole scritte con
caratteri diversi) o cambiando le istruzioni date ai diversi gruppi di soggetti ( es divide il campione in 2 gruppi e ad un gruppo dice che durante
l’esperimento saranno presenti altre persone all’altro che saranno soli, in questo modo condiziona lo svolgimento del compito ).

Il test 
Il test, lo strumento di valutazione della mente, principio chiave di tutta la psicometria, può essere definito come un insieme di stimoli, o item,
standardizzati per tipologia, durata, ordine, sequenza e istruzioni. Questi stimoli sono costruiti in maniera tale da rappresentare, in base al modello teorico
che li ha edificati, una determinata funzione cognitiva o di personalità. Le risposte del soggetto vengono codificate in maniera standardizzata, ottenendo
specifici punteggi assegnati in base alle indicazioni teoriche e metodologiche fornite dal manuale del test. Tali punteggi vengono sia confrontati nelle
sotto-aree che li compongono, sia convertiti in valori standard e confrontati con un campione normativo. Tale campione, costruito nella fase di taratura del
test, è di solito rappresentativo della popolazione nazionale di riferimento. In base ai punteggi ottenuti, e a tutti i confronti su di essi svolti, è possibile
definire in maniera quantitativa le differenze ottenute dai rispondenti al test.

Studio correlazionale
Nello studio correlazionale , il ricercatore è interessato ad osservare come varia una data variabile al variare dell’altra, in questi casi dobbiamo avere una
variabile trattata nel modo Y ( osservata) e l’altra nel modo X (manipolata). La seconda variabile potrebbe anche essere trattata nel modo Y affinchè si
possano osservare le covaziazioni tra le 2 variabili.

Tipi di variabili e modi di trattarle:


Si definisce variabile qualsiasi attributo o caratteristica che può cambiare e variare, cioè può assumere valori diversi o categorie diverse: ex: altezza,
socievolezza, reddito, tipo di religione, etc. Se un attributo non varia si definisce costante: ex il numero delle teste o dei cuori in un individuo è una
costante. Se si è interessati a studiare i ragazzi di 16 anni, anche l'età diventa una costante. Modo di trattare le variabili: Modo X: si tiene la variabile
che interessa sotto controllo, facendole assumere solo determinati valori noti al ricercatore. E' la variabile indipendente. Modo Y: consiste nel far variare
liberamente la variabile e registrare i valori che assume (variabile dipendente) Modo K: consiste nel mantenere costante una variabile rilevante per
l'indagine. Solitamente il ricercatore cerca di trattare in modo K le variabili di disturbo che potrebbero influire sui risultati ma che non sono direttamente
rilevanti per l'indagine. L'età potrebbe essere tipicamente una variabile di disturbo, ma anche l'avvicendamento di diversi insegnanti in una stessa classe
etc. Modo M: quando non è possibile trattare le variabili di disturbo nel modo K il ricercatore cerca di eliminarne i possibili effetti costruendo dei
sottoinsiemi di soggetti nei quali la /le variabili di disturbo siano presenti in eguale misura. Il modo M consiste nel misurare la variabile creando dei
sottoinsiemi nei quali la variabile stessa è presente in maniera analoga. Ex. Se supponiamo che l'età dei soggetti sia una variabile di disturbo, invece di
trattare la variabile nel modo K, cioè prendere soggetti della stessa età, una volta rilevata l'età dei soggetti possiamo creare gruppi composti di individui
delle stessa età ed assegnare a caso un individuo al gruppo sperimentale ed uno al gruppo di controllo. In base al livello di misura che viene adottato, le
variabili si distinguono in: variabili discrete (categoriali o nominali o mutabili) variabili continue
Modo k
Consiste nel mantenere costante la V.I. in tutte le osservazioni, riduce la variabilità tra i gruppi ma limita la generalità dei risultati ottenuti.
Modo x
Consiste nel controllare la variabile facendole assumer un valore noto in un sotto insieme e un valore diverso in un altro sotto insieme. Questo modo è il
più usato in psicologia quando il ricercatore suddivide il campione in due gruppi, uno sperimentale che riceve un trattamento e uno di controllo che ha le
stesse caratteristiche del gruppo sperimentale ma che non riceve alcun trattamento.
Modo M
Consiste nel misurare la variabile ed assegnare i casi a a diversi sottoinsiemi in modo che ognuno di essi abbia la stessa media rispetto a quella variabile,
viene utilizzato per ridurre la variabilità e di conseguenza il possibile intervento di terze parti.
Modo Y
Consiste nel lasciare la variabile libera di assumere qualsiasi valore e nel registrare e osservare i valori assunti, che vengono così dette variabili
osservate. Perché un indagine fornisca informazioni è necessario che almeno una variabile sia trattata in questo modo. Se la ricerca ha solo una variabile
e questa è trattata in modo y, si avrà un indagine puramente descrittiva.
Modo R
(randomizzazione) consiste nell’assegnare casualmente i soggetti alle diverse condizioni, affinchè le variabili di disturbo possano agire in modo
equivalente nei diversi gruppi, questo modo è efficace se il campione è particolarmente numeroso.
Modo Z
Consiste nel non prendere in considerazione la variabile, è definito un non metodo, non limita l’informazione ma riduce la possibilità che relazioni di
interesse vengano confuse dall’intervento di terze variabili ( variabili di disturbo).
Modi K M X
Hanno in comune che il ricercatore fa in modo che la variabile assuma dei valori piuttosto che altri, così facendo egli non ha altre informazioni.

Indagini empiriche
Le indagini empiriche possono avere 3 scopi diversi ai quali corrispondono 3 livelli di indagine empirica: indagine descrittiva, si propone di dare un quadro
il più fedele possibile di ciò che avviene a livello di cognizioni, vissuti emotivi etc che si sta studiando, il ricercatore osserva e registra la variabile oggetto
di studio. Indagine correlazionale: ha come obiettivo quello di descrivere come ciò che accade a livello cognitivo o emotivo è in relazione con altre
variabili, in questa indagine il ricercatore verifica se le 2 variabili si influenzano a vicenda ma non conosce le cause e il modo con il quale delle una
influenza l’altra. Indagine scientifica: è il terzo livello di indagine empirica, e si pone come obiettivo quello di produrre informazioni riguardo le relazioni
causali tra le variabili. Di solito la variabile dipendente viene osservata prima e dopo la manipolazione della V.I ( variabile manipolata dallo
sperimentatore), le differenze che emergono possono essere imputate alla manipolazione stessa e si può affermare che la V.I. ha degli effetti sulla V.D.

La validità delle indagini empiriche:


Si definisce validità "la migliore approssimazione disponibile alla verità": ve ne sono di 4 tipi: validità interna; validità esterna; validità statistica delle
conclusioni; validità di costrutto (delle procedure di manipolazione e di misura delle variabili).
1) Validità interna: di una ricerca è il grado con cui le conclusioni che vengono tratte sono riferibili effettivamente alla relazione fra le variabili in gioco e
non ad altro. E' il grado di certezza con il quale il ricercatore può escludere interpretazioni alternative alle sue conclusioni, evita che vengano fornite
spiegazioni alternative dei risultati ottenuti. Risponde alla domanda : esiste una relazione causale tra V.I. e V.I ?
2) Validità esterna: riguarda la possibilità di estendere i risultati dell'indagine ad altri soggetti in luoghi diversi in tempi diversi. Essa è legata al
campionamento dei soggetti. Se il campione è rappresentativo della popolazione, allora la validità esterna è elevata. Il metodo più sicuro per
selezionare i soggetti è il campionamento casuale, inoltre per generalizzare i risultati è necessario passare dal campione della popolazione
accessibile a quella della popolazione bersaglio. La validità esterna deve essere stabile nel tempo ( validità temporale)
3) Validità delle conclusioni statistiche : riguarda la probabilità che la relazione tra la variabile indipendente (il tipo di insegnamento) e quella dipendente
(apprendimento) sia effettiva e non dovuta al caso. Corrisponde quindi alla verifica della significatività statistica di una relazione tra due variabili, e
alla sua valutazione quantitativa.
4) Validità di costrutto: deriva dalla capacità del ricercatore di definire in termini operativi le variabili rilevanti per l'indagine, Il trattamento deve riflettere
bene le cause e il risultato riflette bene gli effetti La validità di costrutto considera la spiegazione della relazione casuale, ogni risultato va infatti riferito
all’interno di un modello teorico che deve essere misurabile.

Minacce alla validità Interna


Storia, fa riferimento e tutti gli eventi che possono presentarsi nel corso della sperimentazione e che potrebbero essere rilevanti ai fini del risultato.
Maturazione: riferita alle modificazioni nel tempo delle caratteristiche del soggetto, minaccia soprattutto le sperimentazioni a lungo termine. Effetto delle
prove: riferito agli effetti che una prima somministrazione di un test può avere su quella successiva e quindi può essere condizionata.
Strumentalizzazione: riguarda le variazioni nel tempo che si possono osservare nella strumentazione utilizzata, le procedure per misurare la V.D e i criteri
di assegnazione dei punteggi dati dai terapeuti. Regressione statistica riferita alla tendenza dei punteggi estremi osservati di rientrare verso la media in
una seconda misurazione. Criteri di selezione: è fondamentale che i soggetti appartenenti ai gruppi non abbiano differenze prima dell’introduzione della
V.I. l’assegnazione casuale riduce questa minaccia. Abbandono o mortalità sperimentale: in riferimento a quei soggetti che rinunciano a continuare
l’esperimento o che muoiono durante l’esperimento. Effetto diffusione: in riferimento al fatto che l’informazione passi dal gruppo sperimentale a quello di
controllo, questo può influenzare il comportamento dei 2 gruppi. Le minacce possono anche derivare dalla combinazione di più effetti le più frequenti sono
selezione x maturazione e selezione x storia.

Minacce alla validità Esterna


Caratteristica del campione ovvero la sua rappresentatività al fine di poter generalizzare i risultati. Caratteristiche dello stimolo: riferite alle caratteristiche
dell’ambiente, alle caratteristiche degli sperimentatori, le caratteristiche degli stimoli a cui vengono sottoposti i soggetti, in quanto questi fattori potrebbero
far si che i risultati non possano essere generalizzati e quindi ristretti e applicabili solo in determinate situazioni. Caratteristiche contestuali: riferita al
contesto in cui si svolge l’indagine, ci si chiede se i risultati ottenuti in un determinato contesto possano essere estesi ad altri contesti. Interferenza dovuta
al trattamento multiplo: dovute alla necessità di somministrare più di un trattamento facendo sorgere il problema della generalizzabilità dei risultati ottenuti.
Effetti dovuti alla novità: riferita al fatto che gli eventi di un intervento possano dipendere in parte dalla novità di una situazione o che questa venga
somministrata in condizioni in cui sia particolarmente saliente o infrequente. Procedure di valutazione: reattività di valutazione, in quanto spesso i goggetti
sono consapevoli di essere valutati e questo può portare a rispondere in modo differente, sensibilità ai test in quanto un pre test potrebbe in qualche
modo condizionare i soggetti. Momento della somministrazione: il test potrebbe essere somministrato in un particolare momento e quindi potremmo avere
un risultato falsato.
Minacce alla validità di Costrutto.
Attenzione e rapporti con i clienti: l’attenzione rivolta ai soggetti e il rapporto con gli stessi potrebbero essere alla base delle differenze tra i gruppi,
esercitando una influenza principalmente in base a tale attenzione e non alle caratteristiche dell’intervento. Un noto esempio è l’effetto placebo.
Aspettative dello sperimentatore è possibile che le aspettative dello sperimentatore condizionino le prestazioni dei soggetti, minacciando la validità di
costrutto, può manifestarsi mediante il tono della voce, della postura, espressioni del volto etc. Segnali provenienti dalla situazione sperimentale si tratta
di fattori apparentemente ausiliari che associati all’intervento possono contribuire alla definizione del risultato ( informazioni date ai soggetti, Istruzioni
date ai soggetti)

Indagine sperimentale = x e y sono in relazione di causa ed effetto

Indagine correlazionale = x e y si presentano insieme nel comportamento

Indagine descrittiva= descrizione del comportamento e di x e y

Minacce alla validità statistica.


Le principali minacce alla validità statistica riguardano la variabilità. Bassa potenza statistica ovvero la probabilità di rifiutare l’ipotesi nulla quando questa è
falsa, affermando che esiste una differenza significativa tra i gruppi quando in realtà non esiste. Variabilità delle procedure ovvero l’effetto dimensione
connesso alla variabilità del gruppo che potrebbe concorrere all’ottenimento di una differenza significativa tra i gruppi. L’eterogeneità tra i soggetti : i
soggetti all’interno dei gruppi possono distinguersi tra loro per caratteristiche come: ceto sociale, età, sesso, severità etc. Più grande sarà questa variabilità
e minore sarà la probabilità di trovare differenze significative tra le media dei gruppi. L’inaffidabilità delle misure in riferimento alla misura con cui la
caratteristiche prese in considerazione vengono misurate, quando la misura è inaffidabile la prestazione del soggetto è dovuta principalmente alla
variazione casuale, aumentando la variabilità questo effetto tende ad essere più basso. Confronti multipli : questa minaccia non riguarda la variabilità, ma
l’applicazione di tanti test statistici quante sono la V.D. infatti in questo caso si corre il rischio di commettere l’errore di tipo 1, che aumenta tantissimo in
quanto le nostra V.D. sono correlate e non indipendenti, le percentuali di errore e come se si sommassero in ciascun confronto. Per ovviare a questo
problema si ricorre all’analisi multivariata.

Il test delle ipotesi implica vari tipi di rischi: il test può rigettare una ipotesi vera oppure il test può non rigettare una ipotesi falsa. Tali rischi sono indicati
come errore-tipo-I ed errore-tipo-II. In particolare:
- Errore-tipo-I: si verifica quando il test statistico ha evidenziato un pattern o una relazione, anche se effettivamente non esiste alcun pattern. In altre
parole, la probabilità di commettere un errore di tipo I è espresso come: P(errore-tipo-I) = P(Rigettare H0 | H0 vera) . Ad esempio, l’errore-tipo-I è la
probabilità di rigettare H0 quando questa invece è vera, ossia decidere che tra le medie dei gruppi esiste una differenza significativa quando in realtà non
esiste.
Errore-tipo-II: si verifica quando un test statistico non ha evidenziato un pattern o una relazione anche se effettivamente il pattern esiste. In altre parole, la
probabilità di commettere un errore di tipo II è espresso come: P(errore-tipo-II) = P(Non Rigettare H0 | H0 falsa). Ad esempio, l’errore-tipo-II è la probabilità
di non rigettare l’ipotesi nulla H0 anche se in media le due metodologie hanno medie differenti.

Effetto dimensione
Descrive l’impatto che ha ottenuto l’intervento facendo riferimento alla grandezza delle differenze tra i gruppi (2 o più) si esprime con la formula ES= m1-
m2 / s ( somma deviazioni standard). Più grande è S a più piccolo è l’effetto dimensione.

Disegni veramente sperimentali


Sono disegni che permettono allo sperimentatore il completo controllo sulla variabile, sono caratterizzati dall’assegnazione casuale dei soggetti alle diverse
condizioni sperimentali, ciò permette di distribuire le caratteristiche degli stessi nei diversi gruppi facendo si che risultino equivalenti, in questo modo le
variabili di disturbo si distribuiscono equamente all’interno dei gruppi. ( ovviamente se il campione è numeroso)

Disegni sperimentali pre e post test con Gruppo di controllo


R O1 X O2 G1
R O3 O4 G1
tempo
Dove R è la randomizzazione, O le osservazioni, X il trattamento e G i gruppi 1 e 2. Questo disegno consente di controllare la storia, la maturazione e la
mortalità che potrebbero crearsi tra le 2 osservazioni, consentendo spiegazioni alternative all’introduzione della V.I. Gli effetti di mortalità e storia possono
essere controllati nel confronto tra O 3 e O4 in quanto non avendo il 2° gruppo ricevuto trattamento se dovessimo avere un risultato diverso, ciò sarà dovuto
al trattamento. Il pre test O 1 e O2 permette di controllare se i 2 gruppi sono equivalenti prima della somministrazione del trattamento, equivalenza che
dovrebbe essere garantita dalla randomizzazione.
Lo svantaggio è che potrebbe esserci un interazione tra pre e post test in quanto il pre test potrebbe condizionare il test.

Disegni sperimentali post test con Gruppo di controllo


R X O1 G1
R O2 G1
Tempo
In questo caso si ha solo un osservazione successiva al trattamento e contemporanea all’osservazione del gruppo di controllo. La randomizzazione
consente l’equivalenza tra i gruppi soprattutto cho un numero elavato di soggetti e di conseguenza le differenze tra i gruppi possono essere imputate alla
manipolazione sperimentale X. I gruppi non sono sottoposti a verifica iniziale in quanto manca il pre test.

Disegno sperimentale di Salomon


R O1 X O2 G1
R O3 O4 G2
R X O5 G3
R O6 G4
Tempo
Questo disegno prevede 4 gruppi formati tramite randomizzazione, unisce i disegni pre-pos test e post test superandone i limiti, l’effetto del trattamento
viene esaminato confrontando i pos-test 1 e 3 (O 2 O5) con i gruppi 2 e 4 (O 4 O6). L’eventuale interazione mortalità può essere messa in evvidenza
confrontando i pos-test dei due gruppi sottoposti a trattamento uno con pre test e uno senza pre test. E l’unico disegno che consente di di controllare
l’interazione pre-test confrontando O2 con O5 , l’effetto pre-test può essere controllato confrontando O2 e O4 con O5 O6
Disegni pre sperimentale.
Si distinguono da quelli sperimentali in quanto non prevedono la randomizzazione dei soggetti alle diverse condizioni sperimentali, questo rende plausibile
molte delle ipotesi alternative che minacciano la validità delle indagini. Rispetto ai disegni quasi sperimentali questo tipo di disegni permettono di scartare un
minor numero di minacce alla validità interna.

Disegni pre sperimentale con solo pos-test


Non R X O1 G1
Non R O2 G1
Tempo
Questo disegno non avendo una assegnazione casuale e nessun pre-test, non consente alcun controllo sull’equivalenza dei 2 gruppi prima del trattamento
X. La conseguenza è che l’eventuale differenza tra O 1 O2 non può essere imputata con certezza al trattamento X. Chiaramente non avendo pre-tes
possiamo escludere l’intervento di fattori come: storia, maturazione e interazione pre-test trattamento.

Disegni pre sperimentale con solo gruppo pre e pos-test.


O1 X O2 G1
tempo
Questo disegno prevede la misura ripetuta sugli stessi soggetti, un eventuale differenza pre e post test non potrà ovviamente essere interpretata in modo
inequivocabile non potendo escludere ipotesi alternative. Non è infatti possibile escludere ipotesi come: storia, misurazione, maturazione, mortalità
deterioramento dello strumento, questo fa si che questo tipo di disegno sia estremamente fragile dal punto di vista della validità.

Disegni pre sperimentale disegno del colpo unico


X O1 G1
Tempo
E il più semplice ma ovviamente il più impreciso dei disegni pre sperimentali in quanto mancando sia un pre test che un gruppo di controllo non si ha alcun
elemento per poter affermare che il trattamento X abbia avuto qualche effetto. Viene di solito utilizzato quando lo sperimentatore dispone di valori di base
della variabile di studio per una data popolazione, o nel caso in cui un ipotetico effetto è definito in modo talmente specifico per il quale senza ombra di
dubbio può essere riferito al trattamento X

Disegni quasi sperimentali


Sono quei disegno in cui è impossibile l’assegnazione casuale dei soggetti, alle diverse condizioni sperimentali, in psicologia molte variabili non possono
essere manipolate si perché eticamente discutibili ma anche perché di competenza delle istituzioni. In questi casi in cui la manipolazione non si può attuare
ma si vuole realizzare un indagine, il trattamento viene introdotto in contesti naturali.
Non R O1 X O2 G1
Non R O3 O4 G2
Tempo
La mancanza di assegnazione casuale non permette di escludere storia, selezione, maturazione in quanto i gruppi potrebbero essere diversi già in
partenza, è inoltre possibile che queste minacce possano interferire tra loro: selezione X storia, selezione X maturazione, inoltre non possiamo affermare
che le differenze al post test siano dovute al trattamento.

Disegni quasi sperimentali con gruppo di controllo non equivalenti.


Sono quei disegni in cui non è stato possibile assegnare in modo casuale i soggetti al gruppo che si sottopone al trattamento ( sperimentale) e a quello cui
non è stato somministrato il trattamento (controllo)

questo risultato non è credibile in quanto i 2 gruppi hanno molte differenze al pre test
pre
test

pre in questo caso si può essere abbastanza sicuri del risultato in quanto nonostante le
test differenze dei gruppi in partenza abbiamo un netto cambiamento

Disegni quasi sperimentali con 2 gruppi e 2 osservazioni di pre test.


Non R O1 O2 X O3 G1
Non R O4 O5 O6 G2
Tempo

L a presenza di 2 osservazioni consente di verificare se i gruppo crescono in modo equivalente confrontando lo scarto tra O 1 O2 e quello tra O4 O5 ,
ovviamente l’intervallo temporale che separa le 2 osservazioni sia lo stesso .e sufficientemente ampi per permettere il verificarsi della maturazione. Con 2
pre test però si corrono maggiori rischi per quel che riguarda la mortalità e la sensibilizzazione al pre test essendo 2 anziché 1.
Disegni quasi sperimentali 1 solo gruppo e 2 variabili.
Un disegno quasi sperimentale molto usato soprattutto se si hanno scarse risorse, si utilizza un solo gruppo nel quale vengono osservate prima e dopo
l’intervento sperimentale due diverse variabili dipendenti
O1a X O2a (condizione sperimentale)
O1b O2b (condizione di controllo)
Tempo
In questo disegno abbiamo un unico gruppo sul quale si osservano 2 variabili diverse delle quali solo una è sottoposta a trattamento X. Si suppone che le
2 variabili (a e b) siano simili per quel che riguarda l’azione di fattori di disturbo, che il trattamento sia efficace su a ma non su b. Le 2 osservazioni della
seconda variabile forniscono una misura indiretta di possibili effetti di maturazione e storia. L’assenza di modificazioni tra la prima e la seconda
osservazione della variabile b consente di scartare ipotesi alternative maturazione e storia. Una differenza significativa tra le 2 osservazioni della variabile
a sarà facilmente attribuibile al trattamento x.

Disegni quasi sperimentali 1 solo gruppo


E un disegno quasi sperimentale fatto con un solo gruppo dove il trattamento viena prima implementato e poi rimosso, naturalmente si ipotizza che il
trattamento abbia un effetto limitato nel tempo, la seconda parte del disegno fa da controllo alla prima.
O1 X+ O2 O3 X- O4
Tempo
Con la stessa logica è possibile in alcuni casi ipotizzare livelli opposti di trattamento, in questo caso il gruppo di controllo anziché non essere sottoposto a
nessun trattamento viene sottoposto al trattamento opposto a quello applicato al gruppo sperimentale.
O1 X+ O2 G1
O3 X- O4 G2
Tempo
Il disegno è interpretabile se si ottiene un effetto in direzione opposta dei 2 gruppi e questi devono variare nettamente, altrimenti non è possibile affermare
che il cambiamento è dovuto a uno dei 2 trattamenti

Pre
test
pos test

Disegni quasi sperimentali Coorti.


Questo disegno è particolarmente utile nel campo educativo e sociale, mette a confronto diverse generazioni di soggetti che si succedono nella stessa
situazione.
O1 ( coorte 1)
X O2 ( coorte 2)
tempo
Si tratta di un disegno debole ed esposto al rischio di effetti dovuti alla selezione, inoltre è esposto anche al rischio del fattore storia. Un incremento della
validità interna si può ottenere quando è possibile suddividere il trattamento in più livelli.
O1 ( coorte 1) se il risultato indicassero l’incremento nelle coorti con trattamento rispetto a quelle senza
X1 O2 ( coorte 2) trattamento non potremmo affermare interpretazioni alternative.
O3 ( coorte 3)
X2 O4 ( coorte 4)
tempo
Per concludere i disegno a coorti sono interpretabili con maggiore sicurezza se è possibile avere diversi livelli di trattamento e se analizzando i dati si
evidenzia l’esistenza di una maggiore differenza tra coorti pre e post trattamento nel caso di trattamenti di maggiore intensità.

Disegni con serie temporali interrotte.


Sono disegni in cui si dispongono osservazioni multiple in successione temporale, la successione si definisce interrotta in quanto si conosce il punto in cui si
interrompe il trattamento. Non abbiamo una singola misura prima e dopo il trattamento ma abbiamo diverse misure a scadenze definite, la molteciplità delle
osservazioni prima del trattamento è molto importante e consente di evidenziare la tendenza dei dati prima che venga inserita la V.I. che viene inserita
come termine di paragone per l’andamento dei dati raccolti dopo il trattamento O1 O2 O3 O4 X O5 O6 O7 O8 ( 4 successioni temporali prima e 4 dopo il
trattamento ) questa è una serie temporale interrotta semplice, se esiste un effetto del trattamento X lo si evidenzierà nelle differenze tra le osservazioni che
precedono la X e quelle che la seguono. Vengono solitamente riportate in diagrammi che hanno nell’asse delle ascisse il tempo e su quello delle ordinate il
valore della variabile osservata/misurata (V.D.) In questi diagrammi l’effetto del trattamento può manifestarsi in 4 forma diverse: 1) una vistosa discontinuità.
2) un cambiamento dell’inclinazione ( slope) della linea che congiunge le diverse osservazioni. 3) un cambiamento della varianza di ciascun gruppo di
osservazioni attorno alla rispettiva media. 4) La modificazione di andamenti stagionali, come picchi in corrispondenza di alcuni mesi e dopo l’intervento i
picchi scompaiono o si spostano a mesi diversi). Gli effetti più studiati sono solitamente i primi 2.

Disegni con serie temporali interrotte


O1 O2 O3 O4 X+ O5 O6 O7 O8 X- O9 O10 O11 O12
Tempo
Anche con i disegni a serie temporali interrotte possiamo prevedere la somministrazione e la successiva sottrazione del trattamento, considerando il
disegno come il risultato di 2 serie temporali interrotte la prima che va da O 1 a O8 , interrotta dal trattamento X e l’altra da O 5 a O12 interrotta dalla
sottrazione del trattamento. Il risultato si interpreta facilmente se si evidenzia un cambiamento di direzione a partire da O 5 e un cambiamento in direzione opposta a partira
da O9. Inoltre in questo disegno sono poco plausibili le ipotesi alternative in quanto dovrebbero agire prima in una direzione e poi in un'altra.

Disegni con serie temporali interrotte effetti.


A prescindere dalla forma che l’intervento assume dobbiamo distinguere tra effetti continui e discontinui : il cambiamento prodotto rimane stabile man
mano che ci si allontana dal trattamento oppure tende a scomparire con il passare del tempo. Effetti immediati e ritardati: non sempre l’effetto segue
immediatamente l’applicazione del trattamento in quanto a volta richiede di un certo intervallo di tempo oppure perché certe modificazioni si evidenziano
solo dopo un certo tempo. Ovviamente l’effetto ritardato del trattamento causa maggiori problemi per quanto riguarda le inferenze causaliin quanto
l’intervallo di tempo aumenta la possibilità di interpretazioni alternative ( storia, mortalità). La serie temporale interrotta e comunque quella che permette
meglio il controllo del trend maturativo in quanto la successione delle osservazioni ci consente un controllo graduale degli effetti sulla popolazione nel
tempo.
Disegni con serie temporali interrotte limiti
O1 O2 O3 O4 X O5 O6 O7 O8 G1 gruppo sperimentale
O9 O10 O11 O12 O13 O14 O15 O16 G2 gruppo di controllo
Tempo
Il limite maggiore è costituito dal fattore storia in quanto è sempre possibile che contemporaneamente al trattamento si verifichi un qualche evento/fattore
si può allora prevedere un gruppo di controllo con osservazioni analoghe al gruppo sperimentale. Un altro problema è il deterioramento dello strumento
nel tempo . Un altro problema è quello della mortalità, in quanto è possibile l’abbandono da parte di soggetti e quindi l’osservazione del gruppo fatta
precedentemente non sia equivalente con quella fatta successivamente. Altro fattore è quello dell’andamento stagionale che può determinare
cambiamenti non collegati all’introduzione del trattamento

Micro disegni.
La micro progettazione di un indagine riguarda le decisioni che il ricercatore deve prendere a riguardo delle similarità/differenza delle osservazioni vhe
verranno fatte come:quali risposte/comportamenti sono da considerarsi simili e quali differenti; I soggetti saranno sottoposti tutti allo stesso trattamento
oppure saranno inseriti in diversi sottogruppi che riceveranno trattamenti diversi ? nella microprogettazione il ricercatore decide quali variabili considerare
nella sua ricerca ( variabile dipendente o osservata), che va distinta dalle variabili i cui livelli vengono decisi a priori nel progettare il disegno( variabili di
disegni). Inoltre il ricercatore stabilisce i “livelli” ( variabili di disegno) o categorie come ( sesso etc). L’individuazione delle dimensioni da utilizzare come
variabili di disegno e come variabili osservate, nonché i rispettivi livelli di tali variabili viene chiamata analisi dimensionale. Per poter essere utili i disegni
dimensionali devono essere costituiti seguendo alcune regole: 1) i soggetti osservati devono essere classificati in base a tutte le dimensioni individuate
come rilevanti per l’indagina; 2) ogni dimensione deve essere suddivisa in un insieme esaustivo di livelli ( categorie); 3) e livelli di ciascuna dimensione
devono escludersi reciprocamente; 4) la relazione logica tra i diversi livelli deve essere specificata; 5) le dimensioni dovrebbero essere indipendenti ( se
un soggettoè classificato in una dimensione ciò non dovrebbe influire sulla classificazione dello stesso in un'altra dimensione) ; 5) tutte le dimensioni
dovrebbero coprire tutta l’area di interesse del ricercatore.

Dimensione del disegno


Si ottiene considerando i livelli delle diverse variabili prese in considerazione nel disegno.
O1 X a O2 G1
O Xb O4 G2
3

Tempo
Il trattamento a 2 livelli è un fattore indipendente poichè ciascun gruppo è sottoposto soltanto ad uno dei 2 trattamenti, il tempo è un fattore ripetuto in
quanto ogni livello (pre e post) è presente in ciascun gruppo, la dimensione del disegno è 2x2
O1 X a O2 G1
O3 X b O4 G2 Disegno con 3 gruppi 3x2=6 in quanto il fattore trattamento prevede 3 livelli ( a, b, nessun trattamento)
O O6 G3
Tempo

La strategia di ricerca
La strategia di ricerca è il tipo di orientamento generale che il ricercatore assume per rispondere al quesito della ricerca interessata, le strategia più
utilizzate in ambito psicologico sono : gli esperimenti sul campo, la simulazione sperimentale, gli studi sul campo, gli esperimenti di laboratorio, le indagini
campionarie e i compiti valutativi.

Studi sul campo: negli studi sul campo ci si limita a condurre osservazioni sistematiche di sistemi comportamentali ( naturali), cioè ci si limita a studiare
tali sistemi così come questi si manifestano. Il ricercatore rinuncia a controllare le variabili e si limita a osservare/misurare le variazioni delle variabili
interessate in modo Y. Una volta raccolti i dati il ricercatore può decidere di trasformare una variabile osservata in una variabile di disegno anche se
questo studio nonostante possa evidenziare l’esistenza di una relazione tra le variabili di disegno e la V.D: non consentirà di stabilire l’esistenza di una
eventuale relazione.

Gli esperimenti sul campo: in questo tipo di strategia il ricercatore si basa essenzialmente sull’osservazione sistematica delle variabili( rilevate in modo
Y) ma attua anche una diretta manipolazione di una o più variabili ( modo X). E a questo tipo di ricerca che sono destinati i disegni di ricerca quasi
sperimentali, questa strategia consente inferenze casuali sufficientemente sicure.

La simulazione sperimentale: è una strategia molto intrusiva, in quanto non si limita a intervenire sul contesto ma ne crea uno artificiale. I contesti sono
creati appositamente per la ricerca ed i soggetti accettano di collocarsi in tali contesti per partecipare alla ricerca, per cui il comportamento dei soggetti
non è del tutto spontaneo. Mentre nell’esperimento di laboratorio il ricercatore controlla i tempi di presentazione degli stimoli e indirettamente le risposte
dei soggetti, nella simulazione queste risposte dipendono in parte dalle regole inserite nel sistema e in parte dal comportamento dei soggetti. Inoltre nella
simulazione sperimentale il ricercatore non può analizzare l’effetto di singole variabili isolate poiché ad agire sul comportamento dei soggetti è la struttura
complessa della situazione simulata.

Gli esperimenti di laboratorio: è la strategia che consente il massimo controllo sulle condizioni nelle quali avviene il comportamento oggetto di studio, in
questa strategia il ricercatore non interessato al contesto ma soltanto al comportamento stesso e alle variabili che si presentano. A questa strategia sono
state sollevate delle critiche in quanto anche se è l’unica veramente scientifica si è sostenuta la scarsa validità esterna delle inferenze casuali basate su
questo tipo di ricerca. E vero che con questa strategia è possibile manipolare le variabili di cui si ipotizza un azione casuale e quindi trarre le inferenze
casuale con un elevata sicurezza, ma è altrettanto vero che è difficile estendere i risultati ottenuti in altri contesti.

L’indagine campionaria e i compiti valutativi: queste strategia studiano i resoconti che i soggetti danno circa se stessi, le proprie opinioni, informazioni,
le proprie credenze, rispetto all’esterno. Queste strategie studiano il comportamento in risposta alle domande o agli stimoli presentati dal ricercatore e non
come risposta ad uno specifico contesto in quanto si presume che il comportamento studiato sia indipendente dal contesto. Le due strategie differiscono
per le procedure di osservazione/misurazione adottate e per il contesto nel quale avvengono. L’indagine campionaria utilizza procedure di presentazioni
degli stimoli che risultano familiari ai soggetti, offrendo anche risposte familiari (formulate in modo semplice e a riguardo di temi conosciuti dal soggetto) e
sceglie contesti famigliari ai soggetti ( casa, lavoro, strade etc..) L’indagine campionaria mira alla generalizzabilità dei risultati attraverso i soggetti. I
compiti valutativi: al contrario utilizzano stimoli complessi e non familiari ai soggetti e richiedono giudizi non comuni nella vita quotidiana ( es figure
irregolari e complesse), il contesto non è familiare al soggetto ma solitamente si svolgono in laboratorio. I compiti valutativi mirano alla generalizzabilità
dei risultati attraverso gli stimoli.
La raccolta delle informazioni: è l’insieme delle operazioni che il ricercatore attua per ottenere i dati necessari per confermare o falsificare un ipotesi da
cui è partita un indagine, è necessario e molto importante formulare definizioni operative delle variabili teoriche alla quale l’indagine è interessata, esiste il
problema della validità degli strumenti di misura e della loro attendibilità. Solitamente ci si pongono 2 domande: lo strumento è valido ? Lo strimento è
attendibile? Per validità si intende se lo strumento misura effettivamente la variabile che si intende misurare.

La raccolta delle informazioni fonti di invalidità:


Le minacce alla raccolta delle informazioni possono essere : Legate al soggetto che consapevole di essere osservato può compiacere al ricercatore o al
contrario andargli contro, esiste poi la tendenza a rispondere in maniera sistematica. Legate al ruolo del ricercatore : alcune caratteristiche del ricercatore
come sesso, età ma anche il rapporto con il soggetto possono influenzare le risposte dati dal soggetto, l’affinamento della sensibilità e l’affaticamento che
si possono verificare nel ricercatore quale strumento di misura possono inficiare la validità delle misure. Legate al campionamento e cioè la limitazione
della popolazione raggiungibile dallo strumento utilizzato oppure dalla procedura di campionamento, l’instabilità della popolazione raggiungibile in
momenti successivi, l’instabilità della popolazione in aree diverse. L’instabilità della popolazione limita la generalizzabilità di una data misura a condizioni
di applicazioni diverse. ( es se si cambia la popolazione è possibile utilizzare la stessa misura?)in quanto cambiando i soggetti non è detto che quello
stesso strumento sia valido. Inoltre l’instabilità delle misure può far credere che ci siano differenze nella variabile misurata dovute al contesto e al tempo
quando invece sono attribuibili alle diverse popolazioni sottoposte alle 2 misure cioè al fatto che con il tempo la o in aree diverse la popolazione è
cambiata.

La validità e attendibilità delle misure


Si distinguono 4 tipi di validità: di contenuto, convergente, predittiva e concettuale
La validità di contenuto indica la misura in cui uno strumento contiene un campione rappresentativo del comportamento che si ritiene esprima il concetto
che si vuole studiare e riguarda la possibilità di generalizzare le misure ottenute con un dato strumento a tutte le diverse possibili manifestazioni della
dimensione concettuale che si intende misurare. La validità di contenuto può essere garantita attraverso corrette procedure di campionamento degli
stimoli, importantissima è la concordanza tra i diversi autori circa la definizione della popolazione di stimoli dalla quale estrarre il campione, una volta
accordatisi e definita la popolazione la validità di contenuto può essere garantita attuando un campionamento casuale degli stimoli.
La validità Convergente: Fa riferimento al fatto che le misure ottenute con una nuova procedura di misurazione devono concordare con altre misure di
provata validità. La verifica di validità in psicologia non è una cosa semplice, in quanto non sempre si dispone di altri strumenti validi con cui confrontare le
prove misurate, spesso infatti che costruisce lo strumento lo fa proprio perché non esistono strumenti che misurano in maniera soddisfacente la variabile
concettuale che si intende studiare.
La validità predittiva: Se una data una misura “a” è veramente una misura del concetto “A” è allora possibile prevedere sul concetto di a un'altra
caratteristica B che è associata ad A ( es in un test intellettivo “a” che misura il concetto di intelligenza “A”, permette di prevedere il successo scolastico
“B” misurato ad esempio in termini di promozione/bocciatura “b”.
La validità concettuale o teorica E data dalle relazioni che la misura ha con un insieme di concetti in relazione tra loro, la sua verifica si fa in 3 fasi : 1)
individuare sulla base della teoria di riferimento quei concetti che la teoria pone in relazione con lo specifico concetto che lo strumento intende misurare,
2) formulare ipotesi precise e operativizzabili circa le relazioni fra tali concetti e il concetto che lo strumento intende misurare, 3) sottoporre tali ipotesi a
verifica. Questa validità può essere considerata un estensione della validità predittiva nel senso che essa si basa su un insieme di relazioni complesse e
non sulla relazione tra una nuova misura e un solo concetto.
La validità e attendibilità delle misure. In questa validità ci si chiede se l’affidabilità applicata in momenti diversi o da ricercatori diversi dia luogo alle stesse
misure, in qualunque misura il punteggio ottenuto è influenzato da una parte di errore. L’errore può essere di 3 tipi: 1) dovuto all’uso irregolare dello
strumento, 2) dovuto all’alterazione dello strumento, 3) dovuto a distorsioni sistematiche introdotte dallo strumento. Qualunque sia l’errore, il modo
migliore per individuarlo consiste nel ripetere la misura una seconda volta variando lo strumento e il momento della misurazione anche se in psicologia
praticamente quasi impossibile nella pratica replicare le misure in quanto la prima misura può aver introdotto modificazioni.

Per stimare la Fedeltà della misure si possono usare 3 procedimenti alternativi: 1)test-ritest consiste nel ripetere la prova e la misurazione con le difficoltà
che riguardano le minacce alla validità interna dei disegni di ricerca: gli effetti misurazione e maturazione e storia, che possono condurre erroneamente a
concludere che la misura utilizzata non è fedele quando invece la mancata covariazione tra le 2 misurazioni in tempi diversi è dovuta alla reale
modificazione della variabile studiata. 2) metodo delle forme parallele consiste nella realizzazione di 2 versioni dello stesso strumento che devono avere
alcune caratteristiche statistiche ben precise ( media, varianza, intercorrelazioni) uguali. Anche se ciò non è per nulla semplice, è inoltre possibile che i 2
strumenti contengano lo stesso errore sistematico. Split-half : ( divisione a metà) è un estensione del metodo delle forme parallele, le 2 metà dello stesso
strumento vengono considerate come due formme parallele ( es dividere in 2 parti un questionario).

Matrice multi tratto multi metodo valutano contemporaneamente la fedeltà e la validità della misura, questo paradigma prevede che lo stesso tratto sia
misurato negli stessi soggetti con metodi diversi; e in tempi diversi con lo stesso strumento. Se si studiano 2 tratti si avranno quindi per ogni soggetto 8
misurazioni( 2 tratti x 2 metodi x 2 misurazioni). La matrice multi tratto multi metodo fornisce uno schema efficace e di riferimento per verificare
contemporaneamente validità e fedeltà dello strumento, il suo limite è costituito dal fatto che se si aumentano il numero delle dimensioni considerate
( tratti) aumenta anche quello delle osservazioni, occorre inoltre misurare tutti i tratti con tutti i metodi considerati, oltre che in tempi differenti.

----------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------

Popolazione
E l’insieme di tutti gli elementi a cui si rivolge il ricercatore nel fare la sua indagine . Le popolazioni finite sono definibili in termini di numeri di elementi che
la compongono, quelle infinite al contrario non sono definibili in termini numerici, in entrambi i casi sia per problemi di tempo sia per motivi economici non
è quasi mai possibile studiare l’intere popolazione e si studia un sottoinsieme di n elementi ( campione). Il campione deve essere rappresentativo e lo è
quando ha tutte le più importanti caratteristiche della popolazione da cui proviene, se questo viene estratto casualmente le eventuali differenze tra
popolazione e campione sono da attribuire al caso e non a cause sistematiche. Il campione casuale è quello che a parità di condizioni da maggiori
garanzie. Il più utilizzato è il campione casuale semplice dove tutti i soggetti o elementi della popolazione hanno la stessa possibilità di essere estratti, può
essere con reinserimento o senza reinserimento.

Statistica indiferenziale
Si occupa di 2 tipi di problemi: la stima dei parametri e la verifica delle ipotesi.

La stima dei parametri


Indica il rapporto tra l’indicatore ( X media di un campione di numerosità n ) e il parametro ( µ media dell’intera popolazione). A questo scopo si utilizzani
le distribuzioni campionarie degli indicatori ( media varianza) che hanno forma e caratteristiche conosciute. Data una popolazione n estraiamo un
campione casuale n<N soggetti e calcoliamo ad esempio un indicatore x ( media). Estraiamo tutti i campioni possibili di n e per ognuna calcoliamo la x.
Tutte le media così calcolate possono essere messe sotto forma di distribuzione di frequenza: la distribuzione campionaria della media.
La distribuzione campionaria della media
La media delle medie dei campioni coincide con la media della popolazione dalla quale i campioni sono stati estratti µ x = µ, che vuol dire che la media delle
due distribuzioni non coincide ma diventa sempre più precisa alla media della popolazione man mano che l’ampiezza dei 2 campioni aumenta. Infatti le 2
medie coincidono quando n=N, in questo caso la variabilità della distribuzione campionaria è uguale a zero. Quindi all’aumentare di n la variabilità della
distribuzione campionaria delle medie diminuisce fino a tendere allo zero ( legge dei grandi numeri) Per campioni di numerosità n>30 la distribuzione
campionaria delle medie si approssima alla distribuzione normale qualunque sia la forma della distribuzione della popolazione. Le distribuzioni
campionarie assumono forme simili alle più importanti distribuzioni teoriche di probabilità: binomiale, normale, chi 2, t di student, f di fisher.

Verifica delle ipotesi


Dopo aver estratto il campione della popolazione in modo corretto, e aver sintetizzato i dati, ci si domanda se il valore ottenuto sul campione sia
sufficientemente vicino al valore atteso in base all’ipotesi, il vero problema è quello della distanza tra il valore ottenuto e il valore atteso. Se tale distanza
può essere attribuita al caso l’ipotesi è detta ipotesi nulla ( H0) e se questa ipotesi verrà verificata potremmo dire che l’ipotesi nulla è vera. Se invece
questa distanza ha dimensioni tali da poter essere attribuita ad una causa e non al caso potremmo dire che l’ipotesi nulla è falsa e potrebbe essere vera
un ipotesi alternativa H1, che viene accettata quando viene respinta H0. L’ipotesi alternativa può essere di tipo bidirezionale o di tipo monodirezionale.
Sulla base di questa suddivisione si parlerà di test per la verifica di ipotesi bidirezionale o monodirezionale.

Il valore critico
Permetti di decidere se accettare o respingere l’ipotesi nulla, per convenzione si considera come probabilità critica quella pari al 5% ( 0,5) o al 1% (0,1)
tale valore si indica con α ( alfa). Tutti i risultati che hanno probabilità di verificarsi inferiori ad α sono considerati significativi, cioè non in grado di verificare
l’ipotesi nulla che in questi casi si rifiuta e si accetta l’ipotesi alternativa consapevoli di rischiare di sbagliare ma con una percentuale meno del 5% o 1%
dei casi. Minore è α e minore è il rischio di commettere l’errore di1° tipo, però con il diminuire la probabilità ci commettere l’errore di 1° tipo aumenta
quella di commettere l’errore di 2° tipo ( ossia accettare HO anche se è falsa).

Livello di significatività
Il livello di significatività α rappresenta la regione critica o regione di rifiuto dell’ipotesi nulla,infatti il valore α ci permette di separare i risultati poco probabili
da quelli che hanno una maggiore probabilità di verificare l’ipotesi nulla. Il livello di significatività α è quindi una regola decisionale per poter accettare o
respingere l’ipotesi H0, e scegliere tale livello vuol dire anche assumersi il rischio pari ad α di rifiutare l’ipotesi nulla quando essa invece è vera.

Errori di tipo 1 e di tipo 2


Chiamiamo errore di tipo 1 la possibilità di accettare per vera H1 che invece è falsa, ovvero H0 è vera ma noi la rifiutiamo. La probabilità associata a
questo errore è indicata con α ed è il rischi massimo che siamo disposti a correre per sbagliare (rifiutare qualcosa che è vero). Chiamiamo errore di tipo 2
o β la possibilità di rifiutare H1 ritenendola falsa, mentre invece è vera ovvero H0 è falsa ma noi la accettiamo come vera. Si chiama potenza di un test la
capacità di una statistica di accettare H1 quando è vera.

La potenza statistica
La potenza statistica di un test è la sua capacità di rifiutare un ipotesi nulla falsa, perché noi, in genere, verifichiamo un’ipotesi nulla rispetto ad una
gamma” di ipotesi alternative. Come ricercatori, facciamo molti sforzi per organizzare e fare una ricerca che ci dia conoscenze “sicure” e “affidabili”. Ma i
nostri sforzi sono vani se non riusciamo a trovare i risultati che ci aspettiamo, o meglio, se non riusciamo a falsificare con maggior sicurezza la nostra
ipotesi. Per molti anni, i ricercatori si sono focalizzati sul rischio di rifiutare H0 quando è vera (atteggiamento conservatore) Ci sono 4 variabili che
agiscono sulla potenza: 1) Il livello di significatività cioè : più è severo (vicino a 0), più è difficile rifiutare l’ipotesi nulla (anche quando è
falsa).All’aumentare di α aumenta la potenza del test. Tuttavia non possiamo usare α molto grandi; un buon criterio (non troppo basso, né troppo alto) è
= 0:05. 2) L’ampiezza del campione cioè N; quando un campione è grande, è meno probabile fare errori di campionamento e trovare dati che portino a
stime inaffidabili dei parametri della popolazione. L’errore standard è sempre basato su N. Quindi all’aumentare di N, aumenta la potenza. La dimensione
dell’effetto nella popolazione cioè d; d indica genericamente l’ampiezza dell’effetto, ovvero quanto grande è il risultato che abbiamo ottenuto; d ha senso
solo se H0 è falsa; quindi possiamo considerare d come una misura di quanto è falsa l’ipotesi nulla; tanto più d è grande, tanto più H0 è falsa, tanto più
aumenta la potenza 4) La potenza statistica stessa, cioè 1-β. Infine, questi quattro indici sono legati fra loro matematicamente;ovvero conoscendo il
valore di tre di loro, si può calcolare il valore del quarto.

Verifica delle ipotesi nel caso di un campione


Si tratta del confronto tra il parametro della popolazione da cui è estratto il campione e quello di una popolazione di confronto. I parametri sui quali si
fanno generalmente le ipotesi sono: la media e la varianza. Se n è sufficientemente grande del campione, la distribuzione campionaria della media si
avvicina alla forma normale. Per verificare un ipotesi sulla media della popolazione dobbiamo necessariamente conoscere la media mentre la varianza e
la deviazione standard possono anche non essere noti. E possibile infatti stimare la deviazione standard dalla popolazione a partire da quella del
campione. Se la numerosità del campione è inferiore a 30 la forma della distribuzione non è normale, il modello di riferimento si baserà sulle proprietà
della distribuzione t di student co n-1 gradi di libertà.

Gradi di libertà
Rappresentano il numero di possibilità che i dati che compongono un campione hanno di variare liberamente, in generale si calcolano togliendo dal
numero delle unità campione il numero delle condizioni cui essi sono vincolati. Essi rappresentano il numero di osservazioni indipendenti nella
distribuzione. Nel caso della verifica delle ipotesi con t di student, i gdl sono n-1 poiché sui dati disponibili è gia stata calcolata la media.

Chi2
E il test che si basa sul confronto tra frequenze teoriche e frequenze osservate. Si può dimostrare che estraendo da una popolazione i cui tutte le K
frequenze sono uguali, tutti i possibili campioni di numerosità n, e calcolando per ciascun campione il Chi 2, la distribuzione campionaria dello stesso si
approssima alla distribuzione del X2 con K-1 gradi di libertà. La distribuzione ha i valori tabulati per α = 0,05 e 0,01, e può essere usata per la verifica delle
ipotesi. La distribuzione X2 è continua invece il Chi2 calcolato su campione discreto ha carattere discreto. Si applica allora una correzione “correzione di
Yates” che permette di approssimare il Chi2 alla distribuzione teorica continua. Esistono delle limitazioni all’uso del Chi 2 : 1) indipendenza tra le categorie,
ogni soggetto deve essere classificato in una sola delle K categorie; 2) se K = 2 le ft non devono essere < di 5 in nessuna delle 2 categorie; 3) se K > 2 le
ft non devono essere <1 in nessuna categoria e devono essere < 5 in non più del 5% delle categorie.

Verifica delle ipotesi sulla differenza tra le medie nel caso di 2 campioni indipendenti.
E un tipo di verifica usato di frequente nella ricerca psicologica, si è interessati a verificare se le medie di 2 popolazioni da cui sono stati estratti 2
campioni differiscono o no significativamente. Questi campioni sono formati da soggetti diversi e contrapposti per una caratteristica. Ipotesi nulla: le
medie delle 2 popolazioni sono uguali, ipotesi alternativa: le medie delle 2 popolazioni sono diverse ( bidirezionali). La distribuzione a cui si fa riferimento
è la distribuzione campionaria della differenza tra le medie di 2 campioni di numerosità n 1 e n2. Essa ha una forma normale, media uguale alla differenza
tra le medie delle 2 popolazioni e varianza uguale alla somma delle varianze delle popolazioni ognuna divisa per il suo n. Quando il campione è poco
numeroso n1 e n1 ≤ di 30 il modello di riferimento si baserà sulle proprietà della distribuzione t di student con( n1 + n2 -2) gradi di libertà.
Test di Mann-Whitney
Il test di Mann-Whtney si basa sugli ordini di rango dei soggetti nella variabile oggetto di studio. Si mettoono in ordine di rango i soggetti dei 2 campioni
indipendentemente dalla loro appartenenza all’uno o all’altro di essi, sommando in modo opportuno i ranghi dei soggetti del primo campione, e
separatamente quelli del secondo campione, se le 2 somme non differiscono troppo, si può pensare che la caratteristica oggetto di studio sia ugualmente
presente nei due campioni.

Verifica delle ipotesi


Con la verifica delle ipotesi si vanno ad analizzare le differenze tra i risultati osservati su un campione e quelli attesi basati sulla distribuzione della
popolazione, è molto improbabile ottenere una sovrapposizione perfetta in quanto i dati della popolazione sono teorici, per questo il ragionamento si fa i
termini di distanza tra i valori osservati sul campione e i valori attesi sulla popolazione. L’ipotesi nulla è sempre un ipotesi di uguaglianza, l’ipotesi
alternativa è la sua antagonista,e quasi sempre l’obiettivo è quello di rifiutare l’ipotesi nulla. Solitamente le ipotesi si fanno sulle differenze delle medie. Il
livello di significatività α ci permette di accettare o di rifiutare l’ipotesi nulla, per convenzione α è pari a 0,05 o a 0,01.

R di Pearson
Quando verifichiamo le ipotesi su coefficienti di correlazione dobbiamo fare riferimento ad un modello probabilistico bivariato che tenga conto della
covarianza delle 2 variabili misurate sugli stessi soggetti. Il coefficiente di correlazione Bravais-Pearson consente di quantificare l’eventuale relazione che
esista tra 2 variabili misurate su scala a rapporti o ad intervalli, il coefficiente può assumere valori compresi tra -1 e + 1. Per il calcolo si usa la formula di r
di Pearson.

Analisi della varianza


L’analisi della varianza si basa sulla scomposizione della variabilità totale dei dati, una parte dovuta alla variabile indipendente e una dovuta allle variabili
controllate. Con l’analisi della varianza s può rispondere alla domanda: la varianza tra i gruppi ( between) è sufficientemente diversa dalla variabilità entro
i gruppi ( within) da poter considerare significativamente diverse le medie dei gruppi ? Quando l’ipotesi nulla è vera la variabilità tra i gruppi e quella entro i
gruppi devono essere molto simili. Quando l’ipotesi è falsa la variabilità tra i gruppi sarà diversa da quella entro i gruppi. Si basa sul test statistico F di
Fischer di cui è nota la distribuzione campionaria. Per poter applicare l’analisi della varianza vanno rispettate le regole di: omoschedasticità ( le
popolazioni dalle quali provengono i campioni devono avere la stessa varianza), additività degli effetti ( si suppone che l’effetto della variabile
indipendente si isplichi aggiungendo qualcosa ad un livello di base), normalità della distribuzione delle variabili ( devono essere misurate almeno su scala
ad intervalli equivalenti).

Analisi della varianza confronti post. hoc e pianificati.


Per analizzare le differenze delle medie delle popolazioni, si utilizza la tecnica della scomposizione degli effetti, questa tecnica viene classificata in 2
categoria Test a posteriori ( post hoc) e test a priori (pianificati).Mei primi una volta ottenuto il risultato significativo confrontiamo tutte le medie a 2 a 2.
Qeusti confronti comprendono tutti i confronti possibili, quindi il numero di confronti a copie per K, ovviamente aumentando k il numero dei confronti
cresce, ma cresce anche la possibilità di commettere l’errore di tipo 1. Per questo non sono molto usati. Nei test a pianificati invece si confrontano le
medie in base a ipotesi specifiche di partenza, cioè vengono pianificati all’inizio della ricerca ii base alle ipotesi che si vogliono verificare. Sono test più
potenti.

Analisi della varianza con prove ripetute


Esistono 2 casi per questo tipo di analisi:1) K misure ripetute sullo stesso soggetto; 2) misura di uan variabile ripetuta su gruppi di soggetti che si
presumono legati tra loro ( membri della stessa famiglia). La devianza totale nel modello a prove ripetute viene scomposta in devianza tra i soggetti, data
dalla variabilità dei totali dei soggetti presi in esame, e dalla devianza entro i soggetti che si suddivide in : devianza tra le prove e varianza residua O
d’errore). La F di Fischer sarà data da: varianza tra le prove/varianza residua.

Analisi della covarianza.


Questo tipo di analisi riguarda il controllo della variabilità non desiderata, è a metà strada tra l’analisi della varianza e l’analisi della regressione. In questa
analisi abbiamo oltre alla variabile dipendente anche un'altra variabile chiamata covariata. Si basa sul principio che esiste una correlazione lineare tra
V.D. e la covariata, (che non è oggetto di studio ma che può incidere sulla ricerca, in particolar modo delle risposte del soggetto). Poiché esiste una
correlazione lineare è possibile applicare un modello di regressione lineare alle 2 variabili in modo da poter applicare l’analisi della varianza sui residui. Le
covariate funzionano come variabili di disturbo che devono essere controllate, questo si può fare in 2 modi: diretto quando il ricercatore può formare
gruppi omogenei di soggetti per tutte le possibili variabili di disturbo e; statistico ( se non ha potuto applicare il modo diretto) attraverso l’analisi della
covarianza.

Analisi della varianza fattoriale.


Quando il ricercatore è interessato a verificare l’effetto di più di un fattore sulla variabile dipendente. Quando le V.I. sono 2 o più di 2 il modello è un
disegno fattoriale( a 2 o più fattori). Le ipotesi da verificare riguardano sia quello che ogni singolo fattore esercita sulla V.I. sia quello congiunto dei diversi
fattori ( interazioni). Lo scopo dell’analisi della varianza è quello di verificare se la varianza tra i gruppi ( between) differenziati in base alle diverse
combinazioni delle modalità dei fattori, è significativamente diversa da quella entro i gruppi (within) dovuta a differenze individuali. Questo confronto di
effettua mediante il test F. si potrà qiundi calcolare F per ogni fonte di variazione. La prima fonte di variazione da guardare è l’interazione, in quanto se
questa risultasse significativa vorrebbe dire che l’effetto di un fattore è condizionato dall’effetto dell’altro. I risultati dell’analisi della varianza possono
anche essere rappresentati graficamente con dei segmenti, chiaramente se non c’è interazione i segmenti saranno coincidenti o paralleli, quando invece
l’interazione è significativa i segmenti non sono mai paralleli. Il significato dell’interazione, è legato al parallelismo.

Potrebbero piacerti anche