Sei sulla pagina 1di 91

SBOBINATURE TECNICHE E ANALISI DATI

MODULO 1 TEST PSICOLOGICI

Domande sui video


Obiettività è sinonimo di oggettività di un test: falso perché non indica la corrispondenza con la
realtà, intesa come verità assoluta

I modelli non sono privi di errori (vero)


Falso è Sbagliato, in quanto rappresentazioni sintetiche non saranno mai esenti da differenze con la
realtà empirica

Le tre rivoluzioni scientifiche delle scienze naturali del '900 non hanno influenzato la ricerca
psicologica che si occupa delle persone. Falso. Giusto, perchè determinano l'introduzione della
teoria della probabilità nelle scienze del comportamento

Uno psicologo clinico e uno psicologo ricercatore adottano fondamenti metodologici diversi: falso
Non è mai opportuno prendere in considerazioni esigenze pratiche nella scelta di un reattivo
psicologico
Falso
Giusto, anche riflessioni pragmatiche sono ammesse

test di atteggiamento fanno parte della categoria dei test di performance massima: falso
Giusto, perchè sono test non cognitivi

Programma SPSS
Psicometria e teoria e tecnica di analisi dei dati spesso sono insegnati attraverso l’uso del software
SPSS dell’IBM, utilizzato per dimostrazioni pratiche corrispondenti alle varie fasi della ricerca in
psicologia ed è strutturato con un’interfaccia grafica (GUI - Graphic User Interface) basata su una
serie di menu a tendina attraverso i quali operare manipolazione e analisi dei dati standard e
successive rappresentazioni grafiche. E’ di semplice uso, ma è molto costoso ed è molto difficile da
programmare per eventuali "nuove" analisi (non previste in quelle automatiche). Per quanto il
programma SPSS possa rendere semplice la gestione delle analisi dei dati attraverso menù lo
studente dovrà rendersi conto che è lui il responsabile ultimo dell'appropriatezza di tale analisi,
perché un software non sarà mai in grado di comprendere il significato dei risultati e gli obiettivi
dello studio.

Nella Psicologia (e Psicometria in particolare) e tutte le scienze sociali che si basano sulla statistica,
l'ordine naturale del processo di analisi dei dati è il seguente:
1) Individuazione della variabilità - Raccolta attenta dei dati
2) Descrizione della variabilità dei dati - Statistica descrittiva
3) La probabilità supporta l'inferenza (nferenza statistica, procedimento di generalizzazione dei
risultati ottenuti attraverso una rilevazione parziale per campioni all'intera popolazione da cui è
stato estratto il campione)
4) Stesura delle conclusioni in modo da distinguere la variabilità dei dati

1
Sebbene le diagnosi siano il prodotto che viene stabilito da un colloquio diagnostico, un buon clinico
diagnostico deve generare più ipotesi che diagnosi,perché un clinico indaga sulla natura del disagio
di una persona (Feinstein,).
Il processo clinico decisionale si sviluppa nel momento in cui riusciamo a mettere ordine in quello
che Kendler chiama "natura a macchie", cioè le numerose e interrelate cause dei disturbi mentali.

La psicologia come disciplina scientifica implementa la metodologia e tecnica statistica nell’ambito


del processo dimostrativo necessario per la conferma di ipotesi a sostegno di teorie generali.
Tra gli eventi possibili che potrebbero verificarsi in caso di un test mal progettato vi sono ad esempio
la bocciatura ad un esame in cui il voto è determinato in base a domande che in realtà non misurano
la preparazione, oppure una distorsione della diagnosi sullo stato di un individuo in base al risultato
di un test compilato, o ancora l’incapacità di discriminare tra candidati adeguati e non adeguati in
una selezione del personale
Il contesto di applicazione di questi test copre molteplici settori come quello economico (marketing)
e del lavoro (selezione del personale) e gli esiti dei test vengono utilizzati per prendere decisioni
sulla vita delle persone.
Lo psicologo ricercatore che progetta e conduce un'indagine e quella di un libero professionista che
somministra test di valutazione operano allo stesso modo e necessitano delle stesse competenze di
analisi statistica dei dati. In un certo senso l'attività del secondo psicologo rientra nel tipo di ricerca
orientata all'intervento che richiede per agire sul piano operativo riferimenti teorici completi ed
approfonditi.
Sarà fondamentale la comprensione del significato del valore calcolato, ovvero se in base and un
determinato valore di un indice, ad esempio, il test è valido o meno, o se un item è discriminante o
meno.
Quello che sia il suo ambito di utilizzo (scolastico, sanitario pubblico, clinico ospedaliero o privato,
organizzativo etc.) il test è considerato lo strumento diagnostico per eccellenza, cui affidarsi per la
valutazione delle varie sfaccettature della psiche proprio perché in grado di garantire una
misurazione fondata sul metodo scientifico.
La Misurazione è al centro di tutte le applicazioni della scienza, compreso il settore che si sforza di
indagare la mente, al fine di comprendere o predire il comportamento umano.
La ricerca portata avanti da psicologi, sociologi, pedagogisti etc. dipende dalla misurazione efficace
degli attributi psicologici non direttamente osservabili (costrutti, fattori latenti) che si ritengono in
grado di influenzare i comportamenti empiricamente osservabili.

Metodi nomotetico, ideografico e prototipico (Guarda psicodiagnostica)

Caratteristiche di un test:
Standardizzazione
2.Attendibilità
3.Validità
4.Sensibilità
5.Universalità
6.Praticità ed economia

Succede spesso di applicare un test a soggetti con problemi specifici (ad esempio disabili sensoriali
o psichici) che possono renderne difficile la somministrazione adeguata. In
questi casi bisogna:
§ assicurarsi che il soggetto comprenda le richieste;
2
§ aumentare il numero di esempi e di eventuali esercizi di pratica;
§ programmare sedute brevi in modo da assicurare l'attenzione per tutto
il tempo;
§ dare più rinforzi e incoraggiamenti, anche se di tipo aspecifico;
§ non forzare il soggetto se manifesta rifiuti a certi item;
§ tenere conto nella valutazione di elementi di ansia o affaticamento
eccessivo.
Un test psicologico è una misurazione obiettiva e standardizzata di un campione di
comportamento. (Anastasi)
I test (o reattivi) psicologici che rispettano questa definizione assumono un riferimento esplicito ad
una teoria psicologica, o almeno ad un modello elaborato secondo criteri scientifici.

OBIETTIVITA’, STANDARDIZZAZIONE, CAMPIONE DI COMPORTAMENTO


Da ciò deriva il duplice problema della psicologia che si occupa del campionamento degli oggetti da
misurare e il campionamento del contenuto.
Da un lato si trova la generalizzazione delle scoperte sugli oggetti, e dall’altro la generalizzazione
delle scoperte sui quesiti del test.
Test psicologico versus Assessment psicologico
l’Obiettività, da non confondere con l’oggettività, intesa come il fatto che come si assegna e si
interpreta un punteggio al test (scoring), non sono influenzati da una decisione soggettiva di un
esaminatore , ma sono basati su criteri avalutativi, obiettivi.
la Standardizzazione: non ha importanza chi, lo somministra, calcola i punteggi e li interpreta
perché la presenza di uniformità delle procedure assicura risultati (misurazioni) concordanti e
confrontabili;
Identificare la popolazione target.
Determinare il metodo di campionamento e l'ampiezza campionaria adeguata, e raccogliere i dati.
Calcolare gli indicatori statistici: media, varianza ed errore standard di misurazione e individuare i
tipi di punteggi standardizzati idonei all'interpretare i punteggi grezzi. Si assume che negli studi
precedenti si siano già risolte, in campioni indipendenti da quello normativo, tutte le questioni
relative alle proprietà psicometriche del test, come la dimensionalità, l'attendibilità e validità del
test
o delle sue sottoscale. Per facilitare il lavoro dell'utilizzatore del test è utile inoltre produrre le tavole
di conversione dei punteggi grezzi in punteggi standardizzati.
Inserire le informazioni sulle norme nel manuale del test insieme a procedure di somministrazione,
scoring dei punteggi e interpretazione dei risultati
il Campione di comportamento: Il reattivo psicometrico intercetta solo alcuni comportamenti della
persona, che si spera siano rappresentativi del costrutto che si sta analizzando e da cui si derivano
ed elaborano alcune inferenze ed ipotesi. Si farà una selezione di item.(per es dell’ansia).
Il campionamento di item, da un costrutto non direttamente osservabile e misurabile, ha un insieme
di indicatori numerosi e dipendenti dal contesto di riferimento, determina che ci possono essere
test differenti che misurano lo stesso costrutto.
Se elaboriamo alcune inferenze e distorsioni, bisogna valutarlo come campione e non come certezza
assoluta dei comportamenti del soggetto.
Da ciò deriva il duplice problema della psicologia che si occupa del campionamento dei soggetti da
misurare e il campionamento del contenuto. Da un lato si trova la generalizzazione delle scoperte
sugli oggetti e dall’altro la generalizzazione delle scoperte sui quesiti del test.
Il campionamento normativo dà la possibilità di interpretare i punteggi con quelli di altri.

3
La TEORIA DELLA PROBABILITA’ ci permette di studiare e descrivere gli eventi aleatori, ossia quando
non si può prevedere con certezza se si avvererà o meno.
Nella concezione classica la probabilità è stabilita A PRIORI, prima di guardare i dati. Nella
concezione frequentista la probabilità è ricavata A POSTERIORI, dall’esame dei dati.
La teoria della probabilità sperimentale a posteriori per individuare la probabilità di un evento di
accadere se non è disponibile la probabilità matematica a priori, si può utilizzare solo in esperimenti
aleatori che possono essere ripetuti molte volte e sempre nelle stesse condizioni o per quei casi in
cui si abbiano a disposizione una notevole massa di dati storici . In una serie di prove, ripetute un
gran numero di volte ed eseguite tutte nelle stesse condizioni, la frequenza relativa tende ad
assumere valori prossimi alla probabilità dell’evento stesso e l’approssimazione è tanto maggiore
quanto più numerose sono le prove eseguite.
I test psicologici devono essere scelti con la massima attenzione perché vi è una limitata possibilità
i selezione del campione di comportamento.

Per l’assessment psicologico di un individuo, bisogna tenere un comportamento professionale,


etico, che deve misurare le persone, i suoi attributi psicologici, bisogna tenere presente la sua
complessità e non si può solo usare l’uso dei test, che serve solo a rendere più accurata la diagnosi,
un punto terzo di osservazione, per essere più predittiva per il sostegno psicologico.
Le batterie sono utili per la fase di monitoraggio.

LEZIONE 2
Costrutti, Modelli , Reattivi, Item (validità, attendibilità).
I tratti di personalità devono essere rilevati con l’intensità, la frequenza ecc.
Il costrutto non è dato dalla somma di tutte le dimensioni scelte, che si pongono però ad un livello
meno astratto del costrutto, che ci permettono di legare , attraverso un processo di Indicazione, gli
indicatori (studiati per ottenere una risposta dal soggetto per potere misurare le sue risposte.alle
dimensioni.
Un costrutto è un concetto astratto che riguarda una proprietà riferita ad un soggetto, che nasce
dalla sua esperienza empirica, ma va oltre, perché viene applicata anche a concetti diversi (grazie al
concetto di tavolo, riconosciamo anche tavoli diversi). L’ansia, come costrutto, ossia una proprietà
direttamente osservabile di un soggetto, deriva dall’osservazione di comportamenti simili nella
nostra esperienza, ma va aldilà. Il costrutto (Crocker e Algina) è il prodotto di una fondata riflessione
scientifica, un’idea sviluppata per permettere la categorizzazione e la descrizione di alcuni
comportamenti direttamente osservabili. I costrutti sono, per definizione, non accessibili
all’osservazione diretta, ma vengono inferiti o postulati sulla base dell’osservazione di opportuni
indicatori.
Costrutto (nella slide) di intelligenza: Stemberg: pensiero analitico, creativo e pratico, diverso da
quello di Spearman, col fattore G. Il fattore di intelligenza monodimensionale è meno complessa di
quella tridimensionale.

Vedere Stemberg.
Vedere Intelligenza multidimensionale
Il processo di operalizzazione Lazasfel

I modelli sono una rappresentazione grafica, sintetica ed efficiente della realtà in oggetto.

4
Il modello metacognitivo- motivazionale (test di Amos) ha elementi al suo interno, che sono i fattori
principali della realtà che si sta studiando e che vengono ritenuti fondamentali all’interno di una
teoria esplicativa.
Il modello si pone tra la teoria, che non ha un’immediata contestualizzazione empirica, con la realtà
di esperienza, con convinzioni, autoregolazione, apprendimento, e le variabili sono legate tra loro
da relazioni.
I modelli sintetizzano gli elementi principali della realtà sotto esame e le loro relazioni.
Modelli statistici, matematici (media), computerizzati, logici (modelli il cui tutte le variabili sono
concatenate con causa ed effetto), mappe concettuali.
In base al modello bisogna analizzare se i risultati della ricerca supportano le relazioni indicate.

Ci sono variabili manifeste,(x) latenti (Y), elementi costanti, covarianza. Relazioni tra loro.
Modello dell’analisi fattoriale: legato al tipo di analisi fattoriale in cui l’obiettivo è ridisporre la
varianza totale di un insieme di variabili osservate, all’interno di alcune scale ed individuare fattori
che ne spieghino la varianza.
Altro modello serve a spiegare il processo di operalizzazione, ossia come l’indicatore attraverso
regole di corrispondenza, tra gli indicatori e le dimensioni del costrutto , come individuiamo un
modello teorico.

I TEST
Tassonomia, ossia tipologia di test
I test che rispettano questa definizione sono sviluppati rispetto ad una teoria psicologica e hanno
modelli elaborati con criteri scientifici.
.
La distinzione fondamentale da tenere presente è quella fra le tipologie di test per la misurazione
del
rendimento o della prestazione, ovvero dell’efficacia, e quelle dei test di personalità, tra i quali si
contraddistinguono i test obiettivi e i test proiettivi.

Cognitivi: intelligenza, attitudine, profitto, clinici (Test di prestazione massima, detti anche cognitivi
o di livello, che valutano il livello di "competenze", prevalentemente di tipo cognitivo od esecutivo)
(maximum performance test)
Non cognitivi: personalità, (obiettivi e proiettivi), Atteggiamento (Unidimensionali e
multidimensionali) Test di prestazione tipica, detti anche non cognitivi, che si occupano di
valutazioni personologiche e degli atteggiamenti. (tipical performance test)

Nell'ambito della Teoria Classica dei Test, il punteggio nel costrutto viene comunemente
determinato in base o al conteggio delle risposte corrette (test di prestazione massima) o
come somma delle valutazion

Test di personalità : test che misurano caratteristiche emotive, atteggiamenti ed interessi, o anche
comportamento interpersonale, atteggiamenti e dispositivi proiettivi, in cui ricadono tutti i caratteri
latenti non intellettivi della personalità
test obiettivi: MMPI,( Metodo della correlazione per lo stile di risposta ), Cattel test 16 PF, ( Metodo
dell’Analisi Fattoriale ) EPI, (Metodo del modello teorico), EPPS,( Metodo della correlazione per lo
stile di risposta ) Big 5(FFM)

5
test proiettivi: Rorschach, TAT, CAT, ORT, Blacky pictures Test, Metodo delle piccole favole, Test
proiettivi grafici.
Test clinico diagnostici: Test di Goldstein, Visual Motor Bender Gestal, Test memoria visiva di
Benton. I reattivi utilizzati in questo campo sono i test psicofisiologici che derivano
dalle ricerche per la classificazione delle complesse interazioni tra i fattori
organici, e quindi le modificazioni biologiche, e i disturbi a livello
intellettuale o comportamentale, in particolare nel corso degli eventi
psichici (conseguenza diretta o indiretta), sia nel soggetto normale che in
quello che presenta una patologia.
Molti test neuropsicologici sono stati strutturati come strumenti clinici per la
valutazione della compromissione delle funzioni mentali e che quindi misurano
con accuratezza e affidabilità aspetti come la velocità di risposta, la percezione
spaziale, l’astrazione, il livello di comprensione, la formazione dei concetti e il
linguaggio, la memoria visiva, l’abilità psicomotoria sempre in riferimento al
presupposto di una deficienza differenziale nelle varie funzioni.

Test di livello intellettuale generale, (aptitudinal test) noti come test di intelligenza, individuali e
collettivi: Test mentale di Binet, Guilford Test, Reattivo delle matrici progressive, Thurstone Test
,GCT, Differential Attitude Test, Test di Orientamento Motivazionale, Il Reattivo di Ragionamento.
Nei test di intelligenza generale abbiamo misure generali, mentre se abbiamo specifici fattori singoli
sono attitudinali
Test per la misurazione di singole abilità, noti come test attitudinali, test di profitto e competenze,
batterie attitudinali multiple test di sviluppo.
Spesso queste due tipologie di test vengono considerate insieme perché i Test di funzionamento
cognitivo generale e i Test di sviluppo possono rientrare in un continuum di test di abilità, sono
utilizzati all’interno della pratica clinica dell’età evolutiva a fini diagnostici, e sono in grado di offrire
misurazioni simili, specie in soggetti con ritardi rilevanti rispetto all’età. Ma ci sono tanti elementi di
differenza.
I test di sviluppo hanno un obiettivo comune: intendono misurare se e quanto un bambino è in
grado di affrontare e superare compiti adeguati alla sua età anagrafica. Questo avviene
essenzialmente osservando la risposta del bambino di fronte a stimoli e situazioni che riproducono
le difficoltà che egli potrebbe incontrare in situazioni della vita quotidiana.
Un test di sviluppo fornisce un quoziente di sviluppo, rapporto tra età di sviluppo ed età anagrafica.
QS= ES (per) 100

EA
Vedi bene da qualche parte la differenza tra queste due tipi di test

Vi sono delle criticità nel quoziente di sviluppo, tra cui il rischio della Rigidità dello schema di
valutazione del bambino (Piaget) che non permettono di cogliere le strategie individuali che
compensano le aree critiche di fragilità del soggetto. Questo è rilevante in sede di interpretazione
del risultato ed esiste una differenza tra l’attribuzione di punteggi solo con criteri matematici e la
valutazione del significato all’interno di un contesto di sviluppo.
Questo è un contrasto tra approccio psicometrico ed un approccio clinico (che ha un
atteggiamento più interpretativo ed empatico)

Non-test factors (dare valore ai dati ottenuti al di fuori della consegna dei test)
6
il testista ha sempre un ruolo facilitante o inibente rispetto al bambino: questo avviene anche
quando sono rispettate tutte le regole previste dal manuale del test, in conseguenza di piccoli
messaggi verbali che continuamente vengono scambiati tra bambino e operatore (a livello di mimica
attivazione motoria globale, tono della voce, sguardo e sue caratteristiche e via dicendo). (Chiappedi
)
Ogni performance deve ... essere criticamente esaminata e interpretata con giudizio da uno che
abbia insight, percezione ed esperienza sufficienti per dare all'interpretazione una obiettività. I
risultati dell'osservazione, del test e della misura sono il problema della diagnosi clinica. Il giudizio
del diagnosta in psicologia clinica comincia a operare laddove psicometristi e testisti di gruppo
smettono la loro funzione

TEST DI INTELLIGENZA

TEST DI RENDIMENTO
In questa categoria si trovano i reattivi strutturati in base a serie di item standardizzati e scelti
secondo una difficoltà crescente all'interno di un campione rappresentativo, per valutare certe
funzioni psichiche o attitudini. Sono anche chiamati test di efficacia o di prestazione.
Test di funzionamento cognitivo generale vs Test di sviluppo
I test di sviluppo hanno un obiettivo comune: intendono misurare se e quanto un bambino è in
grado di affrontare e superare compiti adeguati alla sua età anagrafica. Questo avviene
essenzialmente osservando la risposta del bambino di fronte a stimoli e situazioni che riproducono
ledifficoltà che egli potrebbe incontrare in situazioni della vita quotidiana
Non-test factors
il testista ha sempre un ruolo facilitante o inibente rispetto al bambino: questo avviene anche
quando sono rispettate tutte le regole previste dal manuale del test, in conseguenza di piccoli
messaggi verbali che continuamente vengono scambiati tra bambino e operatore (a livello di mimica
attivazione motoria globale, tono della voce, sguardo e sue caratteristiche e via dicendo)

Quoziente di sviluppo – criticità ed evoluzione


Griffith Mental Development Scales, usato ampiamente in Europa ed Italia, si sviluppa su 5 scale,
su cui sono forniti 24 item, 2 al mese. Si ottiene un profilo dello sviluppo del bambino che può essere
usato per programmare successive valutazioni in modo mirato e il vantaggio è costituito
dall’esplorazione delle diverse aree funzionali e che è possibile riprendere il test senza particolare
problemi di apprendimento della prova. Il bambino non impara le modalità del test e non lo supera
per questo motivo in seguito.
La valutazione nei bambini oltre i 5 anni è inutile e ha una scarsa predittività sui risultati scolastici.
Se si identificano aree di ritardo, bisogna utilizzare altri test specifici per avere risuòtati più coerenti.

TEST DI LIVELLO INTELLETTUALE GENERALE


Confronto tra concezione del costrutto.
Annosa controversia fra psicologi inglesi e americani circa il numero delle dimensioni
dell'intelligenza
Spearman postula l'esistenza di un fattore generale d'intelligenza, denominato «fattore g», e,
accanto a esso, alcuni fattori specifici,indicati come «s1, s2 , s3 ... »

7
Thurstone (1931) ritiene l'intelligenza un costrutto multidimensionale, quindi un insieme di
eterogenee abilità primarie indipendenti fra loro. Pur avendo individuato con i sui studi l’esistenza
di 12 di queste abilità, soltanto 7 sono state confermate da studi successivi e, attualmente, vengono
denominate Primary Mental Abilities (PMAs): Comprensione verbale Fluenza verbale, Capacità
numerica, Capacità spaziale, Memoria associativa, Velocità percettiva, Ragionamento induttivo
Secondo questo schema Thurstone progettò il primo test di Abilità mentali primarie, costituito da
7 subtest, ciascuno dei quali consentiva di misurare una particolare capacità.
Secondo Piaget la componente fondamentale del costrutto di intelligenza sono degli schemi, definiti
come pattern comportamentali o strutture mentali organizzate che consentono di individuare la
modalità più efficace per eseguire un compito con successo.
Queste strutture mentali si evolvono nella direzione di una crescente maturità, mediante il processo
di equilibrazione.
La teoria delle intelligenze multiple proposta da Gardner è di tipo multifattoriale ed è costruita
partendo dallo studio delle relazioni cervello/comportamento.In questa prospettiva coesistono
diverse forme di intelligenza, tra loro relativamente indipendenti, ma non è possibile affermarne in
maniera definitiva la natura e il numero. Quelle meglio definite, e per questo più autonome anche
ontologicamente, sono: linguistica, logico-matematica e spaziale (le tre più note), musicale,
corporeo-cinestesica, interpersonale e intrapersonale (le quattro più innovative proposte
dall'autore)

Strumenti non verbali per la valutazione dell’intelligenza.


I termini attualmente impiegati per indicare una valutazione psicologica non verbale sono diversi:
alcune volte si parla di valutazione non verbale, altre volte di valutazione cognitiva non verbale, altre
ancora di Scale non verbali e/o di somministrazione di test non verbali. (Lang, 2008)
L'espressione valutazione non verbale può essere riferita sia alla somministrazione di un test in cui
al soggetto e all’esaminatore è richiesto di non usare il linguaggio recettivo ed espressivo, sia alla
somministrazione di test non verbali dando delle consegne verbali: "In effetti, la maggior parte dei
test non verbali è descritta nei termini di strumenti nei quali l'impiego del linguaggio è ridotto,
spesso però si ricorre invece a consegne verbali anche lunghe e complicate” (McCallum)
Una classificazione dei test non verbali si basa sul format di presentazione degli stimoli:
test di performance che usano per i loro compiti materiali concreti e richiedonoche il soggetto
risponda in maniera non verbale, ma le istruzioni sono dateoralmente
test non linguistici che sono completamente non verbali sia nelle istruzioni, sia nei contenuti, sia
nelle risposte e valutano le abilità collegate al pensiero analogico, alla formulazione di categorie e
al ragionamento sequenziale
Vengono spesso utilizzati per soggetti con disturbi del linguaggio, con bisogni educativi speciali, ecc,
ma sopratutto per le persone che non hanno padronanza della lingua.
Per costruire un test che sia libero da influenze culturali (linguaggio e cultura sono solo
parzialmente sovrapponibili ( Cohen) non basta costruire reattivi costituiti solo da prove non
verbali, ma occorre predisporre test che richiedono dei processi di pensiero tipici della cultura di
appartenenza. Non è detto che un soggetto di un’altra cultura lo possa capire.
Un’altra classificazione dei test non verbali si basa sulla complessità e sul numero delle prove
previste:
test unidimensionali sono brevi, composti da pochi subtest e tendono a sacrificare il grado di
accuratezza clinica in favore della rapidità e del risparmio di tempo. Si possono usare solo per uno
screening iniziale. Prevedono esclusivamente prove non verbali (solitamente matrici), che
rappresentano un aspetto parziale delle molteplici sfaccettature del costrutto: valutano alcune

8
abilità cognitive ristrette trascurando la valutazione di altre abilità importanti, come ad esempio la
memoria.
I test multidimensionali sono formati da più subtest, diversamente combinati tra loro e permettono
di ottenere diversi punteggi: di solito portano ad un punteggio globale, definito "scala totale", "scala
generale" o "abilità ampia misurata". Hanno buone proprietà psicometriche e sono spesso utilizzati
per pianificare interventi educativi.
Svantaggi dei reattivi non verbali per la valutazione dell’intelligenza:
Permanenza di un minimo di istruzione orale, anche se l’esaminando può rispondere in modo non
verbale.
Livello scarso di rappresentatività del costrutto misurato, considerati come o stime attendibili del
costrutto generale di Spearman o come competenze cognitive non mediate dal linguaggio.(diatriba
che non meramente semantica, ma teorico concettuale). Che i processi cognitivi sia in gran parte
indipendente dal linguaggio è stato supportato da studi recenti.

CTONI - Comprehensive Test Of Non-verbal lntelligence (D.D. Hammill, N.A. Pearson, J.L.
Wiederholt, 1996)
I principi che hanno guidato la costruzione dello strumento sono:
• le istruzioni per il test dovrebbero essere date oralmente o tramite pantomima, in base a quello
che l'esaminatore ritiene sia il metodo più appropriato;
• il test dovrebbe valutare 3 tipi di abilità intellettive: il pensiero analogico,la formulazione delle
categorie e il ragionamento sequenziale;
• le abilità dovrebbero essere misurate in contesti aventi sia illustrazioni di oggetti sia figure
geometriche.
E’ una batteria di 6 subtest che misurano diverse abilità intellettive non verbali in correlazione tra
loro. Dai 6 ai 90 anni di età.
Scoring e lettura dei risultati:
Il CTONI prevede il calcolo di 3 quozienti, che si ottengono sommando i punteggi ottenuti ai subtest:
Quoziente di Intelligenza Non Verbale (QINV).
Quoziente di Intelligenza Non Verbale con Illustrazioni di Oggetti (QINV-IO).
Quoziente di Intelligenza Non Verbale con Figure Geometriche (QINVFG).

CTONI è composto da 6 subtest che devono essere presentati nel seguente ordine:
1. Analogie di illustrazioni (subtest 1) e Analogie di figure geometriche (subtest 2); senza fare
un uso manifesto di parole, si richiede che il soggetto sia in grado di capire la relazione
"Questo sta a quello (le due caselle superiori della matrice) come questo sta a ... cosa (le due
caselle inferiori)?". L'esaminando risponde indicando uno degli item da scegliere (alternative a
risposta multipla) e da inserire nella casella vuota.
2. Categorie di illustrazioni (subtest 3) e Categorie di figure geometriche (subtest 4); senza
usare il linguaggio, !'esaminando deve intuire il nesso esistente tra le due figure-stimolo
superiori e scegliere, tra gli item proposti, quello che appartiene alla stessa categoria. L'
esaminando deve stabilire quale, tra questi, sia connesso a quelli.
3. Sequenze di illustrazioni (subtest 5) e Sequenze di figure geometriche (subtest 6); il clinico
mostra una serie di caselle ognuna delle quali contiene illustrazioni diverse, ma legate tra loro
da un nesso sequenziale; l'ultima casella è vuota. Il soggetto indica tra una serie di item
(scelta multipla) quello corretto per completare la serie progressiva. Senza usare parole, l'
esaminando deve decidere quale sia la regola alla base della progressività delle illustrazioni.
Ogni subtest prevede 25 item. La sola modalità di risposta accettata è quella per cui
!'esaminando sceglie all'interno di alternative proposte la risposta corretta e la indica. Non
9
sono richieste né ammesse risposte verbali, scritte o che prevedono una qualche forma di
manipolazione del materiale più complessa e articolata.
Il tempo previsto per la somministrazione dell'intera batteria varia tra i 40 e i 60 minuti. Non
esiste un limite di durata obbligatorio, ma i singoli subtest richiedono raramente più di 5-10
minuti di tempo per essere somministrati.
È prevista una somministrazione soltanto individuale.
CTONI mostra un buon livello di attendibilità, che si mantiene considerevolmente alto nei confronti
delle 3 fonti di errore considerate:
1. campionatura del contenuto del test sia rispetto alla popolazione generale che per sottogruppi e
minoranze etniche.
2. campionatura dei tempi (coefficienti del test-retest superiori a .80)
3. concordanza tra esaminatori (indici di concordanza variabili tra .95 e .99).
La validità di costrutto è stata valutata secondo la procedura proposta da N.E. Gronlund e R.L. Linn
(1990), che prevede la formulazione di ipotesi teoriche accertate tramite metodi logici o empirici
Validità di criterio: Gli studi che hanno messo in correlazione lo strumento con altri test criteriali
forniscono solo un moderato supporto rispetto alla validità concorrente del test: paradossalmente,
i tre punteggi del CTONI sembrano correlare di più con i QI verbali della WISC-III che con i QI di
performance
Scoring e lettura dei risultati
Quoziente di Intelligenza Non Verbale (QINV). Si ottiene sommando i punteggi standard di tutti e 6
i subtest. Rappresenta la miglior valutazione del fattore globale g descritto da Spearman (1923), in
quanto rileva la situazione attuale basandosi sulla più vasta gamma di abilità non verbali, questo
perché rappresenta la combinazione di tre diverse abilità cognitive (ragionamento analogico,
classificazione per categorie, ragionamento sequenziale), tutte valutate in due contesti diversi.
2) Quoziente di Intelligenza Non Verbale con Illustrazioni di Oggetti (QINV-IO). Si
ottiene sommando i punteggi standard dei 3 subtest che misurano le abilità non
verbali in un contesto che si serve di illustrazioni di oggetti. Il QINV-IO è l'indice
delle abilità di soluzione di problemi e di ragionamento e si ottiene servendosi di
disegni di oggetti familiari.
3) Quoziente di Intelligenza Non Verbale con Figure Geometriche (QINVFG). Si
ottiene sommando i punteggi standard dei 3 subtest che misurano le abilità non
verbali in un contesto che usa figure geometriche. Il QINV-FG è l'indice
dell'abilità di soluzione di problemi e di ragionamento e si ottiene basandosi su
disegni di figure non familiari di cui gli esaminandi non conoscono il nome. Per
questa ragione, la probabilità dell'uso di forme verbali è alquanto limitata

Le caratteristiche delle diverse tipologie di reattivi nella prospettiva della teorizzazione


di Murphy e Davidshofer
Culture free(culture fair): valutazione dell’intelligenza a prescindere dalle caratteristiche culturali
Culture reduced/Cross cultural: valutazione dell’intelligenza in contesti culturali diversi. Riduzione
dei bias culturali attraverso l’individuazione ed eliminazione degli item troppo collegati ad aspetti
socioculturali.
Non verbal: valutazione dell’intelligenza in soggetti che per disabilità dobute a cause organiche o
per caratteristiche dell’ambiente socio culturale di provenienza, nn sono in grado di rispondere ad
alcuni stimoli verbali o a tutti.
Culture specific (o culture related): valutazione dell’intelligenza in soggetti appartenenti ad un
preciso e circoscritto ambiente. Il materiale-stimolo (verbale e non) è specificatamente organizzato
e strutturato in funzione di quest’ultimo.
10
L’identificazione di questo continuum è modulato anche dalla presenza di materiale non verbale.
La motivazione a sottoporsi ad un test è anche assoggettata alla situazione socio economiche.
Molte cose influenzano la riuscita ad un test.

Effetto Flynn è legato alle norme del test, definisce l’aumentare, nel corso degli anni, del valore
del quoziente intellettivo medio della popolazione è più marcato nei test che misurano l’intelligenza
fluida piuttosto che cristallizzata. Questo cambiamento rilevato da James R. Flynn in svariati paesi è
stato considerato come indipendente dalla cultura di appartenenza, ed il QI si osservò che
aumentasse in modo progressivo (5 punti per ogni decennio). Flynn penso che fosse un risultato
interculturale. Tra le varie ipotesi, quella di tipologia di alimentazione, la crescita degli anni si
scolarizzazione e la maggiore capacità di risolvere problemi logico-astratti, molto più frequente oggi.
Ipotesi non confermate però dai dati. Oggi invece ci sono valori di QI minori degli anni precedenti.

Test di livello intellettuale generale


Il primo test mentale fu approntato da Binet nel 1905, è noto anche come "Scala 1905" o Binet-
Simon , negli anni seguenti, a causa di difficoltà tecniche statistiche e per gli scarsi risultati delle
metodiche di questi test per l'infanzia, applicati a soggetti in età adulta, fu abbandonato a favore
del test di Wechsler-Bellevue, ancora diffuso.
Il punteggio del test di un soggetto era espresso in termini di età mentale, ovvero il confronto tra il
punteggio del soggetto sul test e l’età dei bambini normali con rendimento di livello equivalente

Il Guilford-test basato sulla Teoria della Struttura dell’Intelletto che comprende fino a 150 abilità
differenti classificate su tre fattori Operazioni, Contenuti e Prodotti ognuno con sotto dimensioni

Il reattivo delle Matrici Progressive o Test di Raven. è un test cognitivo approntato per la
valutazione globale dell’intelligenza, intesa come ampiezza delle abilità mentali indipendenti dal
livello culturale. Dato che i risultati di questo reattivo dipendono, in misura minore rispetto altri test,
dal fattore educativo, è divenuto lo strumento principe per la misura dell’efficienza intellettiva, in
tutti i settori in cui essa è utile (in ambito clinico o per la valutazione del personale)

Il Thurstone-test. batterie di test per l’uso applicativo denominate Abilità Mentali Primarie (PMA),
fondate sull’analisi fattoriale per la loro costruzione (sulla elevata validità fattoriale dei reattivi) e
differenziate per livelli di età. Presenta delle criticità per l’assenza di variabili rilevanti per l’ambito
educativo e l’orientamento (memoria e abilità percettiva su tutte).

Test attitudinali specifici


Sono test che colmano le lacune dei test d'intelligenza sulle attitudini specifiche legate ad abilità
pratiche, concrete (attitudine meccanica, attitudine musicale, etc.) spesso in parte incluse nelle
batterie attitudinali multiple recenti. Afferiscono a questo ambito anche test legati alla capacità
visiva/uditiva, la destrezza motoria o al talento artistico.
Per la Psicologia del lavoro:
Il General Clerical Test GCT è un test per la misurazione delle attitudini più richieste per i lavori
d'ufficio: velocità e precisione, numerico-verbale. Ideato per la selezione o l'orientamento del
personale impiegatizio di livello medio/medio alto, è composto da tre sub-test, per ognuno vi è un
punteggio con relativa scala di valutazione. Permette così di possibile elaborare un giudizio analitico
funzionale alle caratteristiche della mansione alla quale potrebbe essere destinato il soggetto, e una
valutazione globale fatta in base alla somma dei risultati ottenuti nei tre sub-test, che sono: 1. il
clerical 2. Il sub-test numerical. 3.Il sub-test verbal.
11
Il DAT parte dalla riflessione che ad uno stesso livello di abilità mentale generale possono
corrispondere diverse attitudini specifiche, e che questo comporta nella selezione del personale
la necessità di un reattivo con punteggi multipli che possa rappresentare le diverse caratteristiche.
E’ indipendente dalle conoscenze legate alle materie scolastiche.

Test di Orientamento Motivazionale è per la comprensione dei fattori principali che spingono una
persona a mettere in atto un'azione, una meta, mantenere un impegno nel tempo, facilitando in tal
modo l’impostazione di programmi di gestione e di sviluppo delle risorse.
Il TOM misura motivi o inclinazioni che orientano il comportamento organizzativo o le preferenze
nel lavoro in quattro diversi orientamenti: obiettivo, innovazione, leadership e relazione.
Si sviluppa a partire da una disamina delle principali teorie connesse alla motivazione: le teorie
dei bisogni (Maslow,) che fanno riferimento a specifici bisogni (fisici o psicologici), il soddisfacimento
dei quali è fondamentale per il benessere e la sopravvivenza; le teorie del valore (Atkinson, 1958;
Adams, 1965; McClelland, 1973) che prendono in considerazione ciò che l’individuo vuole o desidera
piuttosto che ciò che è necessario per sopravvivere; le teorie dell’obiettivo per le quali gli obiettivi
rappresentano qualcosa di importante per la persona ma sono più specifici nel contenuto rispetto
ai valori perché circoscrivono la meta ed indirizza più finemente il comportamento
Viene impiegato con successo nella selezione per valutare il profilo motivazionale del candidato, nei
programmi di sviluppo per favorire l’inserimento o lo spostamento del personale in più appropriati
percorsi futuri di crescita professionale o per comprendere e quindi anticipare potenziali conflitti o
disarmonie, o nella valutazione del potenziale.
Il Reattivo di Ragionamento (P. Rennes) il cui obiettivo è la rilevazione della capacità
di ragionamento attraverso l'abilità a trovare delle relazioni. L’ambito di impiego di
questo test è principalmente la selezione del personale, per valutare se i candidati
possiedano un'adeguata elasticità mentale. Per saggiare l’abilità di adattamento veloce
dei soggetti a nuovi problemi e situazioni (anche imprevisti) che possono verificarsi in
un ambiente di lavoro si basa su diversi tipi di prove: serie di lettere, serie di numeri,
analogie verbali, prove di vocabolario.

.
Test clinico-diagnostici
La psicologia clinica usa quasi tutti i test citati, poiché gli psicologi che operano in questo contesto
necessitano distabilire se il disordine di un individuo è di tipo funzionale o di tipo organico, e per
questo necessitano di informazioni derivanti da fonti diverse e non solo quelle ricavate dai colloqui
o dalle anamnesi.
L'applicazione dei test in modo coordinato e complementare agli altri approcci ha due ricadute
importanti:
1. Possono essere usati anche reattivi con capacità psicometriche non accertate o insufficienti, e
contribuire alla definizione del caso e all’indicazione all’esperto clinico del giusto percorso
per lo studio del soggetto.
2. anche reattivi con un alto grado di attendibilità e validità accertata non possono autonomamente
dare risultati sufficientemente precisi per diagnosi individuali in modo autosufficiente.
I reattivi usati in questo campo sono i test psicofisiologici.
Molti test neuropsicologici sono stati strutturati come strumenti clinici per la valutazione della
compromissione delle funzioni mentali e che quindi misurano con accuratezza e affidabilità
aspetti come la velocità di risposta, la percezione spaziale, l’astrazione, il livello di
comprensione, la formazione dei concetti e il linguaggio, la memoria visiva, l’abilità psicomotoria
sempre in riferimento al presupposto di una deficienza differenziale nelle varie
12
funzioni.

Tra questi:
il test Visual Motor Bender Gestalt, noto come Bender-Gestalt test, è sostanzialmente un test di
riproduzione a memoria di disegni ideato per la misurazione delle funzioni visuo-percettive e visuo-
costruttive.
Il test di Goldstein, applicato ai cerebrolesi. nella versione Goldstein-Scheerer (test dei cubi, o il
test dei bastoncini) è usato per la valutazione del pensiero astratto
Il test di memoria visiva di Benton è utile per la valutazione dello stato di compromissione delle
funzioni psichiche dei bambini e degli adolescenti, basato su items relativi alla percezione spaziale,
memoria immediata eriproduzione visomotrice e utile per la valutazione dellostato di
compromissione delle funzioni psichiche dei bambini e degli adolescenti.

TEST DI PERSONALITÀ
Questa categoria di test (denominati anche test di prestazione tipica o test non cognitivi) esplorano
la personalità o nella sua globalità o in qualche sua dimensione, come i test di dominanza–
sottomissione o quelli di introversione–estroversione, per riferirla ad una classificazione o ad una
tipologia. L’interpretazione dei dati, a differenza di quanto avviene nei test di rendimento, è
quantitativa e qualitativa. Si distinguono due grandi categorie:
i test obiettivi costruiti su principi omologhi ai test di rendimento, quindi con prove o domande
le cui risposte vengono dapprima quantitativamente conteggiate e poi qualitativamente valutate,
i test proiettivi idonei all’indagine dei processi inconsci, ma non facilmente assoggettabili ad una
generalizzazione delle risposte entro schemi prefissati e quindi conteggiabili: l’ambiguità dello
stimolo fornito, la molteplicità delle risposte possibili, non sottoposte al giudizio vero/falso,
giusto/sbagliato; l’interpretazione della prova che, a differenza delle tecniche psicometriche, non
esclude un rapporto interpersonale con l’esaminatore

I test obiettivi
sono costruiti su principi omologhi ai test di rendimento, quindi con prove o domande le cui risposte
vengono dapprima quantitativamente conteggiate e poi qualitativamente valutate e che sono
costituiti da item con risposta chiusa.
La distinzione fondamentale è quella tra tipologie di test per la misurazione della personalità
globale o in qualche sua dimensione, per classificarla.

MMPI (Minnesota Multiphasic Personality Inventory) –Metodo della costruzione empirica


Cattell test 16 PF – Metodo dell’Analisi Fattoriale
EPI (Eysenck Personality Inventory) – Metodo del modello teorico
EPPS (Edwards Personal Preference Schedule) –Metodo della correlazione per lo stile di risposta

A questa categoria fanno riferimento diversi metodi studiati per trattare le difficoltà collegate
alla costruzione degli invarianti di personalità, incluse le rating scales che, differentemente dai
questionari di personalità, non puntano a individuare le caratteristiche costitutive di una
personalità, ma a valutare la sintomatologia clinica, anche rispetto alla definizione nosografica ed
alle trasformazioni nel corso del tempo.
Per questo ci sono metodi diversi per la costruzione di un test:
1) il primo metodo della “costruzione empirica”, ovvero validazione empirica, del reattivo si
serve delle (frequenze di) risposte di gruppi di riferimento formati da individui che
presentano le caratteristiche (sintomi) che si intendono analizzare. Il test diviene strumento
13
discriminatorio tra gruppi normali e gruppi diagnosticati come patologici e la
standardizzazione ottenuta dal campione di popolazione di riferimento permette di
trasformare i punteggi grezzi ottenuti dal campione esaminato in punteggi ponderati molto
utili in ottica di predittività del reattivo
L’Inventario Multifasico di Personalità del Minnesota - MMPI (Minnesota Multiphasic Personality
Inventory), inventario in questo caso indica un questionario descrittivo, rientra in questa categoria
e prende in esame i tratti patologici della personalità mediante il confronto tra le risposte dei
soggetti esaminati e quelle dei pazienti affetti da diversi tipi di disturbi mentali tenendo presente
tre obiettivi principali: il raggiungimento di una campionatura di comportamenti significativa per lo
psichiatra; massimizzare la facilità di presentazione attraverso la semplificazione linguistica;
creazione di un repertorio di items molto ampio per estendere il ventaglio di descrizioni di
personalità valide (più di mille nella versione originale)
E’ il più diffuso test obiettivo di personalità. e forse più abusato nella pratica clinica è, per esempio,
una scala a "banda larga" che pone l'enfasi sulla valutazione di sintomi e comportamenti patologici
che si articolano in un profilo su 10 dimensioni cliniche e su tre indici di controllo del bias di risposta
(si compone di 13 scale che valutano (tra l' altro), la Depressione, la mascolinità-femminilità. la
Schizofrenia e la tendenza a dare un'immagine favorevole di se scala Lie).
Il MMPI e successive revisioni (MMPI-2 con nuove scale e aggiornamento dei contenuti) controlla la
presenza di distorsioni attraverso una serie di items (raggruppabili in una scala a se L = lie,
menzogna) in grado di intercettare e mettere in luce le tendenze dei partecipanti a esagerare gli
aspetti positivi della propria personalità o viceversa quelli negativi.
Diversamente in altre versioni sono previsti items cosiddetti “ovvi”, perché connessi
semanticamente in modo ovvio alle variabili di interesse, e quesiti più “sottili” di controllo.(il
questionario di Cattel adotta questa tipologia di intercettazione della menzogna)
Il MMP2 è un questionario di personalità autosomministrato composto da 567 item dal contenuto
eterogeneo, che prevede risposte dicotomiche del tipo Vero/Falso. Esso costituisce la revisione
aggiornata e ristandardizzata di uno dei questionari di personalità più diffusi e utilizzati nell'
assessment clinico e psichiatrico, il Minnesota Multiphasic Personality lnventory (MMPI; MMPl-2: i
motivi della revisione: usato per le minoranze creava una distorsione e per ottenere dati normativi
più recenti.
1. Adeguatezza del campione di standardizzazione originale
2. Linguaggio e i riferimenti contenuti negli item non di facile comprensione per coloro che non
appartenevano alla cultura di riferimento.
3. Esigua numerosità del set originale degli item, che non permettevano una diagnosi valida in tutti
i casi.

2) Un ulteriore metodo prevede un maggior numero di dimensioni più specifica, meno


generalizzabili poiché utilizza l’analisi fattoriale che permette di costruire insiemi che
codificano un determinato tratto o funzione mentale in rapporto alle rispettive correlazioni.
Secondo la scuola fattorialista (diversa da quella empirica) considerando un numero
significativo di supposte manifestazioni di capacità mentale e calcolando per ognuna il
coefficiente di correlazione con tutte le altre, ogni tratto psicologico rilevante è riconducibile
a strutture latenti che rappresentano le componenti fondamentali della personalità.
A questa categoria appartiene il questionario Cattell test 16 PF, un esaustivo inventario di
personalità fondato sulla misurazione di 16 dimensioni, funzionalmente indipendenti e
psicologicamente significative, individuate nel corso di decenni di ricerche fattoriali condotte su
gruppi normali e clinici (attualmente si è arrivati alla quinta revisione).

14
3)I metodi per la costruzione dei reattivi su un modello teorico con validazione sperimentale si
riferiscono a poche dimensioni molto generali, come per es. l'EPI, che è strutturato sulla base della
teoria della personalità di Eysenck.

4) L’ EPPS (Fondato sulla teoria dei bisogni psicologici di Murray)è fondato sul metodo della
correlazione per lo stile di risposta per ridurre gli effetti della desiderabilità sociale

5) il Big five question Five-Factor Model (FFM), con fondamenti teorici su differenti concezioni come
l'approccio fattoriale elaborato da Hans Eysenck e la teoria della sedimentazione linguistica
sviluppata da Cattel. Il primo identifica le dimensioni caratterizzanti e le
differenze individuali attraverso analisi statistiche di tipo fattoriale, due fattori Nevroticismo ed
Estroversione sono quelle già utilizzate dallo studioso nel 1983; il secondo, nei sui studi, considera
il vocabolario della lingua quotidiana come un serbatoio di descrittori delle differenze individuali. Il
reattivo propone una crasi dei due approcci.
Questi diversi approcci di ricerca confluiscono in questo test formulato da Costa e McCrae (1988) i
cui vantaggi principali comprendono l’economicità e la praticità, ed infatti quando fu somministrato
per la prima volta in Inghilterra nel 1990 i partecipanti restarono sorpresi e anche un po’ scettici
rispetto alla velocità della profilazione della personalità (solo circa 10 minuti)
termini dal significato non sempre inequivocabile.
Altri punti di forza di tale modello sono sia l’ampia generalizzabilità, riscontrata attraverso
l’applicazione in contesti con lingue e culture diverse, sia la possibilità di individuare altre
dimensione derivanti dall’integrazione con ulteriori paradigmi.
Si pone come tentativo di mediazione ed unificazione tra diversi punti di vista: individua 5
dimensioni fondamentali per descrivere la personalità, che si pongono ad un livello di generabilità
ad un livello intermedio rispetto ai modelli che fanno riferimento a poche dimensioni generali o a
quelli con poche dimensioni.
Le 5 dimensioni rappresentano strutture latenti a cui poter ricondurre ogni spiegazione e
descrizione dell'individuo in quanto si riferiscono ai modi stabili usati dall’individuo per interagire
con gli altri e con l'ambiente, alla regolazione dell'umore e alla attività conoscitiva.
L’Acronimo in lingua inglese utilizzato per ricordare i fattori principali è OCEAN:
Nevroticismo: stabilità emotiva
estroversione (energia)
apertura. Mentale e all’esperienza
gradevolezza, scrupolosità
coscienziosità
In totale il BFQ consta di 132 item e le 10 sottodimensioni ed è anche presente test una scala L = Lie,
inserita per apprezzare la misura della tendenza del partecipante a restituire un profilo personale
falsamente "positivo" o "negativo": n presenza di elevati punteggi rilevati su di essa si possono
attuare due differenti strategie: ponderare i risultati, apportando delle correzioni ai punteggi
ottenuti, oppure, nel caso in cui la simulazione superi un determinato punto critico, procedendo
all’eliminazione "d’ufficio" del soggetto, perché manifestamente inattendibile. La risposta agli item
del BFQ avviene selezionando la risposta ai quesiti all’interno di “scala Likert” a 5 punti (da
"assolutamente vero per me" ad "assolutamente falso per me")

I test proiettivi
In questi test, il soggetto, risponde più liberamente in quanto non sono strutturati in maniera rigida,
con la possibilità di essere più personali nelle risposte, permettendo di scorgere aspetti inconsci
della personalità in esame. Si definisce proiettivo per il meccanismo della proiezione illustrato dalla
15
psicoanalisi: il soggetto espelle da sé e localizza nell'altro, persona o cosa, qualità, sentimenti,
desideri che non riconosce o rifiuta in sé.
I test proiettivi sono idonei all’indagine dei processi inconsci,ma non facilmente assoggettabili ad
una generalizzazione delle risposte entro schemi prefissati e quindi conteggiabili. A volte ci possono
essere delle distorsioni perché i test non sono strutturati perché la risposta non è chiusa, e
predeterminate, ma c’è una creazione. Sono standardizzate, ma c’è un rapporto con il clinico.
Fa appello alla produzione immaginativa, con cose di cui è inconsapevole.
Si presenta a plurime interpretazioni.
Le caratteristiche principali di questo tipo di test sono:
l’ambiguità dello stimolo fornito, la molteplicità delle risposte possibili, non sottoposte al giudizio
vero/falso, giusto/sbagliato; l’interpretazione della prova che, a differenza delle tecniche
psicometriche, non esclude un rapporto interpersonale con l’esaminatore.
Rientrano in questo gruppo:

1. il test di Rorschach, non strutturato, il più utilizzato, parte dall'ipotesi che le risposte verbali del
soggetto su dieci macchie accidentali e simmetriche suggestive, diano un quadro della struttura di
personalità di colui che risponde, generate da riflessioni sulle proprie modalità cognitivo-affettive.
Questo test permette un'analisi approfondita della struttura di personalità, di elaborare ipotesi
diagnostiche e non è stato congegnato in riferimento ad una determinata teoria della personalità,
ma si è sviluppato ed è stato promosso come metodo esplorativo per studiare la relazione tra
percezione e personalità a partire dall'osservazione empirica che i pazienti schizofrenici apparivano
percepire le macchie in modo molto differente dai soggetti non clinici.
E’ ritenuto il metodo più rilevante nel campo delle tecniche proiettive. Riguardo alla valutazione
della personalità con il Rorschach, le informazioni fornite dal devono essere integrate ad altre
informazioni ricavate con altri strumenti. Sembra più funzionale in alcuni casi e meno in altri.
I tratti di personalità che possono essere colti in un reattivo di Rorschach possono essere classificati
in base a tre dimensioni: aspetti cognitivi o intellettuali; aspetti affettivi o emotivi; aspetti del
funzionamento dell'Ego

2. Il Test di appercezione tematica, TAT dopo il Rorschach, è il test proiettivo più impiegato per
l'analisi globale della personalità. attraverso la rilevazione delle tematiche basilari intese come
emozioni, sentimenti, vissuti affettivi profondi e processi cognitivi complessi e conflitti di personalità
che ricorrono nelle elaborazioni immaginative dell’individuo La valutazione delle reazioni a stimoli
interpersonali ambigui è alla base della stesura della prima versione del manuale del 1935 e viene
definita da Murray col termine di appercezione, per evidenziare il fatto che i soggetti interpretano
attivamente lo stimolo in base ai loro tratti di personalità e alle loro esperienze di vita. La personalità
in questo caso viene intesa come la conoscenza dell’assortimento dei bisogni che in modi eterogenei
incidono sul suo sviluppo
Il reattivo è composto da trenta tavole in bianco e nero (più una tavola bianca) che introducono
personaggi diversi per genere ed età rappresentati all'interno di varie situazioni di vita.
(originariamente 20 cui vennero aggiunte le specifiche “serie” per bambini e donne).
Il grado di strutturazione delle tavole è eterogeneo, infatti alcune sono appropriate per i soggetti di
ogni età, altre differenti per bambini o adulti, e i soggetti inseriti nella situazione possono essere un
numero variabile (da uno a più personaggi), ovvero contenere soltanto rappresentazioni di paesaggi.
La somministrazione del test può avvenire anche in modo collettivo con differenze di risultato
modeste e quindi valide anche a livello di ricerche psicologiche, anche se il metodo di analisi richiede
la padronanza della teoria psicodinamica di Murray per essere somministrato e conduce ad una
descrizione qualitativa (non quantificata) delle caratteristiche di personalità individuali. Per quel che
16
riguarda l'attendibilità, occorre innanzi tutto prendere in considerazione la confrontabilità di
risposte stimolate da esaminatori diversi.
Permangono dubbi sulla confrontabilità di risposte stimolate da somministratori diversi poiché
diversi studi hanno messo in evidenza che anche la sola presenza del somministratore produce
variazioni fino ad inibire la produzione di contenuti ad alto valore emotivo. L'attendibilità del TAT
inoltre non può essere verificata attraverso i criteri si omogeneità interna, dato che è possibile
utilizzare modalità di somministrazione diverse (serie di tavole diverse o ripartite in più sedute) e
interpretazioni/analisi diverse. La stabilità delle caratteristiche personali evidenziabili con il TAT non
è un’assicurazione di affidabilità robusta. leproblematiche derivanti dalle fantasie espresse nei
racconti possono non essere collegate al comportamento dell’individuo, e per di più anche il
rapporto tra la quantificazione dell'intensità delle fantasie dei soggetti rispetto al loro
comportamento non risulta chiaramente definita: in generale è considerata positivamente
correlata, ma variabile in base a caratteristiche come l’età, il genere, il tipo di scoring utilizzato e le
variabili considerate.
La personalità viene intesa come assortimento dei bisogni che incidono sul suo sviluppo

3. il test di Appercezione tematica per Bambini, CAT, di Bellak è un


reattivo per lo studio della personalità che parte dall'analisi delle differenze individuali nella
percezione nel caso specifico rappresentazioni di animali antropizzati. Queste situazioni considerate
basilari per il bambino sono in grado di rilevare gli aspetti dinamici delle problematiche del soggetto,
portando alla luce i tratti latenti relativi all’aggressività, all’angoscia derivante dalla solitudine, alla
propria accettazione da parte degli adulti di stimoli standardizzati, nel caso specifico
rappresentazioni di animali. Questo test fornisce informazioni anche sulla struttura affettiva, sulle
reazioni del bambino in presenza di problemi dello sviluppo ed alle risoluzioni adottate .

4. la Tecnica delle relazioni oggettuali, ORT, è un test proiettivo i cui presupposti teorici fanno
riferimento agli elementi alla base della relazione oggettuale del soggetto, cioè i processi dinamici
con cui il soggetto esprime le forze consce e inconsce che caratterizzano l'interazione con
l’ambiente. Queste forze si dispiegano a partire dalle relazioni con i primi oggetti da cui il soggetto
dipende per la soddisfazione dei bisogni primari e il test dell’ORT rileva se e quanto l’esperienza di
adattamento è convalidata socialmente o, al contrario, non sia opportunamente gestita con
manifestazioni inconsce e come la relazione oggettuale influenzi il modo successivo di entrare in
rapporto con il mondo.

5. Il Blacky Pictures test (Blum)è per valutare le diverse componenti di competenza psicoanalitica
e per convalidare in modo sperimentale i concetti principali della teoria freudiana classica, cioè i
conflitti psichici, meccanismi di difesa, sviluppo psicosessuale.
Cosa misura: sviluppo psicosessuale del soggetto, meccanismi di difesa e relazioni oggettuali
•Ambiti di utilizzo : Assessment clinico
•Destinatari: bambini con età compresa tra 6-11 anni, ma a volte anche adulti
le figure umane potrebbero essere inibitorie, in quanto ricordano le figure di riferimento.
Racconto spontaneo. Breve consegna iniziale. Inchiesta con domande strutturate a scelta multipla
per indicare gli stati d’animo dati . gradimento delle tavole.
Vedi qualcosa in più su google

6. Il metodo Duss delle piccole favole o storie è stato elaborato come rapido metodo di indagine
sostitutivo dell'interrogatorio psicoanalitico diretto del bambino. Un protagonista si trova in una
determinata situazione che rimanda ad uno dei diversi stadi dello sviluppo psicosessuale (stadio
17
orale, anale, edipico, ecc.): il modo in cui il bambino conclude una favola iniziata dallo
sperimentatore permette di valutare le reazioni normali, patologiche e sintomatiche. L'analisi delle
risposte date dal soggetto richiede agli esaminatori una conoscenza profonda del modello
psicoanalitico, in particolare riguardo alla struttura della personalità e alla comprensione delle
situazioni simboliche rappresentanti determinati stati dell'evoluzione affettiva del bambino, ma
anche una certa padronanza della tecnica dell'interrogatorio psicoanalitico.

Vanno segnalati anche i reattivi basati sulla produzione di disegni come meccanismo per facilitare
l’espressione di contenuti altamente emotivi da parte del soggetto all’interno del colloquio e per
attenuare l’eventuale ansia derivata. Questa ampia tipologia fa riferimento alle tecniche cosiddette
“produttive” (G.W. Allport, 1965) che favoriscono le risposte non verbali.
Questi test (sebbene il termine in questo caso sia quasi improprio dato il basso grado di validità e
affidabilità), oltre alla produzione “libera” del disegno, prevedono il disegno della figura umana,
della famiglia, di oggetti di familiari, e il completamento di disegni come schermi su cui proiettare il
proprio vissuto, le tendenze del proprio inconscio e la percezione di sé.

Esistono altri reattivi proiettivi classificabili a partire dalle tecniche impiegate per la loro
strutturazione:
• ludiche, non utilizzate per il trattamento terapeutico del bambino, trattamento attraverso il gioco,
ma per l'analisi della personalità;
• rifrattive, basate sull’impiego di un mezzo convenzionale di comunicazione (ad esempio la
scrittura) per rivelare la personalità del soggetto analizzando le distorsioni che quest’ultimo provoca
sull’attività di comunicazione stessa;
• costruttive, che accomunano i reattivi caratterizzati dall’azione del soggetto che costruisce
strutture più ampie partendo da un materiale predefinito (ad esempio il test del mosaico di
Lowenfeld e il test del villaggio di Arthus);
• costitutive, in cui partendo da elementi non strutturati il soggetto stesso definisce la struttura.

Lezione 3 scorm
Elementi fondamentali per la misura di una caratteristica attraverso un test
La validità a priori del test
La validità a posteriori del test
Corrispondenza del test alle esigenze pratiche. Per valutare la misura effettuata da un test rispetto
alla caratteristica: decidiamo quale caratteristica si propone di misurare e il metodo con cui
quantifichiamo il risultato, bisogna scegliere gli stimoli e fissare le modalità di risposta, che devono
essere appropriati (per la creatività le risposte dovranno essere aperte, per il problem solving sono
più vantaggiose alternative chiuse con una sola risposta; per un tratto di personalità, il modello più
adatto sono le risposte alternative chiuse, disposte lungo una scale che rispecchia il continuum
soggiacente alla differenza individuale, (quindi abbiamo scale Likert ecc. ). La scelta del tipo di
risposta è connessa con la risposta del test alle esigenze pratiche e gli stimoli devono essere scelti
in modo che attivino solo risposte attinenti alla caratteristica da misurare, per es, se abbiamo un
questionario psicopatologico, ci sono domande che contengono vocaboli difficili e le persone meno
colte potrebbero dare una risposta alfa non adeguata, che non corrisponde allo stimolo che si stava
ricercando, sembrando psicopatologici anche quando non lo sono, se l’itam non è di buona qualità.
Allo stesso modo se lo stimolo è una figura ambigua, bisogna essere sicuri che il dettaglio non
presenti problemi di tipo percettivo, sennò il soggetto non risponde in modo corretto non perché
non abbia il tratto latente o l’abilità, ma perché non percepisce l’elemento che dovrebbe
giustificarne la risposta.
18
Di solito vengono esaminati dal gruppo di esperti che costruisce un test, facendo un pool degli item
che devono essere valutati. L’insieme di questi controlli riguarda la validità di contenuto del test o
la validità di facciata : se il test sembra valido e percepito in modo corretto dai soggetti (Validità
esaminata a priori, quando ancora non si conoscono le risposte dei soggetti agli stimoli del test.
Una volta preparati gli stimoli del test si avrà una validità a posteriori, con la raccolta delle risposte
potremo dire se il test è una buona misura del costrutto da misurare.
Questi procedimenti sono molto lunghi, (più di un anno) e continuati anche dopo la pubblicazione
del test, per tararlo in modo corretto. Vengono fatti dopo la somministrazione del test e sono
controlli a posteriori. I campioni sono più ampi e la maggior parte dei test standardizzata
attualmente viene validata su campioni stocastici, casuali, ma nella ricerca molti test non sono
testati su campioni probabilistici, grave difetto, dovuto al fatto che per la ricerca un anno è troppo
per un campione. Un test validato trent’anni fa, non è detto che sia utile oggi, anche in luoghi
diversi.
E’ importante che gli stimoli siano omogenei tra loro.
Una volta accerteta la misura valida, possiamo scegliere il test anche in base a proprietà legate al
vantaggio pratico( tempo, economia, costo, tratti studiati, quali disturbi intercetta, appropriato
ai soggetti, scritto in linguaggio semplice o che gli stimoli siano attraenti per le persone).non deve
porre problemi etici e deontologici (che portano a problemi legali)e contenere quesiti religiosi e
politici, per dare garanzie di risultati equi, senza discriminazione legate al genere o alle minoranze.
Per massimizzare i vantaggi alla scelta di un test, bisogna considerare se sia appropriato
Esempio di alternativa di tipologia dei test
• test di profitto;
• test attitudinali;
• inventari di personalità;
• inventari degli interessi

Vedi immagini cartella 1 per come scegliere un test. (Boncori) con coscienza e conoscenza.

Non ci può essere un reattivo che possa fornire le informazioni necessarie al clinico per fare una
diagnosi, e test diversi forniscono informazioni differenti, che è riconducibile alle caratteristiche
dello stimolo e al modello teorico sotteso a quel test e al soggetto che si sottopone ad esso. La
teoria della misurazione dovrebbe tenere in considerazione la dimensione dello stimolo, la
risposta, la persona analizzata. La scelta del test per la diagnosi testologica è importante e diversa
da sintomo a sintomo.
Spesso i test vengono scelti secondo il modello teorico o esigenze personali (editore e varie)del
clinico, cosa che porta ad un uso improprio dello strumento ed a una scorretta valutazione dei
dati, dato che il test rileva alcune informazioni.
La risposta è correlata con lo stimolo, per cui se non vengono fatti errori nella somministrazioni e
se c’è un’alleanza terapeutica, si effettua una misurazione valida.
Una mancata alleanza è causa di protocolli non validi o muti, e se lo strumento determina una
risposta diversa da qualla attesa, bisogna evidenziarne le cause, tenendo in considerazione che
alcuni risultati sono dovuti ad una scorretta somministrazione.

Il lavoro di costruzione e taratura è essenziale per definire un buon test e che questo lavoro va svolto
preliminarmente da chi costruisce il test e intende metterlo in circolazione proponendolo ai colleghi
e ai possibili utilizzatori. (Validità )

19
Gli item vanno scelti con cura, magari con prove preliminari, perché rappresentino l'area psicologica
da valutare e siano graduati in modo opportuno: per livello di difficoltà se si tratta di prove di
efficienza, per grado di accettabilità se le domande riguardano aspetti delicati della
personalità o della patologia. È opportuno iniziare dalle prove più facili nei test cognitivi e da quelle
più accettabili e meno 'scabrose' nei test di personalità.
Lo scopo nella costruzione degli item è evitare che la risposta del soggetto risenta di un 'errore'
che inficia la valutazione in quanto non consente di stimare adeguatamente competenze o
condizioni 'vere' del soggetto stesso.
in tutte le concezioni vi è una quantità di errori, ma questo è un errore sistematico dovuto a norme
o procedure errate, che non permette un utilizzo adeguato dello strumento.
Corrispondenza tra percentili empirici, scale di misurazione e punteggi standardizzati.

Le norme di gruppo devono avere le seguenti proprietà per essere appropriate:


• Recenti , legate al momento in cui il campione normativo è stato stabilito, (le norme sono “time
bound” (Williams, 1988), così immerse e legate che questo contesto deve essere preso in
considerazione all’interno dell’attribuzione del punteggio)
• Rappresentative , legate al metodo di estrazione del campione rispetto alla eterogeneità della
popolazione di riferimento (metodo di campionamento e ampiezza del campione)
• Rilevanti (corrispondenza tra le caratteristiche del campione e quelle della
popolazione), controllo che non vi siano differenze a disparità di distribuzione su alcune proprietà

Fasi: scelta del costrutto, elaborazione di item ampi, esame critico degli item, analisi formale (’item
analysis) degli item (dimensionalità, difficoltà. Discriminatività), selezione item del test, studio delle
caratteristiche del test, standardizzazione
Metodi: analisi razionale del costrutto, operazionalizzazione, selezione di un gruppo di esperti,
scelta di un campione, uso di tecniche di analisi statistica, calcolo degli indici di attendibilità,validità
ed informazione; selezione di un campione normativo; calcolo di statistiche campionarie ed
inferenziali
Risultati: definizione del costrutto, insieme di item, versione preliminare del test, insieme scelto di
item, parametri che consentono di descrivere le proprietà metriche degli item, versione finale del
test.

Modulo 2

Domande video
Domande di ricerca specifiche sono adatte a strategie di analisi esplorative? Falso
(Giusto, sono più adatte a temi già studiati e questioni circoscritte).

E' auspicabile poter utilizzare i dati dei social media per condurre analisi psicologiche tous court:
falso
perchè i big data sono soggetti a distorsioni esattamente come le altre fonti di dati

Il rapporto di ricerca non prevede anche l'analisi descrittiva dei dati: vero
Giusto, siamo ancora in una fase progettuale
l'assessment psicologico (traducibile in italiano con valutazione e
accertamento) è sostanzialmente un processo di valutazione (inteso come espressione di un
giudizio) nel quale un ampio spettro di informazioni, tra cui anche spesso risultati di test, è
integrato in una significativa descrizione e spiegazione della condizione psicologica di un
20
soggetto.

Video scorm 1
Il contenuto di questo corso riguarda principalmente due insiemi di argomenti: da un lato la teoria
intesa come l’evoluzione storica degli eterogenei temi psicometrici (test, esperimenti, studi etc.) e
dei metodi intesi come processo di ricerca, cioè un atto volontario e consapevole spinto da un
obiettivo conoscitivo e proiettato alla definizione e perfezionamento approfondimento delle
procedure di indagine; dall’altro i metodi e le tecniche statistiche utilizzate in ambito psicologico in
relazione agli strumenti implementati per la misurazione di fenomeni e/o costrutti individuali.
La disciplina psicometrica intercetta ed è influenzata da diversi ambiti di studio tra i quali i paradigmi
fondamentali della psicologia, la psicofisica, la psicobiologia, la statistica e l’informatica.
Le qualità o caratteristiche fondamentali che si richiedono a un test, o altra tecnica metrica,
perché possa essere considerato un accettabile strumento di misura, sono: la validità, che riguarda
la capacità sostanziale del test di misurare realmente quello che esso presume di misurare;
l’attendibilità o fedeltà o costanza, che esprime l’accuratezza della misura ottenuta, ovvero il grado
di confidenza con il quale lo strumento può essere usato; la discriminatività o selettività di una
misura, cioè la capacità del test, o di una qualsiasi altra scala, di discriminare valori anche prossimi
tra loro della caratteristica o funzione che viene valutata
Duplice consegna della disciplina psicometrica:da un lato l’indagine sperimentale a conferma delle
ipotesi sulla natura quantitativa di una proprietà o di un costrutto, dall’altro disposizione di
procedure, metodi,di misurazione delle grandezze dell’attributo psicologico, ossia qualsiasi stato,
tratto, atteggiamento , abilità che consideriamo come quantificabile. Questo per modificare e
ricostituire un modello di analisi più robusto.
Questo spiega perché non sia possibile sviluppare una conoscenza delle teorie e dei concetti
fondamentali della psicometria o applicare la metodologia alle situazioni concrete senza capire le
basi matematiche su cui si fonda la teoria dei test nelle sue diverse articolazioni, non tanto i calcoli,
ma la struttura della procedura matematica.
Quanto deriva fattori noti e quanto è casuale? quanto è probabile che il risultato osservato, s vera
l’ipotesi che desidero rifiutare? L’innovazione e lo sviluppo della disciplina dipendono dalla capacità
di valutare il valore di tale probabilità, e quindi della corrispondente accettazione o rigetto
dell’ipotesi in base ai risultati (il cosiddetto “test delle ipotesi statistiche"
La metodologia psicometrica mantiene gli stessi fondamenti degli esperimenti che sono cruciali
nella fisica teorica, e le misure che derivano dalla psicologia sperimentale o dalla somministrazione
di reattivi psicologici, è necessario sapere che i numeri che otteniamo sono importanti per la
valutazione ed hanno un peso.
Essere consapevoli delle fonti dei dati, ci permette di sfuggire al fenomeno del disturbo del pensiero
metodologico (Michell) ossia l’ incapacità di prendere atto di evidenze metodologiche
relativamente chiare.

Opportunità e ricadute dell’adozione di DSM e ICD


Sistemi categoriali che utilizzano un approccio prototipico, insieme a modelli nosologici e criteri
diagnostici politetici.
Come conseguenza dei contributi di S. Freud e di altri psicologi la classificazione patologica
fu estesa negli anni cinquanta per comprendere le nevrosi e le problematicità della popolazione
generale, fino ad includere verso la fine del XX secolo la nosografia di disturbi quali depressione,
ansia, disordini dell’alimentazione e della sessualità.14 Viene quindi meno la distinzione tra “matto”
e “normale”, con la convinzione che la maggioranza degli individui faccia esperienza di un qualche
grado di deficit della “salute mentale” nel corso della propria vita.
21
Cardini fondamentali del Diagnostic and Statistical Manual of Mental Disorders:
nosografico: i quadri sintomatologici sono descritti a prescindere dal vissuto del singolo, e sono
valutati in base a casistiche frequenziali.
• ateorico: non si basa su nessun tipo di approccio teorico, né comportamentista, né cognitivista,
né psicoanalitico, né gestaltico, ecc.
• assiale: raggruppa i disturbi su 5 assi, al fine di semplificare e indicare una diagnosi standardizzata.
su basi statistiche: si rivolge ad esse in quanto il sintomo acquista valore come dato frequenziale; i
concetti statistici di media, frequenza, moda, mediana, varianza, correlazione, ecc. giungono ad
essere essi stessi il "solco" mediante il quale si valuta la presenza o meno di un disturbo mentale.
Allo stato attuale sono elencati ed analizzati più di 370 disturbi mentali, descritti dettagliatamente
in base alla prevalenza di determinati, i meccanismi psicodinamici, la peculiare modalità di reagire,
di opporsi, di difendersi. Dunque, una visione “plurifattoriale integrata” della malattia mentale, ed
infatti non si fa uso di termini quali infermità o malattia, ma ricorre al più generale concetto di
“disturbo mentale”
I criteri del DSM per la costruzione di test e questionari psicologici, ma anche alcune categorie
nosografiche, sono stati più volte messi in discussione perché soggetti all’influenza della cultura di
origine.

La critica principale è riconducibile alle questioni legate all’adeguatezza della valutazione sulla
situazione clinica di un soggetto, e quindi sulla scelta dei cut-off, la definizione del criterio soglia di
ogni categoria del DSM, che determinerebbero una diagnosi di disturbo mentale anche in persone
con tre delle caratteristiche richieste, al pari di soggetti su cui se ne rilevano sei
Problematica legata alla definizione dei cut-off, i criteri soglia di ogni categoria del dsm.
La spiegazione nosografica, cioè la descrizione della malattia psichiatrica a partire da una
classificazione (etichettamento) non necessariamente corrispondente alla realtà, risulta troppo
lineare e semplificata, e la differenza tra soggetti con due o tre caratteristiche tipiche di un disturbo
mentale non sufficientemente giustificata. In pratica il DSM sembra rispondere più a esigenze
di epidemiologiche e di ricerca che ai bisogni dei clinici, poiché la configurazione propone
categorie patologiche ideali, senza rendere conto della complessità dei disturbi.

Pianificazione della ricerca

Il disegno di ricerca.
L’analisi e la costruzione dei costrutti è importante per le fasi della parte della scoperta e il contesto
della giustificazione, in cui si suddividono le due parti del disegno di ricerca.
La scelta del problema è la più rilevante, perché determina il corso degli studi, la scelta del progetto
giusto.
In generale con disegno di ricerca si intende l'organizzazione temporale e spaziale di una ricerca al
fine di aumentare i controlli e la sua validità. Esso costituisce perciò la struttura di una ricerca, cioè
la sua pianificazione e la progettazione, in particolare per ciò che attiene alla somministrazione del
trattamento e alla manipolazione della variabile indipendente, nonché alla rilevazione dei suoi effetti
sulla variabile dipendente, incluse l' organizzazione temporale, l'estrazione dalla popolazione, la
costituzione dei gruppi e delle condizioni, al fine di esercitare il massimo controllo ed escludere il più
possibile l'intervento di altre possibili variabili di disturbo [Pedon 1995; Brewer 2000; E.R. Smith
2000]. (Pedon, Gnisci, 2004, p.228)

22
EDA 1 (concezione pre-corso di psicomentria) EDA 2 ( post corso, in cui le domande di ricerca
possono portare a modelli di analisi diversi,e diverse misure per ottenere dati più rappresentativi)
Le domande di ricerca devono essere lineari e sono il primo punto in questo processo.
Il processo di pianificazione della ricerca è molto faticoso, logorante e spesso provoca ansia, è una
sfida, perché inventarsi unìipotesi diversa della spiegazione della realtà non è semplice, ma molto
creativo. Lo sforzo maggiore profuso in questa fase di solito ripaga nelle fasi seguenti.
• Le domande di ricerca possono essere sia esplorative (pilota, descrittive/conoscitive, aperte,
open-ended) che di conferma (test di ipotesi o di modelli teorici se siano predittive e confermino
quanto previsto dal modello).
• Per individuare la letteratura pertinente è possibile utilizzare diversi database.
• Il processo di pianificazione è iterativo: il feedback da parte dei colleghi, brainstorming,
• In generale, la ricerca dovrebbe essere orientata alle domande piuttosto che ai metodi. L'
essenza della pianificazione di una buona ricerca è quella di rendere le procedure adatte alle
domande, piuttosto che il contrario.

Domande di ricerca
Le domande aperte e orientate alle scoperte sono in genere le più appropriate quando:
• un'area di ricerca è relativamente nuova o poco conosciuta, rendendo difficile o prematuro porre
domande più specifiche.
• un' area di ricerca è confusa, contraddittoria o non sta producendo progressi significativi. Questo
può essere dovuto a una concettualizzazione troppo ristretta o a una quantificazione prematura
antecedente alla progettazione adeguata del lavoro descrittivo esplorativo.
• Quando l'argomento è un evento, processo o esperienza umana molto complesso, che richiede
una definizione o descrizione accurata.

Lo psicologo spera di dimostrare che ci sia una relazione tra due misure dalle domande di ricerca
possono derivare le strutture dei costrutti, da cui si individuano i comportamenti osservabili.
La relazione teorica rende conto di tutto, va aldilà delle singole variabili.

Video scorm n 2

Due tendenze che stanno schiacciando l’ambito prettamente psicologico sono:


le neuroscienze , che spiegano ogni azione umana come funzioni del cervello. La neuro “appiattisce”
il ruolo della “mente” nelle nostre scelte, sensazioni ed emozioni.
l’analisi dei Big data, enormi data base che contengono informazioni su milioni di soggetti, raccolte
attraverso social media, google, piattaforme come Amazon, che danno la possibilità di rendere
computabile qualsiasi trend sociale, raccolta dati da parte di grossi network per “svelare” le
tendenze della società”, e si prefigge anche di conoscere e svelare la personalità di un individuo
attraverso la raccolta dei dati ed abitudini. questi data base rappresentano uno strumento rilevante
di analisi.
Evitare la Neuro-Mania, e lasciare il posto alle scienze umane, con la pretesa di poter ancorare ad
elementi materiali le immagini del cervello e Svelare l’illusione informatico-centrica.
(Gran discussione sul video su questo, approfondisci)
In questa contrapposizione la ricerca psicologica risulta schiacciata e
Bisogna quindi evitare queste due derive.

23
Il valore della ricerca documentale
Una ricerca documentale è di aiuto per la domanda di ricerca, nella fase in cui bisogna produrre un
rapporto di fattibilità di una ricerca in cui si raccolgono gli elementi della letteratura su uno specifico
argomento e ci dà chiarezza sull’opportunità di condurre uno studio, facendo un progetto.
Per svolgere la fase documentale bisogna conoscere le fonti ed è importante per due ragioni:
1) Il ricercatore raccoglie le idee degli altri studiosi interessati ad una particolare domanda di ricerca.
2) Ci Si informa sui risultati di altre ricerche similari o collegate a quella progettata.
Il Pericolo da evitare è la info-alluvione, ossia con l’avvento di internet , troppe informazioni che
non si sanno gestire. Per evitarla bisogna conoscere le migliori fonti e saperle gestire.

Tipi di fonte documentale


Vi sono tre tipi di fonti documentali di base:
1) General references (indici generali): indicano dove cercare per localizzare altre risorse – articoli,
monografie, volumi e altri documenti – che trattano la domanda di ricerca
2) Fonte primaria: pubblicazioni nelle quali i ricercatori riportano i risultati dei loro studi
direttamente ai lettori. In questi Jornal le tematiche sono molto specifiche.
3) Fonti secondarie: pubblicazioni in cui l’autore descrive gli studi e la produzione di altri ricercatori.
Ricerche sistematiche, (revisioni, in cui si sceglie un argomento,) metanalisi, (in cui si mettono
insieme tutti i dati relativi ai singoli studi) annuari, enciclopedie.

Passi della ricerca nella ricerca documentale:


1. Definire il problema di ricerca nel modo più preciso possibile
2. Consultare le fonti secondarie più rilevanti
3. Selezionare e leggere accuratamente uno o due testi con indici generali
4. Formulare una ricerca dei termini (keywords/parole chiave, utilizzate anche nei database, che
servono per identificare gli abstract) pertinenti al problema di interesse
5. Ricercare gli indici generale per fonti primarie rilevanti
6. Ottenere e leggere fonti primarie rilevanti, e annotare e riassumere i punti chiave delle fonti,
essendo esaustivi senza scrivere troppo.

Indicizzatori online

Indicizzano gruppi di siti internet insieme attraverso categorie di similitudine


Hotbot.com, Lii.org Librarian’ Index to the internet, Dmoz.org Open Directory project
Webcrawler.com
Problematiche legate alla ricerca nel WWW
Disorganizzazione fa perdere Tempo. Mancanza di credibilità (spesso). Valore incerto, perchè non
sono passati per una Pear review di altri ricercatori, che valutano l’articolo o lo studio.
Violazioni etiche.
Leggere solo l’abstract rende difficile valutare un articolo, perché spesso le indicazioni sono generali
e non si può subito distinguere tra un aticolo con moltissime informazioni da un altro. Questi
strumenti bibliografici (nomina i vari sul video).
Bisogna vedere le tre fonti di informazioni

Fonti principali per l’individuazione di un test


Studiate dal punto di vista della validità
Queste sono free, ossia non a pagamento.
Database ETS
24
La collezione di test dell'ETS è un database di oltre 25.000 test e altri strumenti di misura, la maggior
parte dei quali sono stati creati da autori esterni all'ETS, in autonomia, che danno la possibilità di
pubblicarli.
Mette a disposizione di ricercatori,studenti laureati e docenti, informazioni sui test e gli strumenti
di ricerca standardizzati. Con informazioni sui test dall' inizio del 1900 ad oggi, la collezione di test
dell' ETS è la più grande raccolta di tali materiali al mondo.
https://www.ets.org/test_link/about/
Inter-Nomological Network – INN
La Rete Inter-Nomologica è un' applicazione integrata di sviluppo teorico che mira a ridurre la
ridondanza della ricerca nel campo delle scienze comportamentali. INN utilizza tecniche di
elaborazione del linguaggio naturale per restituire risultati di ricerca semanticamente correlati alla
query dell' utente. Non richiede l’uso di parole-chiave specifiche.
http://inn.theorizeit.org/
Measurement Instrument Database for the Social Sciences - MIDSS
La Banca dati degli strumenti di misurazione per le scienze sociali è un sito progettato per essere un
deposito di strumenti che vengono utilizzati per raccogliere dati da tutte le scienze sociali e che ad
oggi dispone di oltre 500 strumenti che si occupano di una vasta gamma di argomenti (ad esempio
autismo, salute, dolore), con diversi sondaggi
http://www.midss.org/about-us
Test bank dell’american sociology…ma è a pagamento

VIDEO SCORM 3
Rapporto sulla ricerca in letteratura

Si costruisce alla fine della consultazioni delle tre fonti e ci dirà la fattibilità.
Introduzione: breve descrizione della natura del problema di ricerca
Il corpo del rapporto: breve disamina delle risultanze dell’analisi delle opinioni di altri ricercatori sul
problema di ricerca. Fonti primarie di informazioni: Ricerche simili sono trattate di solito insieme e
raggruppate in sottotitoli, usando le parole chiave, o un approccio più tassonomico, l’importante è
fare una griglia degli studi individuati.
Il sommario del rapporto: lega insieme i maggiori elementi messi in evidenza dalla revisione della
letteratura che si conosce fino a un dato momento proponendo una visione composita e più
personale, critica, revisione sistematica dei contenuti selezionati,
Teoria e Ipotesi: (dedicate tutto lo spazio necessario per questa sezione, ma cercate sempre di
essere parsimoniosi). Ha una ricaduta successiva più rilevante sullo studio della fattibilità studio più
ridotto, che deve riportare:
Riassumere in breve il modello concettuale di riferimento e rappresentarlo con le ipotesi prescelte
(se possibile). Postulati da cui si è partiti e come la teoria supporti le ipotesi scelte.
Iniziare supportando l’ipotesi alternativa (H1o H a), che è di tipo testuale, definendola formalmente.
L’ipotesi H1 o Ha è di tipo statistico quando si fanno confronti.
La proposta deve includere una logica causale forte e basata sulla letteratura. La relazione causale
è di tipo teorico, l’idea deve essere già presente in questa fase, anche se non adotteremo una
modalità di verifica che implichi la possibilità di definire in modo sperimentale questo rapporto
causale, però la logica deve essere stabilita.
Conclusione:questo rapporto tra la ricerca e la letteratura ci deve motivare dla punto di vista del
sentire, la scelta del problema di ricerca dello studioso si giustifica sulla base delle risultanze dello
stato dell’arte della conoscenza su quel problema/argomento e gli elementi che potrebbero guidare
la ricerca secondo quanto trovato in letteratura
25
Bibliografia: di tutte le fonti menzionate, sarebbe importante negli articoli scientifici-quantitativi,
laurea ecc, in modo da dimostrare di avere approcciato il problema da tutti i punti di vista.
A questo punto bisogna andare sulla pratica, creando il rapporto della fattibilità della ricerca che
riprende delle parti del rapporto della ricerca in letteratura, ma è più sintetico, in una pagina o
meno, utilizzando solo uno schema per punti, rispondete alle domande seguenti (o compilate questa
bozza
di schema). Poi condividetelo con un referente esperto di vostra fiducia (non con me, a meno che
non sia il vostro consulente) per ottenere un feedback tempestivo su questo rapporto sulla
fattibilità. In questo modo non vi saranno perdite di tempo su un'idea sbagliata o raffazzonata.
Vi consiglierei anche di andare a leggere l'editoriale di ArunRai su MISQ intitolato:"Avoiding Type III
Errors: Formulating Research Problems that Matter." ("Evitare errori di tipo III: Formulare problemi
di ricerca che contano".) L'impostazione è diretta al campo dei sistemi informativi, ma è
generalizzabile a tutti i settori della ricerca
Se le domande di ricerca non sono sviluppate in modo significativo, si ricade in un errore di tipo 3,
ossia un errore teorico che influenza la causalità dei risultati della ricerca.

Domande da porsi
Qual è il problema che state cercando di risolvere? (Se non c'è nessun problema, di solito non c'è
bisogno di ricerca).
Perché si tratta di un problema importante (e non solo interessante) che ha ricadute dal punto di
vista formativo, sociale e psicologico; attuale o imminente? (cioè, i vecchi problemi non devono
essere riaffrontati se non sono più una fonte di criticità).
Chi altro ha affrontato questo problema? (Molto raramente la risposta è: "nessuno". Siate creativi.
Qualcuno avrà studiato qualcosa in relazione a questo problema, anche se non è esattamente lo
stesso. Questo richiede una revisione ragionata.)
In che modo gli sforzi compiuti in precedenza da altri sono incompleti? (cioè, se altri hanno già
affrontato il problema, cosa resta da studiare - quali sono le "lacune"?)
Come intendete colmare queste lacune nelle ricerche precedenti? (cioè, disegno della ricerca,
metodologia etc.) Se è un problema di metodologia, di disegno della ricerca
a) Perché si tratta di un approccio adeguato? (Se applicabile)
Qual è la vostra popolazione target per lo studio di questo problema? (Dove e quando raccoglierai
i dati?), se c’è un tempo e un luogo in cui raccogliere i dati, definire le variabili dipendenti e come
sono state studiate nel contesto di riferimento. Se si basa la ricerca su un modello, spiegare come
le variabili dipendenti si possono relazionare a quelle indipendenti e come sono state studiate le
domande di ricerca.
1. Come raccoglierai i dati che desideri? (quantità e qualità)

Revisione della letteratura


Definire completamente la/le variabile/i dipendente/i e riassumere come è stata studiata nella
letteratura esistente nel contesto più ampio (come psicologia sociale piuttosto che del Lavoro,
oppure clinica etc.).
Se si basa il modello su una teoria/framework esistente,dedicare parte iniziale del documento per
spiegare tale teoria (massimo 1 pagina) e poi spiegare come si è adattata la teoria allo studio.
Se non si basa il modello su una teoria/modello esistente, dedicare parte iniziale del documento per
spiegare come la letteratura esistente nel proprio campo ha cercato di prevedere le variabili
dipendenti VDi o ha cercato di affrontare le relative domande di ricerca
Se opportuno per lo studio specifico:

26
Spiegare quali altri costrutti si sospetta parteciperanno a prevedere le vostre VDi (variabili
dipendenti) e perché ed elaborare questa parte senza ripetere ciò che si è detto in precedenza, nella
parte teorica, andando più sul punto di vista comportamentale ed osservativo, nella logica che porta
a risultati. L'inclusione di un costrutto dovrebbe avere un buon supporto logico-teorico e/o di
letteratura. Per esempio, "stiamo includendo il costrutto XYZ perché la teoria su cui stiamo basando
il nostro modello lo include". Oppure, "includiamo il costrutto XYZ perché la logica seguente (abc) ci
costringe a includere questa variabile per non essere imprudenti".

Video scorm 3

Come si struttura un articolo di ricerca quantitativa (modello APA) e ambiti di


applicazione dei reattivi psicologici e delle relative tipologie, le finalità e come si
raccordano con gli ambiti di applicazione.

E’ importante studiarlo perché è uno standard all’interno delle pubblicazioni quantitative in ambito
psicologico. Capire quali sono gli articoli ben scritti, se manca qualcosa.

Title/Titolo (qualcosa di accattivante, sintetico ed accurato), ordine degli autori, secondo la loro
rilevanza nella scrittura dell’articolo.)l’ultimo nome può essere il più rilevante perché può essere
quello che coordina tutto)
Attenzione all’Abstract (conciso – 150-250 parole – per spiegare l’articolo): breve riassunto che deve
contenere tutte le successive fasi ed aree dell’articolo. Sintetizzare la problematica, l’impatto
pratico della soluzione, il metodo, i risultati ottenuti. (8 o 9 righe che siano capibili per una futura
consultazione sul web, dato che in modo gratuito sarà presentato al lettore solo questo
Più o meno una frase per ciascuno dei punti seguenti:
Qual è il problema?
Perché è rilevante?
Come si è affrontato il problema?
Quali sono stati i risultati?
Come questo può avere un impatto pratico (rispetto a quanto fatto a livello professionale) e/o come
modifica la metodologia di ricerca o il livello teorico (esistente o futuro)?
Parole chiave/Keywords (4-10 parole chiave che catturino il contenuto dello studio)

Introduzione (primo elemento da scrivere)


Va esposta la problematica centrale e perché è significativa? (2-4 pagine), l’attuale stato teorico ,
citando le precedenti ricerche che hanno affrontato lo stesso argomento e precisare il contesto
teorico-scientifico in cui si colloca lo studio e dichiarare le ipotesi che derivano dalla introduzione e
gli eventuali risultati attesi.
Preferibile in questa fase che tutte le references (citazioni ) siano specifiche e quale sia l’articolo di
riferimento.
Domande canovaccio per la parte introduttiva:
Cosa è stato fatto da altri studiosi precedentemente riguardo questa domanda di ricerca (o
problema) e perché i loro sforzi sono stati insufficienti (qual è l’elemento mancante (GAP) nella
letteratura)? (1, massimo 2 paragrafi)
Quali sono le VDi selezionate e qual è il contesto di analisi prescelto?
Inoltre definire brevemente tutti i contributi primari a questo studi in termini generali, le DVi. (1-2
paragrafi)
27
Una frase sul campione di riferimento (es."377 studenti iscritti all’università nel 2017 che sono
lavoratori").
Come studiare queste VDi in questo contesto affronta in modo adeguato
il problema? (1 paragrafo)
Su quali teorie esistenti si fa affidamento, se presenti, per implementare
questo studio e perché sono appropriate? (1-2 paragrafi)
Discutere brevemente i contributi primari dello studio in termini generali
senza discutere i risultati specifici (es. non riportare p-value in questi
punto)
Com’è organizzato il resto dell’articolo/paper? (1 paragrafo)

Focus sul Metodo (brevemente indicare la metodologia, vi sono molti approcci e il seguente e solo
uno schema di massima), in cui va chiarito cosa è stato fatto nello studio, per poter dare la possibilità
di replicare anche l’esperimento ad altri.
I sottoparagrafi sono: soggetti, misurazioni, apparato sperimentale, procedure, analisi dei dati
• Operazionalizzazione del costrutto (da dove e come si sono ottenute le misure? Da questionari e
varie) Sviluppo dello strumento (se avete creato le vostre misure)
• Spiegazione del disegno dello studio (es., pretest-posttest, progetto pilota, sondaggio online etc.)
•Campionamento (alcune statistiche descrittive demografiche (genere, età, istruzione, status
economico, ecc.), dimensione del campione; discutere il tasso di risposta significativo (numero di
risposte in percentuale del numero di persone invitate a fare lo studio) e come sono state
selezionate le persone, se per diagnosi su un disturbo, il criterio (DSM 4 o 5 ecc)
Ricordare se è stato concesso il nulla osta dal Consiglio di revisione istituzionale (IRB) e se sono stati
seguiti i protocolli, se opportuno dal punto di vista etico ed ontologico. ),
Verifica delle procedure, come sono state manipolate le variabili indipendenti ecc
Metodo per la verifica delle ipotesi (es., modello di equazioni strutturali in AMOS, confronti tra
medie ecc)
Se avete condotto confronti multi-gruppo, mediazione e/o interazione, spiegate chiaramente come
li avete tenuti e come si sono svolte le analisi. Per esempio, se si è svolta una mediazione, quale
approccio avete adottato (bootstrapping, metodo più conservativo, con cui si possono rendere più
robusti dal punto di vista statistico i risultati )? Sono stati testati più modelli o avete mantenuto tutte
le variabili per tutte le analisi dei dati, come sono stati ripuliti (data-screening) specificando il livello
finale dell’analisi.
Se avete fatto delle interazioni, chiarire se sono state aggiunte dopo o se erano previste fin
dall'inizio?
Analisi dei dati (1-3 pagine; talvolta in combinazione con la sezione metodi)
• Pulizia dei dati (Data Screening)
• EFA (riportare la cosiddetta matrice pattern o dei profili e l'alfa di Cronbach in
appendice) - indicare se degli items sono stati eliminati.
• CFA (basta menzionare che è stata svolta e sollevare eventuali problemi che avete
trovato) - citare tutti gli elementi eliminati durante la CFA. Riferire il modello adatto
per il modello di misurazione finale. Se necessario, il materiale di supporto può
essere inserito nelle appendici.
• Menzionare l’approccio del Common Method Bias (CMB - inteso come lo
scostamento tra la relazione vera e quella osservata tra due costrutti dovuto
alla Common Method Variance) e i risultati ottenuti, e le azioni prese (es., se
abbiamo trovato CMB e abbiamo dovuto tenere il modello CLF).

28
Discussione (2-5 pagine) Riassumere brevemente lo studio, il suo intento e i risultati, concentrandosi
principalmente sulle domande di ricerca iniziale (un paragrafo breve) con i risulati attesi
Risultati (1-2 pagine) Riportare i risultati coefficienti ed indici ottenuti con l’elaborazione statistica)
e se supportano le ipotesi (supportata o meno, con prove).
Evidenziare eventuali ipotesi non supportate o controprove (significative in senso opposto).Fornire
una tabella che riassuma sinteticamente i risultati ottenuti.
Nella fase di discussione definire le intuizioni tratte dallo studio, come le informazioni ottenuto
cambiano il lavoro degli altri e come i risultati si collegano con la letteratura precedente e come la
ricerca futura viene rimodellata in base a questa ricerca.
Conclusioni (1-2 paragrafi) Riassumere le conoscenze acquisite
da questo studio e il modo in cui affrontano le lacune o i problemi
esistenti. Spiegare il contributo principale dello studio. Esprimere le
direzioni di ricerca futura e come questo lavoro influenzerà il mondo
reale (pratiche professionali e/o di ricerca).
Bibliografia/References (si prega di utilizzare un gestore di riferimenti bibliografici come Zotero o
EndNote)
Appendice (qualsiasi informazione aggiuntiva, come lo strumento completo e il modello di
misurazione, necessaria per convalidare o comprendere o chiarire il contenuto del testo del corpo
principale. NON imbottire le appendici con tabelle statistiche non necessarie e modelli statistici
illeggibili. Tutto ciò che è contenuto nell'appendice dovrebbe aggiungere valore al manoscritto.
Se non aggiunge valore, rimuoverlo.

AMBITI DI APPLICAZIONE DEI REATTIVI PSICOLOGICI

Gli obiettivi dei diversi ambiti possono cambiare la finalità e quindi i reattivi cambiano a seconda le
loro caratteristiche.(scolastico diverso come attendibilità e validità da clinico o forense). Possono
avere forme differenziate per intercettare anche altri tipi di variabili, più sociologiche, (come
ledership, devianza minorile), oppure psicobioloche (sudorazione delle mani o risposta galvanica
cutanea, in momento di forte stimolo emozionale), successo scolastico,
Diverse necessità di misurazione determinano anche diverse forme dei test,che possono essere
questionari, test di profitto, test che richiedono completamento di compito, puzzle , storie, disegni
utilizzare i lego ecc.
Le molteplici prestazioni di uno psicologo sono anche gli ambiti in cui utilizzare i test e come, in base
al proprio profilo dei professionisti. Il codice deontologico regolamenta anche il comportamento nei
confronti degli utenti e de i colleghi e della società. E’ responsabile dei rsulatati delle valutazioni che
ottiene. L’art 5 recita che deve aggiornarsi nel settore in cui opera, riconoscendo i limiti della propria
competenza , usando solo strumenti teorico pratici che conosce; impiega metodologie per i quali sa
indicare le fonti e i riferimenti scientifici e non suscita aspettative infondate nel cliente. Deve
conoscere le teorie di riferimento degli strumenti che usa e i possibili interventi.
Numerose sentenze di tribunale hanno definito come riservate agli psicologi le attività connesse
all’uso dei test.
Vedi dispensa 2 fino a pag 4
Differenza tra assessment e test psicologico.

La diagnosi clinica e la terapia


utilizzo in tre situazioni principali:
• l'identificazione del disturbo
29
• indicazioni su "fattori di rischio" e "fattori protettivi”
• valutazione della scientificità e fecondità dei trattamenti

L'ORIENTAMENTO E IL "COUNSELLING"

L'ORIENTAMENTO E IL "COUNSELING"
Nel counseling scolastico il professionista coinvolto aiuta gli studenti a divenire consapevoli delle
proprie problematiche e delle strategie e opportunità disponibile per raggiungere una soluzione
efficace.
Orientando come fulcro dell’intervento
CONTESTO SANITARIO E PSICOLOGIA DELLA SALUTE
In psicologia della salute i professionisti possono aiutare gli individui nel fronteggiare (cope) e
superare un’ampia selezione di problematiche in collaborazione o con l’istituzione ospedaliera o con
le comunità di supporto.

LA PREVENZIONE E LA SCREENING PSICOPATOLOGICO A


SOSTEGNO DEL BENESSERE
Benessere (well-being) sociale
Prevenzione e protezione delle specifiche fasce di popolazione a rischio
DIAGNOSTICA CLINICA FORENSE
• Le perizie forensi
• Prevenzione dei problemi e disagi personali
• Tutela dei diritti

NEUROPSICOLOGIA CLINICA
Diagnosi dei danni celebrali derivanti da incidenti, ischemia o demenza e per aiutare i soggetti che
soffrono di epilessia
PSICO LO GIA DEL LAVORO E SELEZIONE DEL PERSONALE
Assessment delle abilità, attitudini e personalità per la selezione, promozione, coaching, sviluppo e
formazione professionale e consulenza sulla progressione della carriera.

PSICOLOGIA DEL CONSUMATORE E MARKETING


Studio del comportamento del consumatore, attraverso test collettivi o questionari di tipo
psicosociale focalizzati, tra l’altro, sulle opinioni e le motivazioni dei consumatori.
PIANIFICAZIONE EDUCATIVO-DIDATTICA
Implementazione di metodologie il più possibile precise ed attendibili nel campo della valutazione
dei processi di apprendimento e delle abilità scolastiche.
Psicologo, educatore, pedagogista
Elementi in comune:
• Caratteristiche metodologiche per la costruzione degli strumenti
psicometrici
• Accertamento delle abilità scolastiche
Duplice ruolo dello psicologo:
• Fornire gli strumenti pratici che abilitano l’identificazione di
potenziali difficoltà di apprendimento e le migliori modalità di
recupero.
Gli strumenti di assessment disponibili ad oggi riguardano o il profitto in generale o
30
specifiche aree di difficoltà come ad esempio la comprensione, la velocità e
l’accuratezza della lettura, l’abilità mnemonica, ragionamento generale e abilità di
scrittura.
• Partecipare alla costruzione degli strumenti di valutazione di
caratteristiche psicologiche cognitive (capacità logiche,
mnestiche, percettive, di produzione creativa) e non
cognitive (controllo dell’ansia da esame, capacità di
pianificare lo svolgimento di un compito, processi di controllo
e autoregolazione).

video scorm 4

Cenni storici
Duplice consegna: indagine sperimentale a conferma delle ipotesi sulla natura quantitativa di una
proprietà,
La disciplina psicometrica intercetta ed è influenzata da diversi ambiti di studio tra i quali i
paradigmi fondamentali della psicologia, la psicofisica, la psicobiologia, la statistica e l’informatica

Si ricordano brevemente le definizioni di psicofisica e psicobiologia così come riportate da


Wikipedia, per sottolineare i diversi approcci di ricerca delle due discipline. La psicobiologia (il
termine deriva dal greco psyché (ψυχή) = "anima", bìos (βίος) = "vita" e logos (λόγος) = "scienza"),
chiamata anche psicologia biologica, è una branca delle neuroscienze che studia il comportamento,
ovvero l'insieme di tutte le attività manifeste dell'organismo così come tutti i processi mentali
(percezione, attenzione, memoria, apprendimento, emozioni), in relazione alle sue basi biologiche,
strutture e processi corporei appartenenti in particolar modo al sistema nervoso. Gli esperimenti
degli psicobiologi vengono effettuati sia su animali che su esseri umani sani o con lesioni a carico
del sistema nervoso. Soprattutto in quest'ultimo campo di indagine si sovrappone ad un'altra branca
delle neuroscienze, la neuropsicologia, che studia solo il sistema nervoso centrale, è molto più
influenzata dalla psicologia cognitiva ed opera ad un livello maggiormente macroscopico,
focalizzandosi su estese aree del cervello. La psicofisica è una branca della psicologia che studia le
relazioni che esistono tra stimoli fisici definiti e misurabili (luminosi, tattili, acustici, ecc.) e la
risposta, intesa come intensità percepita legata agli stimoli stessi.
La psicofisica, nata a metà del XIX secolo dal lavoro di Ernst Heinrich Weber e di Gustav Theodor
Fechner, che lavorarono sulle ricerche empiriche e le elaborazioni concettuali che condussero poi
alla formulazione della Legge di Weber-Fechner, prima legge scoperta nella storia della psicologia
sperimentale (1860), è stato un tentativo di emancipazione della psicologia dalla filosofia,
spingendola nell'alveo delle scienze sociali. Anche se nel corso del XX secolo la psicofisica ha
conosciuto un relativo ridimensionamento di importanza concettuale, all'interno della ricerca
percettologica è tuttora considerata come uno dei principali programmi di ricerca della psicologia
sperimentale. Queste due definizioni chiariscono il perché i nostri esempi faranno anche riferimento
ad esperimenti empirici non solo legati ai semplici test carta e penna, ma anche quelli legati alle
cavie animali e così via, e la definizione dell’Enciclopedia Treccani supporta queste indicazioni:
“Psicometria: l’insieme dei metodi d’indagine psicologica che tendono al raggiungimento di
valutazioni quantitative del comportamento umano o animale”.

Nessuno strumento, per quanto preciso e accurato è in grado di prendere in considerazione


l’universo delle possibili manifestazioni comportamentali e per questa ragione la metodologia di
31
valutazione predisposta deve considerare un campione dello spazio campionario dei
comportamenti che un soggetto può manifestare.(Anastasi:campione di comportamento) Sebbene
l’imparzialità della misurazione e l’avalutatività weberiana richiesta al ricercatore/psicologo (la
cosiddetta obiettività di un reattivo nello scoring) sia il primo requisito da soddisfare è anche vero
che storicamente molte unità di misura hanno avuto origine antropometrica (come il piede come
unità di misura della lunghezza) a partire dell’impatto con il mondo esterno avviene mediante i
sensi cui pervengono che il cervello raccoglie e coordina, seleziona ed organizza

Il primo problema da risolvere, non solo in psicologia, non è tanto quello della misurazione in sé
e per sé, ma quello della misurabilità delle unità di analisi, ed infatti in altre discipline sono
attualissimi e molteplici i contributi e le ricadute della psicologia sperimentale e cognitiva.
Allo stesso tempo, a seguito delle principali rivoluzioni scientifiche del XX secolo (Principio di
indeterminazione di Heisenberg, teoria della Relatività teoria del Caos), a conoscenza del mondo
avviene sempre mediante approssimazioni ma, ora, si è consapevoli che la natura di ogni
acquisizione è essa stessa aleatoria

Molteplici classificazioni:
• Beck:due ere diverse (classica e moderna);
• filoni di ricerca (scuole): la tradizione clinica francese, (Pinel, Esquirol, che distinse operata
tra malattia mentale e ritardo/deficit mentale, e la proposta di impiegare la capacità di
linguaggio del paziente come discriminante del grado di deficit mentale del soggetto ), quella
nomotetica tedesca, quella
ideografica britannica e in ultimo la tradizione empirica/applicata americana
ORIGINI:
Antica Grecia
• Cina Imperiale
I principali pionieri della disciplina psicometria sono G. T. Fechner, W. Wundt e F. Galton, figure
che attraverso la propria attività hanno generato la frattura col passato
Fechner deriva la legge della psicofisica a partire da una relazione scoperta nel 1834 dal fisiologo e
anatomista Ernst H. Weber. Psicofisica intesa come punto di incontro fra la psicologia quantitativa
e la fisica quantitativa, cioè come “an exact science of the fundamental relations of dependency
between body and mind”. Con la formulazione di questa legge egli apriva un capitolo di notevole
rilievo della scienza moderna, quello della psicofisica, che avrebbe dato luogo poi a un numero
rilevantissimo di applicazioni, dal campo industriale a quello medico ecc. Questa è una delle prime
applicazioni della scala logaritmica. La psicofisica si propone di determinare le modalità sensoriale
e vedere se la costante di Weber potesse individuare valori minime e massimi di intensità dello
stimolo, per essere percepiti. Queste determinazioni vennero chiamate valori-soglia, soglia
differenziale ed assoluta (oltre le quali non possono essere percepite). l'errore di Fechner fu quindi
il considerare che gli attributi psicologici siano quantitativi.

Wundt
due rilevanti elementi di frattura con il passato:
distacco dalla filosofia come ambito disciplinare, superando l’importanza della teoria kantiana
secondo cui è impossibile misurare le manifestazioni della mente allo stesso modo di un oggetto
fisico
concezione della psicofisica come base per un approccio “sistematico” alla sperimentazione, ovvero
la possibilità di descrivere il fenomeno psicologico studiando l’inferenza che il soggetto effettua circa
la natura di un oggetto e sulle relazioni tra oggetti attraverso le percezioni sensoriali.
32
Passaggio dall’approccio speculative-filosoficoa quello empirico basato sulla quantificazione
2. Enfasi posta sulla misurazione delle funzioni sensoriali
3. Sottovalutazione dell’importanza della standardizzazione delle procedure e delle condizioni
sperimentali
4. Concentrazione dell’attività di ricerca nell’ambito accademico

Galton
Sostiene lo sviluppo della psicometria legato all’interesse per l’eugenetica ed integra, nel suo
laboratorio fondato a Londra nel 1882, la tradizione clinica francese, lo spirito sperimentale tedesco
e l’attenzione anglosassone per la variabilità della popolazione.
1. Osservazione che la distribuzione dei dati di una larga parte delle misure fisiologiche e delle abilità
assume la forma classica campanulare detta “curva normale”
2. Ideazione del diagramma di dispersione come rappresentazione grafica dei dati
(nuvola di punti)

Spearman usò per primo una complessa tecnica matematica, l’analisi fattoriale, per
l’interpretazione di dati psicologici. Queste tecniche statistiche furono applicate al campo di
interesse specifico di Spearman, cioè l’intelligenza e la costruzione di strumenti di rilevazione per la
sua rilevazione (in particolare per gli studenti della scuola primaria), il quale divenne il
rappresentante più autorevole del filone teorico legato all’unidimensionalità o per meglio dire al
fattore unico generale (chiamato fattore g) che determina la prestazione in tutti i compiti
intellettuali.
Spearman era già consapevole della presenza di ulteriori dimensioni (definite anche
fattori s) valide per la risoluzione di compiti peculiari.

Thurstone sostenne un modello multidimensionale dell’intelligenza sottolineando l’importanza di


una serie di fattori multipli (sette abilità mentali primarie) e fece largo uso dell’analisi fattoriale
come tecnica fondamentale.
Il termine anglosassone scaling è traducibile in italiano sia per indicare lo strumento sia per indicare
il risultato della misurazione, quindi non corrisponde direttamente al termine “scala”. Le attitudini
così come intese da Thurstone sono l’insieme di propensioni (tendenze, sentimenti, pregiudizi e
nozioni) e convinzioni mentali (interni) di un individuo nei confronti di un tema specifico, quindi
l’opinione favorevole o contraria nei confronti di un argomento circoscritto.

Nella fase storica caratterizzata dalle due Guerre Mondiali e dall’intermezzo di pace relativa,
soprattutto gli studiosi afferenti all’approccio di psicologia applicata statunitense contribuirono in
massima parte alla costruzione e alla diffusione di test psicologici per la misura dell’intelligenza ma
anche di abilità ed attitudini specifiche.
La conseguenza psicometria dell’adozione dell`analisi fattoriale è costituita dalla
costruzione di «batterie attitudinali multiple» o «batterie multifattoriali». che permettono di
valutare la posizione di un soggetto in rapporto a diversi tratti o fattori. Questi strumenti hanno
permesso di fare delle diagnosi differenziali. cioè analisi strutturali di un individuo che gli psicologi
clinici cercavano di inferire dai normali test di intelligenza attraverso una comparazione interna fra
i vari sub-test con risultati incerti e, spesso, inattendibili. Le batterie multifattoriali sono apparse di
recente nel campo dei test; sono tutte posteriori alla fine della II guerra mondiale e si ispirano
fondamentalmente alla concezione teorica di Thurstone delle abilità mentali primarie.
Il dualismo teorico per cui in ambito britannico il concetto di intelligenza era considerato

33
monofattoriale (fattore g di Spearman) mentre nel contesto di ricerca americano era più apprezzata
la teoria multifattoriale si riflette evidentemente sulla predisposizione dei reattivi.
Tuttavia l’approccio dei test finalizzati alla distinzione e misurazione delle “abilità mentali primarie”
(metodo dei fattori multipli) deve considerarsi come complementare a quello dell’“intelligenza
globale” (il fattore g di Spearman in particolare)

Eysenk
ponendosi come obiettivo primario la valutazione della validità dei test
psicologici utilizzati nella psichiatria clinica negli anni ’40, che presentavano delle difficoltà
evidenti al tempo. Shafer riassume in modo non critico che se i risultati di un test psicologico
divergono dalla diagnosi effettuata dallo psicologo, ciò non significa necessariamente che il
test è incorretto.
Attraverso questi
strumenti di raccolta dati Eysenck era convinto della possibilità di eliminare l’influenza
dell’esaminatore sul comportamento in esame, e che l’analisi fattoriale assicurasse che
l’interpretazione dei questionari non fosse influenzata dal singolo psicologo che assegnasse in
modo distorto le risposte rispetto a profili a disposizione

Il progresso dell’informatica e la diffusione e semplificazione dell’utilizzo del


personal computer nella ricerca in tutti i settori disciplinari ha consentito anche alla
psicometria l’implementazione e disseminazione di metodologie statistico-matematiche, quali
l’analisi fattoriale e la regressione multipla, che meglio rispettano la complessità dei fenomeni
da misurare. Si deve sempre ricordare che nel caso singolo, la misura psicologica mantiene un valore
puramente indicativo, dato che potrebbero intervenire una serie di fattori distorsivi(ansia,
disinteresse per la prova, regressione sulla media, desiderabilità sociale ecc.)

MODULO 3

La scala di misurazione della variabile stile percettivo è nominale, dicotomica: vero, vi sono solo
due categorie od etichette

VIDEOSCORM N1
La validità interna del disegno della ricerca, ossia la capacità di uno studio di rilevare in modo reale,
statisticamente significativo il nesso causale tra variabile dipendente ( atcam, risultato all’interno
dello studio clinico) ed indipendente, (chiamato fattore all’interno del disegno sperimentale clinico,
o predittore,)
Quali sono le rappresentazioni specifiche delle relazioni tra variabili e come le relazioni tra loro
possono essere rappresentate, variabili empiriche o teoriche(latenti)-
La relazione tra le variabili può essere un metodo col quale si scompone la VaRIANZA di un
punteggio, secondo la teoria classica dei test o secondo altri metodi.
Oltre al problema della Misurazione, il ricercatore nell’ambito delle scienze sociali, (del
comportamento)c’è il problema della
CAUSALITA’ influenza la finalità con cui si predispone il disegno della ricerca
Il nostro primo pensiero è dimostrare quali sono le cause del disturbo, dal punto di vista clinico, di
psicologia delle organizzazione e del lavoro, i fattori di rischio che creano strss, burnout ecc.

34
Il concetto di causalità è intrinseco al pensiero scientifico ( la causa fisica (scienze naturali), e la causa
come possa essere intesa nel senso di cambiamento di una variabile ed effetto prodotto sul
cambiamento di un’altra variabile. (variabilità di un fenomeno)
La causa non è direttamente osservabile, ma questa concezione è stata messa in discussione dai
filosofi soprattutto nell’ultimo secolo, in cui si è sostenuto che la ricerca emprica può al massimo
constatare come avvenga una variazione simultanea di due fenomeni o una successione
temporale di accadimenti in tempi ristretti e come non si possa dimostrare l’esistenza di una
relazione causale. Questo è importante perché una legge causale non può essere provata
empiricamente, ma può essere saggiata su alcuni risultati ipotizzati
Se il metodo induttivo non ci permette di verificare un’ipotesi empiricamente, possiamo adottare il
metodo della falsificazione (se il sole oggi sorge, domani sorgerà?). quando si raccolgono prove a
supporto delle osservazioni a supporto dell’ipotesi, quella è una legge empirica, anche se questo
approccio è limitato, perché basta un solo caso in cui la regolarità non si verifichi e ci troviamo con
una teoria scientifica falsificata.
Se volessi dimostrare che ci sono ricadute del contesto familiare su un soggetto con comportamento
criminale (rischio maggiore con genitori in carcere), per metodo induttivo non si può escludere
qualcosa, perché basta una famiglia in cui non si verifica questa situazione, per mettere in crisi la
mia teoria dell’influenza sociale sul comportamento. Si fa invece una raccolta dati , testando l’ipotesi
che non vi sia influenza tra un contesto critico e una maggiore devianza degli appartenenti a quella
famiglia e se riesco a rigettare l’ipotesi nulla (non vi è una relazione) , posso accettare l’ipotesi
alternativa ed affermare che c’è una relazione tra contesto negativo, a rischio e comportamento
deviante corrispondente del soggetto.
Le tre rivoluzioni scientifiche riguardanti l a Teoria del caos, dell’indeterminatezza e della relatività
hanno messo in crisi la capacità delle Scienze naturali di far un ragionamento causale. Nelle Scienze
sociali,invece, in cui non è mai stato possibile osservare in modo oggettivo alcune relazioni ed
isolare la variabile indipendente, osservando poi quella dipendente, manipolandola, questa
problematica è stata più chiara.
Il metodo che segue la scienza è di formulare delle ipotesi e confrontare quanto i risultati previsti
dalla teoria siano in accordo con quelli osservati.

Schema generale del processo di ricerca scientifica


Riflessione teorica-ipotesi-raccolta dati-analisi dei dati-risultati

Necessità di comprendere la differenza tra


• Covariazione
• Causazione
L’una non implica l’altra
Anche se c’è una similarità in quanto riguardano la compresenza di due fenomeni, o la successione
breve di due elementi o eventi, in realtà sono molto diversi , perchè
La covariazione: (o covarianza, o correlazione, o Associazione) afferisce all’osservazione empirica:
quando semplicemente osserviamo che due variabili presentano variazioni concomitanti: al variare
di una corrisponde il variare anche dell’altra. (il nesso causale esiste solo nel mondo teorico, del non
osservato). La covarianza, la correlazione, l’associazione statistica sono indici che calcoliamo a
partire dai dati osservativi di almeno due variabili che presentano variazioni concomitanti. Le
modalità delle variabili sono diverse, ma osservate contemporaneamente o immediatamente.

35
Il soggetto è misurato, quindi, contemporaneamente o in modo immediatamente successivo sulla
sua auto-efficacia e sulla sua prestazione e si vorrebbe dimostrare che l’auto-efficacia causi la
prestazione. in realtà noi osserviamo contemporaneamente che a diversi livelli di auto-efficacia
corrispondono diversi livelli di prestazione (performance)
Questo costrutto dell’auto-efficacia causa il livello di performance

La causazione, per poter essere dimostrata, (e passare da covarazione e causazione), afferisce al


modello teorico implica due elementi ulteriori rispetto alla semplice covarianza:
La direzionalità (o asimmetria) dell’azione: la variabile indipendente (predittore), preceda la
variabile dipendente
Da un punto di vista cronologico, possiamo dire che le ore di studio causano il profitto dell’esame,
ma se prendo un voto alto, non significa che ho studiato di più, ma anche che le domande le sapevo.
L’antecedente , la variabile “causa”, sono le ore di studio e questo non cambia e non può essere
modificato. Nel caso della Covariazione, il coefficiente di correlazione è simmetrico , se c’è
correlazione tra ansia e depressione, se non sono in una situazione sperimentale, non so dire cosa
viene prima, sono due costrutti che variano insieme, ma non è chiara la correlazione. Sono ansioso
perché sono depresso o viceversa? Come posso dire quale è arrivata l’altra.
Poi c’è il legame diretto tra le due variabili, perché il variare dell’uno è dovuto solo al variare
dell’altro, questione che afferisce al disegno sperimentale, perché solo in esso io controllo tutte le
altre variabili, annullo l’effetto delle variabili confondenti e posso definire che vi è un legame diretto
tra l’una e l’altra e solo tra queste due.

Nella causazione esiste una causa e un effetto; il variare di una variabile precede il variare dell’altra
mentre nella covariazione esiste solo la concomitanza di variazione;
il legame diretto tra le due variabili, nel senso che il variare dell’una è dovuto (e non
solamente associato) al variare dell’altra.

La causalità non è direttamente osservabile: una penna cade sulla scrivania. Qual è la
causa?diremmo la forza di gravità, ma noi abbiamo visto contemporaneamente solo che lui ha
lasciato andare la penna che cade sulla scrivania. Non vediamo però la forza di gravità , (la
conosciamo a livello teorico) quindi la causa spesso non si vede. Questa difficoltà è ancora maggiore
rispetto alle scienze naturali, in quelle del comportamento.

Video scorm 2

Modelli di relazione tra variabili

Il modello è una rappresentazione grafica, efficace, visibile, sintetica rispetto alla realtà, in cui si
tengono in considerazione delle variabili.

I 5 modelli di relazione tra le variabili sono in grado di dare la possibilità al ricercatore di impostare
una ricerca che dia risultati validi nel nesso causale alla base della relazione tra variabili
Relazione causale diretta: la relazione causale è tale se in aggiunta alla covarianza, vi è una
asimmetria della relazione (un antecedente ed un conseguente) ed una esclusività della relazione,
cioè come questo effetto rilevato sia delle due variabili prese in considerazione. (variabili di tipo
osservato). E’ il tipo di relazione di maggior interesse da parte dell’osservatore . due variabili sono
causate da una relazione di tipo diretto quando un mutamento della variabile causa, produce un
36
corrispondente mutamento nella variabile effetto. In Questo modello logico o griglia concettuale
o modello causale, l’unico modello previsto è quello causale
Relazione causale reciproca: prevede la presenza di due variabili, più complessa da studiare, ma
dato che il soggetto non compie solo una operazione, ma la vita è un continuum, viene meno la
differenziazione tra variabile causa ed effetto, perché si influenzano reciprocamente. (relazione tra
domanda e prezzo)
Relazione causale spuria: relazione tra tre variabili, è l’incubo del ricercatore, perché si parte dal
presupposto che c’è una relazione tra due variabili, ma in realtà la covariazione di questi elementi è
spiegata da una terza variabile, che se non l’abbiamo prevista, affermeremmo che X determina Y.
Questo postulato potrebbe essere messo in crisi da un’altra ricerca in cui c’è una variabile Z, che
agisce contemporaneamente sulle altre due. (es dei pompieri e delle cicogne)
In una relazione causale spuria l'introduzione della terza variabile cancella la relazione tra le prime
due.

Relazione causale indiretta (mediata): Variabile mediatore (analisi correlazionale)–più studiata a


partire dagli anni 90, grazie ai pc, dei software dedicati alla statistica, in cui sono analizzati in modo
più pratica.
"In generale, si può dire che una determinata variabile funge da mediatore nella misura in cui incide
sulla relazione tra predittore e criterio. I mediatori spiegano come gli eventi fisici esterni assumono
un significato psicologico interno. Mentre le variabili del moderatore specificano quando alcuni
effetti possono verificarsi, i mediatori parlano di come o perché tali effetti si verificano". E’ un
problema concettuale e di strategie di ricerca.
Si ha questa relazione quando parte della variabilità condivisa tra X ed Y è dovuta a Z.
Il legame causale mediato da una terza variabile è meno grave di quella spuria, Z funge da ponte tra
X ed Y ed attraverso essa risultano collegate le altre due. Nel caso della relazione spuria il
collegamento tra X ed Y è puramente illusorio, mentre qui la relazione persiste, ma in maniera
diversa.(es tra razza ed intelligenza, che sparisce con la variabile istruzione). Si analizzano le relazioni
tra tutte e tre le variabili. Mediazione totale, parziale e che cacchio ne so. La variabile influenza la
forza delle reazioni nelle altre due.

Video scorm 3
Relazione causale condizionata (moderata): Variabile Moderatore – In termini generali, un
moderatore è una variabile qualitativa (es.sesso, razza, classe) o quantitativa (es. livello di
ricompensao l’età) che influenza la direzione e/o la forza della relazione tra una variabile
indipendente , antecedente(o predittore) e una variabile dipendente, conseguente o criterio (o
outcome).
La variabile moderatore è un elemento della relazione causale indiretta : falso
In particolare,(Baron e Kenny) all' interno di un quadro di analisi correlazionale, ossia in uno studio
osservazionale in cui non potremmo fare affermazioni di tipo causale, un moderatore è una terza
variabile che influenza la correlazione di ordine zero tra altre due altre variabili.(zero è relazione tra
due elementi : variabile indipendente o fattore quando influenza una variabile dipendente c’è una
relazione principale tra le due)
Nella terminologia più familiare agli psicologi dell'analisi della varianza (ANOVA), nasce per spiegare
un effetto della variabile moderatore di base può essere rappresentato come interazione tra una
variabile indipendente e un fattore che specifica le condizioni appropriate per il suo funzionamento.
La relazione tra le due variabile cambia a seconda del valore della terza (sono tutte e tre variabili
osservate).Ricerca sull’ascolto della radio, con assenza di relazione tra l’età dei soggetti e l’ascolto
della musica classica, che aldilà di ogni sospetto era ascoltata dai giovani. Con la terza variabile
37
emerse la relazione tra età e livello di istruzione degli ascoltatori. La spiegazione data dai ricercatori
è che le persone meno istruite di allontanano dalla fruizione di interessi culturali e col progredire
dell’età questo solco si approfondisce. Senza questa variabile Z (istruzione) non emerge la
covarianza tra le altre due. (età ed ascolto).
Se abbiamo una variabile dipendente che è il fattore di trattamento, poi un intervento di
psicoterapia individuale, di tipo comportamentale che porterà una media di soggetti al
miglioramento, poi un’altra modalità del fattore trattamento di psicoterapia di gruppo, che
porterà un’altra media di soggetti a miglioramento e poi un terzo trattamento, detto placebo:
queste tre medie di miglioramento , in base alla varianza, ci sarà una differenza significativa.

Mediazione e Moderazione: qual’è la differenza?

Mediazione: la relazione tra curiosità ed apprendimento è spiegata dal desiderio di scoperta (Z) e ci
dice come avviene questa relazione tra X e Y, che può scomparire o rimanere parzialmente presente.
Moderazione: ci dice il quando la relazione tra curiosità ed apprendimento avviene : quando il livello
di distrazione (Z) è basso, la curiosità determina l’apprendimento, quando è alto la relazione non è
presente.

La direzionalità della relazione causale


Non è per forza determinata dalle variabili in gioco. Ci sono poche variabili che sono indipendenti
, antecedenti (genere, sesso, età, nazionalità), per il resto gli psicologi in base al loro modello
logico ricoprono un ruolo di variabile ind. o dipendente.
Ecco perché la causalità avviene a livello teorico e non dipende dal tipo analisi statistica che si fa
o dal tipo di variabile che si prende in considerazione.

Training (formazione) --- self efficacy (auto-efficacia)----performance


Questi tre elementi danno luogo in questo modello logico ad una relazione causale, in cui
l’autoefficacia media tra le altre due. Modelli logici alternativi possono essere scambiando le
variabili.

Possibili configurazioni delle relazioni tra variabili empiriche e latenti

Ci sono ulteriori variabili in alcuni modelli rappresentate da cerchi o ellissi ossia quelle latenti, non
direttamente osservabili, che causano entrambe la altre due.
Oppure c’è un errore di misurazione (sempre col cerchio)

Video scorm 4

Le finalità (predizione) della ricerca scientifica: descrivere, predire, comprendere

I disegni di ricerca Possono essere sperimentali, quasi sperimentali e osservazionali.


L’ANS propone un’altra classificazione sulla base degli scopi e delle assunzioni scientifiche e sulla
combinazione di 4 opzioni procedurali:
Variabili indipendenti:
tra soggetti (between) ed entro i soggetti ( within) (Variabile dipendente: il modo di sottoporre i
gruppi al trattamento)
38
Numero e tipi di controllo sulle variabili estranee: una variabile ind, (un effetto principale) o due o
più variabili ind, (numero di effetti principali )

Il taglio diverso è dato dalle finalità della ricerca: descrivere, predire, comprendere e in base alla
misura della VD si definiscono due tipologie di disegno della ricerca:
1)dove la misurazione della variabile dipendente sia eseguita sia prima che dopo il trattamento (un
pre test ed un post test), avremo variabili che variano all’interno dei soggetti. Gli stessi soggetti
prima misurati sulla VD (ansia), vengono rimisurati sulla stessa VD e la variabile indipendente
trattamento agisce all’interno dello stesso soggetto, entro il soggetto o i gruppi e c’è un
cambiamento. (disegno sperimentale
2) dove invece abbiamo due gruppi diversi messi a confronto su modalità diverse della stessa VD, (il
trattamento individuale per i soggetti del gruppo sperimentale e il placebo per il gruppo di
controllo, ossia un esperimento casuale controllato) abbiamo soggetti e gruppi diversi e il disegno
è tra e entro i gruppi.
I modi di sottoporre ad un trattamento quindi sono:
Ogni gruppo sottoposto ad un solo livello della V.I., si ha un disegno sperimentale Beetwen (con un
solo effetto principale)
Ogni gruppo sottoposto a tutte le condizioni del trattamento: entro i gruppi (whitin design).

Abbiamo anche una suddivisione che deriva dal numero delle variabili indipendenti che si decide di
considerare:
se cè solo una, abbiamo un solo effetto principale,
se ne abbiamo due o più abbiamo disegni fattoriali, (diverso dall’analisi fattoriale) età ed ansia per
es., abbiamo due effetti principali che corrispondono alle V I, ed un numero di effetti di interazione
che corrisponde alle combinazioni delle V. I. Oltre ad analizzare per es, l’effetto dell’età sull’ansia, si
analizza l’effetto di età, per genere (maschi o femmine)

Semisperimentale
I disegni con un solo fattore tra i gruppi o intergruppi e quelli fattoriali non sono considerati
sperimentali, lo sono se si prevede al loro interso, a seconda del disegno scelto, il metodo casuale
nell’estrazione della selezione del campione, oppure quello casuale nell’assegnazione dei soggetti
alle condizioni, ai gruppi o nell’ordine delle prove. Se non cè il fattore della causalità randomizzato
che lega il disegno di ricerca alla teoria della probabilità, il disegno diviene quasi sperimentale,
ma continua ad avere la dizione tra o entro i gruppi.
Il controllo delle variabili estranee in questi casi viene eseguito mediante il pareggiamento o il
metodo dei blocchi.
I differenti piani sperimentali vengono presentati secondo un certo schema:
prima i disegni di una sola V. I,
poi con più (fattoriali)

Uno studio che si pone la finalità di descrivere (legata al disegno correlazionale o osservazionale)
mira a rilevare la presenza di un fenomeno e dei
suoi diversi aspetti e/o componenti o indagare l'associazione fra due o più costrutti/variabili.
• Uno studio che si pone la finalità di predire (legato al disegno quasi sperimentali) ipotizza un
legame di causa effetto fra le variabili.
• Uno studio che si pone come finalità spiegare ( ricerca per esperimento)e comprendere ipotizza
un legame di causa effetto
39
fra le variabili e, attraverso la manipolazione della/e variabile/i indipendente/i, produce la
misurazione della/e variabile/i dipendente/i.

1) Uno psicologo dello sviluppo vuole indagare se le abilità di comprensione numerica aumentano
in funzione dell’età del bambino. Per questo sottopone bambini di 3, 5 e 7 anni a test che misurano
la comprensione numerica dei bambini. (descrivere)
2. Uno psicologo vuole indagare la motivazione degli studenti a intraprendere lo studio della
psicologia . Per raggiungere tale obiettivo intervista 200 studenti delle facoltà di Psicologia di 4
università Italiane chiedendo loro di spiegare perché hanno scelto di iscriversi a Psicologia.
( predire, abbiamo un ordine gerarchico della possibilità di avere un adeguata validità interna)
3. Un ricercatore di psicologia sociale vuole verificare che il numero totale di componenti del gru
ppo influenzi l'adesione del singolo all'opinione della maggioranza. Per questo assegna
casualmente i 90 soggeF del campione a gruppi di numerosità diversa, composE da collaboratori del
ricercatore. 30 soggeF sono assegnaE a gruppi composE da 5 persone, 30 soggeF a gruppi composE
da 10 persone e 30 soggeF sono assegnaE a gruppi composE da 15 persone. Dopo una discussione
di gruppo, nella quale viene chiaramente espressa da parte dei collaboratori del ricercatore
un'opinione di maggioranza, si calcola quanE soggeF sperimentali aderiscono all'opinione espressa
dalla maggioranza. (spiegare).

Modelli regressivi e fattoriali

Il modello regressivo:
gli indicatori devono essere formativi (e quindi) non devono correlare tra di loro.
Il modello regressivo è composto da un insieme di metodi con la comune finalità di predire la
variabilità di una variabile dipendente usando le informazioni disponibili di una o più variabili
indipendenti (cioè variabili che predicono e che coincidono con gli indicatori formativi). A differenza
dei metodi di correlazione, come del resto tutte le consimili misure simmetriche di associazione tra
X ed Y che non consentono alcuna affermazione di causalità, i metodi di regressione, essendo misure
di dipendenza, permettono di verificare le ipotesi causali.
L'analisi di regressione rende possibile, quindi, la predizione di valori sconosciuti della variabile
dipendente (Y) mediante la conoscenza dei corrispondenti valori della variabile indipendente (X

Costrutti, indicatori, stimoli


Abbiamo definito gli indicatori come il nesso di congiunzione tra una variabile osservata (misurata
empiricamente) e il costrutto non osservabile (tratto latente etc.) indicato attraverso una regola di
corrispondenza
Per ciascuno degli indicatori individuati bisognerà poi costruire un certo numero di stimoli, la cui
connessione con l'indicatore andrà di nuovo valutata dagli esperti. L'ideazione degli stimoli non è
un compito banale, ed è affine a quel che si fa quando si progetta un esperimento e si deve definire
accuratamente la situazione sperimentale a cui verranno sottoposti i soggetti.

IL METODO

Permettetemi di iniziare caratterizzando la natura del metodo. Un metodo consiste in una serie
ordinata di procedure il cui impiego produrrà un tipo speciale di prodotto che chiamiamo dati. L'
organizzazione delle procedure è basato su regole identificabili, che possono essere esplicite o

40
implicite; in altre parole, un metodo è un insieme specificamente strutturato di operazioni. Esiste
una relazione necessaria tra la struttura delle procedure e la struttura di ciò che esse producono.
Tipicamente, una certa struttura metodologica produrrà dati che visualizzeranno una particolare
struttura e non sarà in grado di produrre dati diversamente strutturata

Metodi e disegni di ricerca valutativa e diagnostica: problemi e design


Le ricerche psicologiche tendono a risolvere:
• problemi teorici, per risolvere i quali si deve puntare ad aumentare le conoscenze teoriche
su un dato argomento, che in seguito possono dimostrarsi utili in molte applicazioni.
L’insieme delle indagini in quest’ambito danno luogo alla «ricerca di base», chiamata anche
fondamentale o pura.
• Problemi pratici, da cui origina la «ricerca applicata», che si occupa di questioni concrete,
che richiedono soluzioni pratiche.
Nel primo caso, come nel secondo, il processo di ricerca è identico.
Le fasi di questo percorso sono:
1. identificazione del problema di ricerca;
2. pianificazione del disegno sperimentale;
3. fase delle osservazioni;
4. fase dell'analisi dei dati;
5. fase dell'interpretazione dei dati;
6. fase della comunicazione dei risultati

Classificazione generale delle strategie di ricerca:


• i metodi descrittivi;
• gli esperimenti (o disegni sperimentali o veri esperimenti);
i quasi esperimenti.

Esperimenti
Metodi e disegni di ricerca valutativa e diagnostica: tipologia

Classificazione generale delle strategie di ricerca:


• i metodi descrittivi;
• gli esperimenti (o disegni sperimentali o veri esperimenti);
• i quasi esperimenti.

Maggiore è il controllo sulle condizioni e sui metodi osservativi, maggiore sarà la rigidità delle regole,
e sarà possibile garantire un’alta fedeltà della relazione tra le variabili oggetto di studio.
I metodi descrittivi di ricerca comprendono procedure e tecniche validi per l’identificazione e
descrizione di un fenomeno (comportamento/azione/attitudine/tratto etc.) o relazioni tra diverse
di questi.
Il fulcro èl’individuazione delle variabili che sono più utili per le analisi preliminari di un’indagine,
ovvero nel controllo e valutazione dell’evidenza delle soluzioni implementate.
Infatti, tramite modalità standardizzate si effettua un controllo sulle variabili che agiscono sui
costrutti psicologici per calcolare l'influenza che tali variabili esercitano su di essi.
I disegni sperimentali all’opposto sono indagini in cui vengono attivati efficacemente tutte le
possibili fonti di controllo, soprattutto per quello che riguarda l’estrazione e l'assegnazione casuale
dei soggetti e la manipolazione della variabile indipendente L’assenza di forme di controllo1 è la

41
caratteristica fondamentale che determina l’ultima categoria di metodi di ricerca, i quasi
esperimenti nei quali la variabile indipendente non è direttamente manipolabile.
Le ipotesi teoriche devono sempre essere espresse e considerate come verificabili e falsificabili,
poiché solo in tale maniera è possibile apportare un progresso reale nella conoscenza disciplinare,
ovvero giungere ad una maggiore conoscenza dell'oggetto di studio.
Il disegno della ricerca è principalmente costituito dall’esposizione delle teorie e delle ipotesi che
riguardano queste relazioni causali, per questo nelle indagini completamente descrittive un
disegno di ricerca vero e proprio è essenzialmente assente, mentre quest’ultimo per i veri
esperimenti (e anche quasi esperimenti) è sempre presente e necessario.
Mentre nella ricerca standard e nella ricerca interpretativa il successo della ricerca dipende dal fatto
che l’operazione di rilevazione dei dati non modifica la realtà sotto esame e tenga conto del maggior
numero possibile di aspetti di essa, all’opposto nella sperimentazione si cerca di controllare al
massimo l’effetto di tutti i fattori, operando in modo da escludere l’effetto dei fattori di disturbo e
mettere in evidenza l’effetto del fattore indipendente.

Metodo osservativo e disegni di ricerca descrittivi


Il metodo osservativo può essere definito come l'applicazione dell'insieme di tecniche e strumenti
all'osservazione pianificata e alla registrazione e all'analisi del comportamento animale o umano
che viene osservato in ambiente naturale. Un disegno di ricerca che preveda l'uso del metodo
osservativo rinuncia a priori al controllo sperimentale delle variabili in gioco, e appartiene quindi
alla categoria dei disegni non sperimentali.
Ciò non significa rinunciare al controllo scientifico delle variabili, ma solo che questo non viene
effettuato come negli esperimenti. In realtà sono molte le scienze, non solo la psicologia, che
confidano nell'osservazione condotta con metodi rigorosi in ambiente naturale: si pensi
all'astronomia! (Luccio, 2005)
le metodologie per individuare e rappresentare accuratamente le variabili di un comportamento o
di un fenomeno e delle loro eventuali relazioni sono:
• L'inchiesta (survey) formata da un insieme di quesiti sottoposti attraverso varie
modalità (carta e matita, CATI etc.) ad un campione che sia rappresentativo della
popolazione. Tale metodo di indagine risulta molto utile per l'analisi dei fenomeni
sociali (modi di vita, valori, opinioni) ed offre la possibilità di quantificare i dati. Le
caratteristiche fondamentali di una inchiesta sono: a) la realizzazione nello «stesso
momento»; b) l'utilizzazione di un insieme ordinato di domande; c) la possibilità di una
precisa classificazione delle risposte, in modo da permettere confronti quantitativi.
• L'osservazione naturalistica, o etologica afferisce all’ambito più esteso costituito
dell'osservazione diretta del comportamento, che è sempre stata un metodo fondamentale in
psicologia. È caratterizzato dalle proprietà di: non intrusività e assenza
di artificiosità. Psicologi celebri come Freud e Kraepelin si affidarono a questa
metodologia come base dello sviluppo delle proprie teorie e dei connessi sistemi
diagnostici e clinici. L’osservazione strumentale (e/o indiretta) divenne più diffusa ed
utilizzata in considerazione di una misurazione più oggettiva e fedele a discapito
dell’osservazione diretta, di cui prese lentamente il posto, contraddistinta
dall’abbondanza e dalla quantità delle informazioni a disposizione e della validità
esterna.

• La ricerca d’archivio riguarda l’ambito della psicologia che potremmo definire più
“teorico”, opposto in questo senso alla ricerca sul campo. Ci si occupa in questo caso al
42
massimo di dati ecologici di secondo livello, consistenti in osservazioni o misurazioni
già effettuate e disponibili (compresi gli archivi pubblici e gli opendata). I vantaggi di
un’indagine di questo tipo sono diverse, a partire da una riduzione dei costi e dei tempi
di attuazione delle ricerche (oppure per far fronte a difficoltà logistiche insuperabili).
Discutibile è invece la convinzione che con questo approccio si possa evitare l’effetto
distorsivo della desiderabilità sociale,5 poiché i dati sono già archiviati, ma il rischio è
sempre presente perché i dati possono non essere stati collezionati e registrati in modo
affidabile ed accurato e perché spesso non vi sono indicazioni dettagliate delle modalità
di raccolta e quindi. Dunque vi è sempre una bisogna confidare nel fatto che tali dati si
riferiscano a fonti attendibili. Si preferisce questo tipo di indagine anche e soprattutto
quando un esperimento sulle variabili che interessano non è fattibile per ragioni etiche
• Lo studio dei singoli casi (case report, resoconto di casi singoli) consiste essenzialmente
in veri e propri "esperimenti naturali", in cui si attua uno studio intensivo ed
essenzialmente qualitativo di un singolo soggetto (o più di uno nel caso delle serie di
casi clinici, case series reports) basato su una raccolta di evidenze aneddotiche
(principalmente mediante colloqui e test psicologici e valutazioni funzionali del
paziente) al fine di definire, a grandi linee, un intervento sul comportamento del
soggetto. Non vi è uno schema fisso (manca il disegno di ricerca inteso come definizione
delle ipotesi di ricerca, analisi standardizzata dei dati, ed impossibilità di
generalizzazione dei dati) e conseguentemente vengono meno gli elementi base della
sperimentazione: la misurazione delle variabili, le tecniche di controllo, la
generalizzabilità delle conclusioni. Il bassissimo livello di costrizione viene compensato
da un alto valore euristico, poiché l’eterogeneità dei dati e la profondità della
descrizione, facilitano l’elaborazione di nuove direttrici di ricerca o forniscono
indicazioni utili per ulteriori teorizzazioni. La criticità maggiore è collegata alla
preparazione metodologica del ricercatore da cui deriva la validità ed affidabilità della
ricerca, e l’opportunità di utilizzare i risultati per approfondire uno specifico aspetto
della teoria di riferimento oppure un elemento di novità la cui casistica sia molto limitata. D’altra
parte il chiaro vantaggio logistico è quello di poter limitare ad un
periodo relativamente breve il coinvolgimento nella ricerca di un esiguo numero di
soggetti (generalmente 1 o 2), pur mantenendo elevata la raccolta di dati.
Con il metodo osservativo, quando cioè le osservazioni sono soggettive e prevedono la
registrazione di informazioni destrutturate, o altri metodi obiettivi, il controllo si effettua mediante
l’impiego di parecchi osservatori e i dati rilevati possono essere comparati e valutati mediante un
coefficiente di accordo. Questa tecnica è conosciuta come inter-rater reliability, cioè dimostra la
concordanza tra valutatori per la stessa valutazione e ciò caratterizza l’affidabilità della misura, o
giudizio, realizzata

Esperimento: è lo strumento principe per il controllo delle ipotesi causali. Caratteristiche: 1.


Covariazione tra la variabile indipendente (causa) e quella dipendente (effetto). 2. Controllo della
direzione causale: 3. Il controllo delle cosiddette variabili terze
Tipi di esperimenti Esperimento, Quasi-esperimento sul campo, Quasi-esperimento naturale,
Quasi-esperimento

Esperimento di laboratorio
Esperimento sul campo
Esperimento naturale

43
Il quasi – esperimento sul campo Abbandoniamo il laboratorio e conduciamo l’esperimento sul
campo. Questa tecnica è utilizzata nell’ambito della ricerca valutativa
Manipoliamo la variabile indipendente (le cause, il trattamento) ma non esercitiamo un controllo
pieno sulle variabili terze (caratteristiche della popolazione su cui svolgiamo l’esperimento).
Il Quasi - esperimento naturale In questo caso non esercitiamo un controllo pieno sulle variabili
terze e viene meno anche la manipolazione della variabile indipendente.
La simulazione: Si osserva o si sottopone ad un trattamento una copia dell’oggetto disegnata da un
insieme di algoritmi eseguiti da un pc. • Esempio: – Proiezioni demografiche (→ esperimenti
collocati nel passato o nel futuro).
Osservazione naturalistica I soggetti vengono osservati nei loro luoghi di vita quotidiani. • È una
tecnica di osservazione non intrusiva – Formalizzata – Non formalizza
Disegno fattoriale Si applica nel caso in cui si vuole verificare l’effetto di trattamenti diversi sulla
variabile dipendente (perché le variabili indipendenti sono più di una o perché vi sono manipolazioni
diverse di una variabile indipendente).

Metodi sperimentali
La ricerca per esperimento o sperimentale è una predisposizione di condizioni e procedure che
consentono le osservazioni delle relazioni tra le circostanze controllate (variabili indipendenti) e i
risultati incontrollati (variabili dipendenti) con l’intento di effettuare inferenze circa i rapporti causali
tra le variabili
(dipendente e indipendente). (Cambridge Dictionary of Psychology (2009) In generale, un
esperimento scientifico si caratterizza per la manipolazione di una o più variabili (che sono dette
indipendenti) e per la misura degli effetti di tale manipolazione su altre variabili (che sono dette
dipendenti)

Obiettivo della ricerca per esperimento è l’individuazione di relazioni causali tra fattori, ossia
relazioni in cui si suppone che un fattore, supposto dipendente, sia propriamente causato da
(almeno) un altrofattore supposto indipendente.
Attraverso una ricerca per esperimento è possibile ad esempio determinare l’esistenza di una
relazione causale tra le variazioni del profitto in matematica (fattore dipendente) e le variazioni della
motivazione allo studio (fattore indipendente, isolato da un insieme di altri fattori), mediante un
piano di ricerca appositamente predisposto
Nella sperimentazione, l’introduzione controllata, la manipolazione da parte del ricercatore del
fattore indipendente viene chiamato lo stimolo o fattore sperimentale;
Proprio per le esigenze di controllo dei fattori, la sperimentazione viene in genere condotta in
ambiente controllato, che non coincide per forza con un ambiente artificiale: sperimentazioni
possono avvenire in classe, in comunità, in contesti naturali, a patto che siano passibili di controllo.
La sperimentazione in Psicologia avviene raramente in laboratorio, più spesso opera sul campo in
ambito clinico, nella scuola, nei centri di educazione e di formazione, per individuare linee di
miglioramento del servizio e verificare sul campo l’efficacia delle istanze teoriche, le quali
emergono dalla riflessione teoretica o dalla riflessione sui risultati di altre ricerche empiriche.

ESPERIMENTI DI LABORATORIO ED ESPERIMENTI SUL CAMPO


L’ESPERIMENTO IN LABORATORIO è condotto in una situazione artificiale. L’elemento che
caratterizza il laboratorio è il controllo, che si sostanzia in : - isolamento dell’ambiente sperimentale
(minimizzazione delle variabili e delle influenze esterne non desiderate); - flessibilità (il ricercatore

44
ha la possibilità di produrre e replicare situazioni che si differenziano anche solo per un piccolo
particolare).
il laboratorio permette di creare situazioni ed effettuare rilevazioni che non sono possibili nella vita
quotidiana. Si possono individuare tre tipi di situazioni di laboratorio (sulla base del compito
assegnato ai soggetti):
Studi in cui è richiesto il coinvolgimento dei soggetti studiati (impact studies). L’intervento del
ricercatore agisce sui soggetti stessi, indotti a tenere comportamenti diversi da quelli che terrebbero
nella realtà (es: Milgram sull’obbedienza all’autorità)
Studi in cui è richiesto il giudizio (judgement studies) (es.: Pheterson, Kiesler e Goldberg sul
pregiudizio nei confronti delle donne)
Studi in cui è richiesta l’osservazione sui soggetti sperimentali esposizione alla violenza in tv ed
effetti imitativi di natura aggressiva tra i bambini).

L’ESPERIMENTO SUL CAMPO si realizza invece in un contesto di vita reale (in comunità, in gruppo,
in classe). Esempi: a) studi di Sherif sulle dinamiche di gruppo e sulle modalità di sviluppo
dell’ingroup/«noi» e outgroup/«loro» (X obiettivi del gruppo, Y relazioni interpersonali); studi di
Rosenthal e Jacobson sulla profezia che si autoadempie (X aspettative, Y rendimento scolastico).

Esperimenti quasi esperimenti


Solo se si è in grado di controllare tutti i fattori in gioco e considerati rilevanti dall’ipotesi guida,
dunque dal fattore indipendente (lo stimolo sperimentale) ai fattori intervenienti (i fattori di
disturbo), si può parlare di schema sperimentale vero e proprio.
Laddove un controllo totale non sia possibile si può parlare di disegni di ricerca quasi
sperimentali.
Un disegno quasi sperimentale è uno schema di ricerca in cui il ricercatore non può controllare
l’introduzione dello stimolo sperimentale o i fattori di disturbo e deve limitarsi a studiare
comparativamente situazioni già predeterminate.
I quasi esperimenti hanno trattamento, osservazioni, post-test e gruppi sperimentali come i veri
esperimenti, ma non utilizzano la randomizzazione. I gruppi non sono equivalenti, cioè
differiscono anche per altre caratteristiche oltre che per il trattamento.
E’ un grave problema : non si può sapere se le eventuali differenze riscontrate sono dovute alla non
equivalenza iniziale o all’effetto dello stimolo. Per questo non si possono fare inferenze causali. Va
detto che, di fatto, nella ricerca sociale è spesso impossibile randomizzare i soggetti nei gruppi,
specie in tutte le situazione in cui sono precostituiti.
Un piano quasi sperimentale è quindi un piano dove non è possibile controllare pienamente né il
fattore sperimentale né i fattori di disturbo che possono incidere sul fattore dipendente. Il
ricercatore più che una sperimentazione opera una comparazione tra situazioni diverse .
L'analisi dei dati avviene attraverso tecniche statistiche per i dati strutturati, ad esempio i dati dei
test iniziali e finali, caricabili su una matrice dei dati. Particolare importanza assume nei piani
sperimentali la tecnica denominata analisi della varianza, che consente di rilevare se esistono
differenze significative tra i risultati ottenuti ad un test da parte di due o più gruppi di soggetti. I dati
dei resoconti di osservazione che accompagnano l'esperimento potranno essere elaborati mediante
tecniche qualitative di analisi dei dati.
I disegni quasi-sperimentali assomigliano ai veri esperimenti, infatti, ne possiedono gli aspetti
essenziali e cioè: un'ipotesi di tipo causale da verificare; la possibilità di qualche manipolazione
della VI cosa che consente dei confronti tra due o più condizioni sperimentali. Poiché non
controllano tutte le variabili di disturbo, le inferenze basate sui loro dati non sono molto
45
affidabili. Ciò accade perchè non è possibile manipolare a piacimento la VI (variabile
indipendente), non si possono scegliere in modo casuale dalla popolazione i soggetti che devono
formare il campione, e non si possono assegnare i soggetti ai gruppi in modo randomizzato.
Fanno parte dei disegni quasi-sperimentali i disegni che presentano un gruppo di controllo non
equivalente; i disegni a serie temporali interrotte e i disegni simulati prima e dopo.
I disegni con gruppo di controllo non equivalente costituiscono la soluzione migliore quando i
gruppi formano delle entità naturali, che devono essere mantenute intatte per studiarne le
caratteristiche. La mancanza di equivalenza dei gruppi viene in genere limitata componendo un
gruppo di controllo quanto più possibile simile a quello sperimentale. Si sottopongono infatti i
gruppi al pre-test per individuarne il grado di equivalenza.

Il metodo sperimentale applicato alla ricerca clinica


ha lo scopo di valutare se un particolare intervento terapeutico (trattamento) causa un
cambiamento in una o più variabili dipendenti (dette anche outcome clinici, esiti clinici, o
endpoints). I metodi sperimentali per la verifica dell'efficacia degli interventi terapeutici sono
applicabili a diversi trattamenti e a diversi esiti. Il trattamento potrebbe essere una terapia
psicodinamica, mentre gli outcome clinici potrebbero essere i sintomi di depressione; oppure il
trattamento potrebbe essere una riabilitazione del linguaggio e l' outcome clinico la fluenza verbale
del paziente.

All’interno dell’indagine sperimentale i ricercatori hanno sviluppato diversi metodi di analisi:


comportamentale, fenomenologico, clinico, simulativo, psicofisiologico, osservativo.
il metodo comportamentale: lo sperimentatore esercita un duplice livello di controllo: da un lato,
sui dati ambientali (versante dello stimolo, S), dall'altro, sui dati comportamentali (versante delle
risposte, R). L’esempio classico è rappresentato dalla prova in cui lo sperimentatore sia in grado di
decidere tra gli eventi ambientali quelli da considerare come variabili indipendenti, e quindi
manipolabili secondo le proprie ipotesi mantenendo costanti gli altri, e selezionare tra le risposte,
quelle da osservare tassativamente come variabili dipendenti.
il metodo fenomenologico utilizza sempre dei dati fenomenologici come variabile dipendente. Lo
sperimentatore deve innanzitutto definire il campo fenomenologico in cui il soggetto si trova,
determinarne le caratteristiche specifiche. Per campo fenomenologico si intende l'insieme delle
percezioni di ciò che il soggetto vede, o ode ecc.; non ciò che sa, o pensa di sapere, di come sia il
mondo reale al di là delle sue percezioni; ciò che gli appare, il fenomeno, non la pretesa cosa in sé
al di là di questo. Si tratta di un procedimento che richiede la determinazione dei parametri fisici
delle condizioni di stimolazione che si utilizzano.
Il metodo osservativo definisce le procedure, le tecniche e gli strumenti che permettono di
osservare, registrare, descrivere, trascrivere e codificare il comportamento umano o l’interazione
sociale che si realizza tra le persone sia in condizioni naturali (o naturalistica) sia standardizzate di
laboratorio (controllata). Il soggetto non valuta se stesso, ma viene valutato da un osservatore che
deve essere adeguatamente addestrato per evitare errori giudizio che renderebbero invalida la
misurazione. In questo ambito o studio di tipo longitudinale3 può fornire indizi più convincenti su
una possibile relazione causale. Tuttavia, si tratta sempre di prove indiziarie e non di prove
conclusive, poiché anche nel caso si riesca a stabilire una successione temporale tra la presunta
causa e il presunto effetto, non è possibile esser certi della causalità della relazione dato che non si
possono escludere, tramite il controllo sperimentale, tutte le
possibili interpretazioni alternative dei risultati ottenuti (per esempio, può esservi una correlazione
spuria - dovuta a una terza variabile - tra la presunta causa e il presunto effetto).

46
I PIANI SPERIMENTALI

I disegni sperimentali sono disegni di ricerca mediante i quali il ricercatore può ridurre o
eliminare il rischio di ipotesi alternative che minacciano la validità delle conclusioni della
propria indagine. Il disegno di ricerca sperimentale è uno strumento fondamentale poichè
rappresenta la struttura di base di tutta la ricerca e anche se non è in grado di incrementare tutti
i tipi di validità, garantisce la validità interna, e in misura minore quella esterna, che
rappresentano le due tipologie di validità più importanti per una ricerca.
Un disegno di ricerca dovrebbe consentire un'interpretazione non ambigua dei risultati, escludendo
a priori tutte le possibili interpretazioni alternative. Questo limite ideale però non è stato mai
raggiunto. Costruire un disegno sperimentale vuol dire mettere a punto un insieme di elementi e di
procedure che consentano di dire, con la più alta sicurezza, che gli effetti riscontrati nella variabile
dipendente sono causati dalla manipolazione di quella indipendente e non dall'influenza di variabili
incontrollate. Il disegno di ricerca costituisce l'ossatura stessa di un'indagine empirica e fonda
l'affidabilità dei risultati.
Nei disegni sperimentali, i disegni tra i gruppi comportano che i soggetti siano scelti in modo casuale
dalla popolazione e siano assegnati pure casualmente alle condizioni di trattamento; ogni soggetto
(o gruppo) deve essere sottoposto ad una sola condizione sperimentale, per cui si avrà una sola
prestazione e un solo punteggio per ogni soggetto, e il numero delle osservazioni corrisponderà
al numero dei soggetti. Di norma, l'assegnazione dei soggetti è legata alla restrizione che in ogni
condizione ci sia un uguale numero di soggetti. I piani entro i gruppi (o entro i soggetti) richiedono
che i soggetti siano sottoposti a tutte le condizioni sperimentali. In questi disegni ciò che viene
assegnato casualmente è l'ordine di esposizione alle prove. Se questo ordine non viene
randomizzato, alcuni effetti, come ad esempio storia e maturazione, possono essere responsabili
della variazione della variabile dipendente
La ricerca per esperimento viene condotta attraverso opportuni piani sperimentali, tra i quali i
principali sono: il piano sperimentale a due gruppi, il piano sperimentale a quattro gruppi, il piano
sperimentale a gruppo unico
Le caratteristiche tecniche ed organizzative dell’esperimento (la sua impostazione metodologica, le
procedure di realizzazione). I due elementi caratterizzanti del metodo sperimentale sono :
a) ASSEGNAZIONE DEI SOGGETTI AI GRUPPI Può avvenire attraverso la randomizzazione
(assegnazione casuale dei soggetti ai gruppi) che porta ad avere gruppi equivalenti. Quando
l’assegnazione casuale non è possibile un criterio alternativo è quello dell’accoppiamento
(formare coppie di soggetti identici su alcune caratteristiche rilevanti e assegnare un
componente al gruppo sperimentale e l’altro al gruppo di controllo). Questa procedura
garantisce l'equivalenza solo delle variabile controllate (non di tutte le variabili)
b) b) MANIPOLAZIONE VARIABILE INDIPENDENTE Nell’esperimento delle scienze sociali la
variazione tra i gruppi consiste generalmente nel fatto che ogni gruppo presenta un
differente stato/modalità di tale variabile (ad es. un gruppo viene sottoposto a certe
condizioni ed un altro no). La variazione può essere tra i gruppi (nello stesso tempo) o nel
tempo (nello stesso gruppo, ma correndo i rischi che la ripetizione del test influenzi le
risposte).
c) Si ricorda che per effettuare un esperimento è necessaria la manipolazione della variabile
indipendente. Se avviene anche la randomizzazione dei soggetti nei gruppi abbiamo un
esperimento. Se manca la randomizzazione abbiamo i quasi esperimenti

47
Sperimentazioni controllate randomizzate
vantaggi e gli svantaggi di due o più trattamenti attivi oppure le differenze nell’esito
di un intervento con quello rilevato in gruppi non trattati o sottoposti ad un trattamento placebo
vengono comparati nelle sperimentazioni controllate “randomizzate”.
Requisito fondamentale è l’aderenza del terapeuta alla tecnica della terapia in esame
(corrispondenza ai manuali)
Questioni critiche:
Difficoltà etico pratiche legate al trattamento placebo.
Costi elevati dell’implementazione
Limiti legati alla partecipazione dei soggetti alla sperimentazione
Piani sperimentali: modelli e rappresentazioni

Nei disegni sperimentali, i disegni tra i gruppi comportano che i soggetti siano scelti in modo
casuale dalla popolazione e siano assegnati pure casualmente alle condizioni di trattamento; ogni
soggetto (o gruppo) deve essere sottoposto ad una sola condizione sperimentale, per cui si avrà
una sola prestazione e un solo punteggio per ogni soggetto, e il numero delle osservazioni
corrisponderà al numero dei soggetti. Di norma, l'assegnazione dei soggetti è legata alla restrizione
che in ogni condizione ci sia un uguale numero di soggetti. I piani entro i gruppi (o entro i soggetti)
richiedono che i soggetti siano sottoposti a tutte le condizioni sperimentali. In questi disegni ciò che
viene assegnato casualmente è l'ordine di esposizione alle prove. Se questo ordine non viene
randomizzato, alcuni effetti, come ad esempio storia e maturazione, possono essere responsabili
della variazione della variabile dipendente. (Pedon, Gnisci p. 258)

Disegni fattoriali

i elementi cardine di un disegno fattoriale completamente randomizzato (o tra i soggetti) sono:


• due o più variabili indipendenti (VI) manipolate con due o più livelli per ciascuna di esse;
• quando ogni VI è completamente incrociata con ogni altra VI, cosa che comporta che ogni livello
di un fattore sia combinato con ogni livello dell'altro fattore;
• quando i soggetti sono assegnati in modo randomizzato ad ogni gruppo;
• quando ogni gruppo è sottoposto solamente ad una combinazione delle V. I.

I disegni a serie temporali interrotte


assomigliano a un disegno con un solo gruppo e due prove, ma, invece di una singola misura prima
del trattamento ed una dopo, richiedono diverse misurazioni della VD (osservazioni multiple), a
scadenze ben definite, sia prima della condizione sperimentale (di cui si conosce comunque la
cadenza) che dopo
Così, prima del trattamento e per un certo periodo di tempo, si effettuerà la prima serie di
misurazioni; poi si darà luogo alla fase della manipolazione, infine quando questa verrà interrotta,
si riprenderanno le misurazioni per un altro periodo di tempo. L'eventuale effetto del trattamento
viene evidenziato in una differenza tra la serie di osservazioni che precedono il trattamento e la
serie di osservazioni che lo seguono. Lo svantaggio maggiore del disegno a serie temporali interrotte
è costituito dall’impossibilità di tenere sotto controllo le minacce alla validità interna costituite da
storia, deterioramento dello strumento, mortalità e possibili influenze di natura ciclica; presenta
inoltre problemi relativi alla validità esterna. Questi piani sono sostanzialmente una variazione dei
disegni entro i soggetti, perchè ogni elemento del gruppo è sottoposto a tutte le condizioni di
trattamento.

48
Disegni simulati prima e dopo
Quando le ricerche sono condotte sul campo, non si può sempre assegnare casualmente i
soggetti ai differenti livelli di trattamento. In molte circostanze, però, è possibile esercitare un
sufficiente controllo sui momenti di registrazione delle prove preliminari e del post-test, come
pure sui campioni. Ad esempio, negli studi su grandi popolazioni, è possibile rilevare l'impatto
esercitato da un intervento qualunque sull'insieme della popolazione se si possono raccogliere
e misurare i dati della variabile che interessa sia prima che accada l'evento che modifica tale
variabile sia dopo.
Questo disegno viene denominato a campioni differenti
nel pre-test e nel post-test.
Questo disegno è utile quando il trattamento riguarda tutta la popolazione. Qualora il gruppo di
controllo non potesse essere sottoposto alla condizione sperimentale, il disegno più opportuno
è quello a campioni differenti nel pre-test e nel post-test, con o senza trattamento. Questo
disegno richiede che il gruppo sperimentale e quello di controllo siano a loro volta suddivisi in
due sottogrupp

Studi correlazionali

La ricerca correlazionale studia il grado di relazione tra duevariabili, non controllate (osservate in
ambiente naturalistico) o manipolate (rilevate in laboratorio), per effettuare previsioni suifenomeni
studiati.

MODULO 4

Video scorm 1

I disegni della ricerca


• I metodi classici di costruzione delle scale/test

Skinner si pose un problema all’inizio del suo lavoro, che si rifaceva alle teorie di Pavlov e Thondike
(sulla diversa concezione sul condizionamento
Condizionamento classico di Pavlov : il fattore principale è lo stimolo che precede la risposta, che è
elicitata per riflesso.
Condizionamento per prove ed errori di Thondike il fattore principale è la conseguenza dello
stimolo, ossia quello di rinforzo, (scappare dalla gabbia) che segue la risposta.
Skinner privilegiò questo secondo tipo di condizionamento, operante o strumentale, in cui un
soggetto o cavia risponde ad uno stimolo e il condizionamento avrà degli effetti che faranno
aumentare o diminuire la probabilità della ripetizione della stessa risposta.
Questa riflessione serve a stabilire il primo passo della disegna della ricerca.
Dato che il processo di ricerca teorica e di base è lo stesso, ci sono sei fasi (o 7, dipende dal
cambiamento nella gestione dell’analisi e della interpretazione dei dati, nella pianificazione o nella
diversa doppia struttura di pianificazione delle osservazioni nel disegno della ricerca.( vedi le sei fasi
sotto)

Metodi e disegni di ricerca valutativa e diagnostica: definizione


La scelta della teoria di riferimento plasma l’obiettivo dello studio.

49
In generale con disegno di ricerca si intende l'organizzazione temporale e spaziale di una ricerca al
fine di aumentare i controlli e la sua validità. (definire bene le risorse spazio-temporali, la logistica,
di una ricerca, aumenta la possibilità che un soggetto terzo possa valutarla. E’ fondamentale la sua
pubblicità e che possa essere controllabile. Dal suo controllo nasce la validità. (esempio di uno
studio sul DA con tre eliche)
Esso costituisce perciò la struttura di una ricerca, cioè la sua pianificazione e la progettazione, in
particolare per ciò che attiene alla somministrazione del trattamento e alla manipolazione della
variabile indipendente,(selezione dei disturbi di riferimento) nonché alla rilevazione dei suoi effetti
sulla variabile dipendente, le scale di misurazione con cui rilevarle, la scelta degli strumenti , le
modalità di campionamento, incluse l' organizzazione temporale, l'estrazione dalla popolazione, la
costituzione dei gruppi randomizzati o meno, e delle condizioni, al fine di esercitare il massimo
controllo ed escludere il più possibile l'intervento di altre possibili variabili di disturbo.
La selezione delle informazioni relative a caratteristiche e la descrizione particolareggiata avviene in
base
A modelli teorici e nosografici di riferimenti (DSM, ICD e del loro ruolo particolarmente rilevante allo
stato attuale per la disciplina psicometrica e la psicodiagnostica e in generale per interpretazione
dei risultati e ma ancor prima della validità ed affidabilità di uno strumento non è possibile se manca
questa
definizione dettagliata.

Miragliotta, Catalano, Cerniglia, (2009) sottolineano come la Psicologia, in quanto scienza, ha


sviluppato delle tecniche d'indagine al fine di indagare le caratteristiche psichiche
dell'individuo. L’obiettivo principale è il raggiungimento di una conoscenza di tipo oggettivo,
(condivisa e controllabile) ed in sostanza si può definire l'oggettività nella scienza semplicemente
associandola alla
possibilità di consentire che persone diverse (psicologi o ricercatori in genere), nelle stesse
circostanze, compiano osservazioni similari.
Si determina quindi la necessità di avere un disegno della ricerca condiviso e di operare su due livelli
distinti: il livello epistemologico, che consiste nelle assunzioni implicite, teoriche, di background di
riferimento del ricercatore e il livello metodologico che è un insieme di criteri e norme che regolano
la prassi scientifica (analisi dei dati, inserimento standard dei dati ecc)

In generale con disegno di ricerca si intende l'organizzazione temporale e spaziale


di una ricerca al fine di aumentare i controlli e la sua validità. Esso costituisce perciò la struttura di
una ricerca, cioè la sua pianificazione e la progettazione, in particolare per ciò che attiene alla
somministrazione del trattamento e alla manipolazione della variabile indipendente, nonché alla
rilevazione dei suoi effetti sulla variabile dipendente, incluse l' organizzazione temporale,
l'estrazione dalla popolazione, la costituzione dei gruppi e delle condizioni, al fine di esercitare il
massimo controllo ed escludere il più possibile l'intervento di altre possibili variabili di disturbo

Le ricerche psicologiche tendono a risolvere:


• problemi teorici, per risolvere i quali si deve puntare ad aumentare le conoscenze teoriche su un
dato argomento, che in seguito possono dimostrarsi utili in molte applicazioni, per es definire da un
punto di vista concettuale le dimensioni di un costrutto, come l’intelligenza, definirà la base su cui
problemi pratici potranno operare per creare metodi di misurazione per l’intelligenza per soggetti
con disturbi o valutazione delle performance dei soggetti in ambito di selezione del personale ecc.
L’insieme delle indagini in quest’ambito danno luogo alla «ricerca di base», chiamata anche
fondamentale o pura.
50
• Problemi pratici, da cui origina la «ricerca applicata», che si occupa di questioni concrete, che
richiedono soluzioni pratiche. (nella scuola, oppure nell’abuso di sostanze, molti manuali di
psicologia di gruppo sono adottati dalla psicoterapia individuale ed adattati al contesto dei gruppi,
cosa che crea problemi pratici, che possono essere risolti facendo affidamento ad alcune ricerche
teoriche sulla gestione del gruppo, sulla possibilità di mantenerne alta la coesione ecc)

La ricerca pura si chiama così perchè è indipendente da elementi di ambiguità: falso si chiama così
perchè si occupa di questioni teoriche

Le ricerche psicologiche quindi sono direzionate alla risoluzione di problemi teorici e pratici
Nel primo caso, come nel secondo, il processo di ricerca è identico.
Le fasi di questo percorso sono:
contesto della scoperta: percepita come più semplice, che pone meno problemi , che si svolge in
modo più veloce senza porre troppa attenzione e che si può svolgere in modo più veloce.
In realtà è l’elemento più difficile, perché è la fase più creativa, per individuare un problema di
ricerca che sia significativo e porti ad una novità effettiva (pensiamo ad una tesi sperimentale). Fase
progettuale e rapporto sulla progettualità della ricerca :

1. identificazione del problema di ricerca; (Skinner lo sceglie tra le indicazioni teoriche disponibili)
rilevante da un punto di vista teorico o sociale presenta quesiti specifici che guidano la ricerca
perché puntano a definire conoscenze che colmino una lacuna. Le domande di ricerca sono più
generali e focalizzano l’attenzione su alcuni aspetti. L’ipotesi di ricerca è la specificazione della
domanda: quando definisco meglio le modalità con cui verificare una ricerca , creo ipotesi, una
congettura sulle relazioni esistenti fra le variabili. In generale questa ipotesi di ricerca viene
espressa con una affermazione di tipo condizionale.
Se i soggetti subiscono una frustrazione, allora diventano aggressivi:
l’ipotesi che collega almeno due variabili, deve essere poi operazionalizzata e per es si trasforma in:
il soggetto frustrato metterà in atto comportamenti violenti, aggressivi nei confronti della
macchinetta distributrice che non ha dato né il prodotto richiesto, né le monete inserite.
Questa specificazione dovrà poi essere verificabile in modo empirico ed espressa in una formula
matematica (Y= f (X)
L’ipotesi di ricerca darà luogo nel test delle ipotesi, a due ipotesi statistiche: nulla (afferma che
l’effetto ipotizzato non esiste), quella alternativa (afferma che c’è una relazione tra V I e V D. Queste
due ipotesi si escludono reciprocamente.
Tra gli indici posso stabilire solo una relazione tra variabili , il nesso causale è dato dal disegno
sperimentale che presuppone una manipolazione precedente in modo casuale sui soggetti e la
simmetria della V. I rispetto a quella della V. D
2. pianificazione del disegno sperimentale: serie di scelte che conducono alla selezione
dell’oggetto, delle condizioni, agli strumenti di misura più affidabili, ai metodi più appropriati per
codificare i dati.
In questa fase, dato che alla scelta degli strumenti e delle modalità di skilling corrispondono anche
i test statistici per le analisi, verranno individuati anche questi test . Inoltre vengono prese anche
decisioni sui soggetti da sottoporre alle prove ed analizzati problemi etici legati all’attuazione
dell’esperimento e viene anche sottoposto a comitato etico. Le due fasi iniziali della pianificazione
del disegno comportano procedimenti complessi , sistematici, ma anche dinamici legate alle
capacità del ricercatore, sono il contesto della scoperta, per differenziarlo da quello della
giustificazione, (le altre 4) due macro aree su cui possiamo suddividere il nostro disegno della
ricerca.
51
Contesto della giustificazione: parte della raccolta dati, che è più lunga e ci sono problemi legati
alla partecipazione dei soggetti, ma le procedure sono molto più standardizzate di quella della
scoperta, con questionari, interviste tecniche statistiche conosciute, si interpretano dati a
disposizione per confermare o meno le ipotesi.
3. fase delle osservazioni;
4. fase dell'analisi dei dati;
5. fase dell'interpretazione dei dati;
6. fase della comunicazione dei risultati.

Lo studio di caso

I Disegni di ricerca su caso singolo sono utilizzati in molte aree di ricerca come la psichiatria, la
psicologia clinica, la riabilitazione, il counseling, ecc. Il termine Disegni per lo studio del caso singolo
evidenzia la caratteristica unica di questo tipo di disegni, che è la loro “capacità di condurre una
ricerca sperimentale con soggetti individuali” (Kazdin, 1996, p. 198)
Lo studio del caso singolo è un caso particolare di ricerca longitudinale di uno studio
intensivo e prolungato nel tempo di un singolo caso.
Normalmente l'aspetto peculiare delle sperimentazioni applicate è la verifica degli effetti che
derivano sul comportamento di uno o più individui in seguito all'introduzione di una variabile
indipendente (ad esempio un trattamento psicoterapico o educativo).
Questa metodologia richiede misure ripetute della variabile dipendente.

Obbiettivi della metodologia:


q Descrizione
q Prova di disconferma
q Formulazione di ipotesi

Gli studi di caso tendono ad essere osservazioni non controllate di soggetti nel contesto terapeutico.
Per questo motivo può essere più soggetto a diverse minacce alla validità.
Scopo: analizzare Può essere inteso come un caso particolare del disegno longitudinale. Lo scopo di
questi studi è analizzare i cambiamenti nel tempo di un gruppo di individui (studio di panel) su
unacaratteristica

l Debriefing
avviene dopo il completamento di uno studio e include una spiegazione delle finalità della ricerca
che viene data ai partecipanti dopo la loro partecipazione. Il ricercatore ha l'opportunità di occuparsi
delle questioni relative al rifiuto di informazioni, all'inganno e ai potenziali effetti nocivi della
partecipazione. Il debriefing è un modo in cui i ricercatori possono seguire le linee guida del Codice
Etico APA, in particolare i Principi B (Fedeltà e responsabilità), C (Integrità) ed E
(Rispetto dei diritti e della dignità delle persone).
Se i partecipanti sono stati ingannati in qualche modo, il ricercatore deve spiegare
perché l'inganno è stato necessario. Se la ricerca ha alterato in qualche modo lo stato
fisico o psicologico di un partecipante, ad esempio ha creato uno stato ansioso per gli
individui, il ricercatore deve assicurarsi che i soggetti si siano calmati e che l’aver
partecipato non l'abbia scosso in modo rilevante. Laddove vi fosse la richiesta di
approfondimenti o di ottenere ulteriori informazioni, lo psicologo o il ricercatore
dovrebbe garantire la propria disponibilità. Tutti i soggetti che accettano di prendere
52
parte in uno studio dovrebbero completare l'esperimento e/o le altre attività
dell'indagine al meno senza alcuna inquietudine/indisposizione verso la psicologia, e
tutt'al più con una nuova possono anche partire con una nuova percezione del
proprio comportamento o della propria personalità
l momento del debriefing offre allo studioso l'opportunità di illustrare le finalità reali
della ricerca, di comunicare quali siano i tipi di risultati ci si aspettano e quindi discutere
le implicazioni pratiche dei risultati. In alcuni casi, i ricercatori possono contattare i
partecipanti in un secondo tempo per informarli dei risultati effettivi dello studio. In
questo modo il debriefing assume uno scopo sia educativo sia etico.
Più in generale, la ricerca sull'efficacia del debriefing indica che è un modo efficace di
affrontare l'inganno e altre questioni etiche che emergono nelle indagini di ricerca (Oczak,
2007; Smith, 1983; Smith & Richardson, 1983). Vi sono evidenze scientifiche del fatto
che, almeno in alcune circostanze, il resoconto deve essere completo per essere efficace.
In uno studio sul debriefing condotto da McFarland, Cheam e Buehler (2007), i
partecipanti hanno ricevuto un falso feedback sulla loro capacità di giudicare con
precisione se le note suicide fossero autentiche; dopo aver espresso un giudizio, è stato
loro detto che erano riusciti o non avevano superato il compito. I ricercatori hanno poi
dato diversi tipi di debriefing. Un debriefing minimo ha solo indicato che il feedback
ricevuto non si basava affatto sulle loro prestazioni. Un resoconto più approfondito
comprendeva anche informazioni secondo cui le note suicide non erano reali. I
partecipanti con le informazioni aggiuntive hanno avuto una valutazione più accurata
delle loro capacità rispetto ai soggetti che hanno ricevuto la procedura di debriefing
minima

Ricadute di una ricerca

I risultati di uno studio, le cosiddette scoperte, devono essere ricondotte


alle domande di ricerca individuate inizialmente dallo studioso che
progetta l’indagine. È evidente che devono essere messe in evidenza
anche le limitazioni delle conclusioni cui si è giunti.
Le conclusioni devono inoltre prendere in considerazioni le
implicazioni
Per la
Teoria/Metodologia
Per la
Ricerca/Tecnica
Per
l'Intervento/prassi Per la Policy

Digressione sui Metametodi: alcuni esempi

Per metodo comportamentale, intendiamo allora un metodo tale per


cui lo sperimentatore esercita un duplice livello di controllo: da un
lato, sui dati ambientali (versante dello stimolo, S), dall'altro, sui dati
comportamentali (versante delle risposte, R).
q Il metodo fenomenologico è utilizzato largamente dalla psicologia
della Gestalt della psicologia della percezione e della psicologia del
53
pensiero. Distinzione tra:
• stimoli distali: hanno origine negli oggetti che circondano il
soggetto (ad es. le onde sonore provenienti da una certa
sorgente di suono)
• stimoli prossimali: hanno origine negli organi di senso, come
risposta allo stimolo distale.
Due invarianti, il mondo e l'organismo come sistema fisico,
garantiscono che il metodo eserciti il dovuto controllo.
Digressione sui Metametodi (riflessioni sul metodo):
q Per Metodo osservativo si intende l'applicazione dell'insieme di tecniche e
strumenti all'osservazione pianificata e alla registrazione e all'analisi del
comportamento animale o umano che viene osservato in ambiente naturale. Un
disegno di ricerca che preveda l'uso del metodo osservativo rinuncia a priori al
controllo sperimentale delle variabili in gioco.
q Il metodo delle variabili latenti per cui le variabili indipendenti non sono
direttamente osservabili, e il soggetto si trova invece di fronte a una molteplicità
di variabili, i cui valori sono determinati da queste variabili appunto latenti. Lo
status teorico è ormai generalmente considerato valido e non più messo in
discussione. Si dibatte invece delle variabili:
Ø endogene, che sono proprie del dominio teorico della ricerca e sono
influenzate dalle variabili esogene
Ø Esogene, le variabili latenti che appartengono ad altri domini teorici: la
sociologia, l’economia, la scienza delle religioni.

Scale LIKERT

La distribuzione delle risposte agli stimoli


Modello deterministico, risposta dicotomica
Likert rivolge la sua attenzione ai soggetti: sono questi ad essere scalati sul
continuo, seguendo il criterio della quantità di proprietà che ciascuno di essi
mostra di possedere. Il problema prioritario è dunque di pervenire alla
"misurazione" di tale ammontare. Il punto di partenza – uguale del resto per
tutte le tecniche di scaling - è costituito dalla selezione degli item che
dovranno formare la scala. Attraverso la letteratura e le ricerche empiriche
del settore di interesse, si individua un insieme di affermazioni che, almeno
in prima approssimazione, possa semanticamente rappresentare il concetto
oggetto di investigazione. Per valutare poi l'unidimensionalità di questo
primo gruppo di item - cioè, la loro appartenenza a una comune
dimensione sottostante - Likert propone due tipi di item analysis, l'analisi
delle correlazioni e una strategia fondata sulla ricerca della coerenza interna
di una batteria di item.

La legge del giudizio per confronto

Il modo impiegato da Thurstone per superare questo problema (quale?) consiste nel
seguire una regola, la c. d. legge del giudizio per confronto (law of comparative
54
judgment), che si fonda su un costrutto ipotetico, il processo discriminale;
questo rappresenta l'impressione che riceve un individuo di fronte a uno
stimolo, la sua reazione quando gli viene chiesto di esprimere un giudizio su
quello stimolo rispetto a una certa proprietà attraverso una domanda del tipo:
in che misura lo stimolo possiede l'attributo a cui lo riferiamo? Immaginiamo di
voler valut2.re una serie di occupazioni (stimoli) in termini di prestigio:
l'impressione che riceve il soggetto, rispetto al prestigio, per ciascuna
occupazione costituisce un processo discriminale. Se un dato stimolo viene
presentato più volte allo stesso soggetto, si può ragionevolmente pensare che
esso non attivi sempre lo stesso processo discriminale; analogamente, se lo
stimolo viene presentato a un gruppo di individui, non è detto che solleciti la
stessa reazione in ciascuno di essi. Il processo discriminale (la reazione) che si
presenta con maggiore frequenza viene chiamato processo discriminale
modale; esso costituisce il valore scalare dello stimolo, il punto che individua sul
continuo la sua posizione.
Scaling centrato sugli stimoli:
esempio del metodo dei confronti a coppie (Thurstone)
l caso specifico in cui si hanno
sufficienti elementi per determinare
le distanze fra tutti i processi
discriminali, e quindi i valori di scala
per ogni intensità di stimolo richiede
due assunzioni:
la prima è che i due processi
discriminali non siano correlati, con
rab = 0;
la seconda è che le due distribuzioni
siano di uguale varianza

Nel metodo degli intervalli successivi, come lascia intendere la denominazione


stessa, il continuo che rappresenta la proprietà viene diviso in intervalli,
ciascuno dei quali è limitato da un confine inferiore e uno superiore; su tali
segmenti si collocano gli item sulla base delle valutazioni dei giudici. A
differenza di quanto avviene con il metodo degli intervalli giudicati uguali, nel
metodo appena esaminato gli intervalli tra le categorie non sono supposti
uguali; a.1zi, come sottolineato nella sezione precedente, essi possono variare
nella loro ampiezza lungo tutto l'asse della proprietà, evitando così che si
produca il c.d. end-effect, consistente in anomale contrazioni degli intervalli
situati ai due estremi del continuo.A questo indubbio vantaggio si
contrappongono tuttavia alcuni punti critici, che ridimensionano la portata
sostanzialmente innovativa del metodo degli intervalli successivi. In primo
luogo, nella procedura si richiede che i giudici, nel valutare gli item, tengano
separato tale giudizio dalla loro personale opinione. La perplessità, in questo
caso, nasce dalla difficoltà che si possa realizzare, specie per quei soggettigiudici che occupano
posizioni estreme sul continuo, un'effettiva separazione
tra opinione personale e valutazione degli item.

Assunti principali della ricerca tramite questionario/test


55
I dati che si raccolgono con il questionario e che vengono
successivamente inseriti in una matrice dati in cui ogni riga rappresenta
un caso ed ogni colonna una variabile sono fedeli.
Assunti principali della ricerca tramite questionario/test
b) Le risposte date alle medesime domande da due diversi intervistati
sono fra loro confrontabili. Ad esempio, si assume che se alla domanda:
«Indica usando una scala da 0 (non mi piace per nulla) a 10 (mi piace
completamente) quanto ti piace Forza Italia...» l'intervistato C e
l'intervistato D rispondono entrambi 3, il loro gradimento per il partito di
Berlusconi sia effettivamente lo stesso.
Seguendo la terminologia di Delroy Paulhus (1991), è
possibile definire response bias la tendenza a violare
quasi sistematicamente le condizioni precedenti

RESPONSE BIAS
Nonostante la proliferazione delle loro definizioni, è possibile sostenere in prima
approssimazione che i principali response bias sono classificabili in due sole categorie
La prima è rappresentata dalle tendenze content-sensitive, che si
fondano sulla comprensione degli item ai quali si ha la consegna cli
rispondere e su un mascheramento (più o meno consapevole) dei
propri stati ·veri. Il loro principale rappresentante è la desiderabilità
sociale.
La seconda categoria di response bias è costituita dalle tendenze
content-free, che si innescano prescindendo dalla semantica degli item
cui si risponde. È la famiglia dei response set, composta da una serie
di propensioni degli intervistati ad usare in modo idiosincratico le
scale loro sottoposte, selezionando delle alternative di risposta in un
considerevole numero di occasioni indipendentemente dal contenuto
delle domande cui rispondono.

MODULO 5, MISTO TRA DISPENSA E SCORM

Validita’
Pedon e Gnisci (2004) hanno proposto un approccio ben strutturato che può agevolare la
comprensione di un concetto complesso e multisfaccettato come quello della validità: che
distingue diversi aspetti: la validità di contenuto, l'attendibilità, la validità di criterio (concorrente
e predittiva) e la validità di costrutto (esterna e interna).

LA VALIDITÀ PER LA RICERCA


Lo svolgimento delle attività di ricerca sperimentale ha la necessità di avere dei riferimenti, sia di
carattere progettuale e organizzativo come il piano di ricerca sia le procedure di controllo in modo
da poter dare dimostrazione di validità per tutte le attività condotte per la ricerca stessa.
La validità della ricerca è intesa come interna ed esterna di una indagine
Riguarda, secondo la definizione terminologica di validità di Dunham (1998), la solidità e
all'attendibilità di una ricerca. Questo significa postulare l'esistenza di una corrispondenza tra il
56
“mondo reale” e le conclusioni dell'indagine, e affermare con una certa sicurezza la robustezza, la
correttezza e la veridicità (per quanto probabilisticamente consentito) delle conclusioni raggiunte
mediante un’indagine empirica. (Kline), della ricerca stessa e delle sue parti e attività, e quindi alla
effettiva corrispondenza tra mondo reale, trasposizione concettuale e conclusioni derivate dalle
attività d’indagine e di analisi compiute.
Poiché la conoscenza e il controllo delle/sulle condizioni di un esperimento, soprattutto nelle
situazioni di quasi sperimentazione, sono sempre ridotte, è indispensabile accentuare gli aspetti del
verifica di tutti gli elementi che, nell’ambito della ricerca, possono pregiudicare sia le singole attività
sia la logica della ricerca stessa.
Per questa ragione è stata assegnata molta importanza alla problematica della validità
distinguendone, per i vari livelli e fasi della ricerca, le forme, lo scopo e i procedimenti per
assicurarne il raggiungimento

Nei livelli e nelle fasi della ricerca gli elementi importanti sono i seguenti:
Pedon e Gnisci (2004) mettono in evidenza i cinque aspetti generalmente connessi alla validità:
--l'esistenza o meno di una relazione causale tra variabile indipendente e quella dipendente nelle
condizioni e sui soggetti realmente studiati.
--verificare se la relazione riscontrata tra le suddette variabili in una particolare ricerca vale anche
per persone diverse da quelle esaminate, per altre situazioni, altri luoghi e altri tempi.
-- assicurare che la ricerca effettivamente misuri quello che il ricercatore si è proposto di misurare
--il quarto aspetto della validità controlla se i risultati della ricerca sono dovuti alla manipolazione
della variabile indipendente oppure a variazioni casuali.
il quinto riguarda la possibilità o meno di generalizzare i risultati ottenuti in laboratorio alla vita
vissuta in un ambiente naturale.

Alle forme della validità sono stati associati nomi diversi, anche in funzione degli scopi da soddisfare,
considerando comunque che le stesse non sono indipendenti le une dalle altre; la suddivisione
operata è stata realizzata per rendere evidente che gli aspetti della validità sono compresenti in
tutte le categorie e aree
In particolare, gli scopi possono essere ricondotti a due grandi aree: complesso della ricerca e
complesso delle misure.
Considerando questo raggruppamento si hanno le seguenti forme di validità:

area del progetto di ricerca (o della indagine):


-validità interna
- validità esterna
- validità di costrutto
- validità statistica
- validità ecologica
area della misurazione (o dello strumento)
- validità di contenuto
- validità di criterio
- validità concorrente
- validità convergente

LA VALIDITÀ DEL PROGETTO DI RICERCA

VALIDITÀ ESTERNA
57
L’obiettivo è quello di accertare che la relazione riscontrata fra le variabili in una data ricerca risulti
generalizzabile, ovvero inferire le conclusioni anche a situazioni, popolazioni, ambienti e tempi
diversi (ma con caratteristiche simili) da quelli in cui è stata condotta la ricerca. In pratica la
componente esterna della validità relativa ad un esperimento consiste nel poter generalizzare le
conclusioni per gli individui e per contesti differenti da quelli che sono stati considerati nella
ricerca condotta.
Del resto, lo scopo della ricerca sperimentale è quella di giungere a risultati e conoscenze
generalizzabili.
Il modo più semplice per ottenere la validità esterna è di ripetere la ricerca stessa, cambiando una
o più variabili riguardanti o i soggetti e/o l'esperimento.
In questo modo si può ottenere una attendibilità (reliability) della ricerca; richiedendo un notevole
sforzo, risorse e tempi questo metodo è poco praticato.
Un altro metodo per ottenere la validità esterna consiste nel scegliere la giusta popolazione di
riferimento e la numerosità campionaria adeguata a rappresentare la popolazione da cui i soggetti
sono tratti (ampiezza del campione). Infatti, l’ampiezza del campione è in diretta relazione con la
probabilità che esso rappresenti l'intera popolazione, di conseguenza più grande è il campione
maggiore sarà la sua rappresentatività.

Le minacce alla validità esterna


Le minacce alla validità esterna possono derivare in particolare dai limiti della validità di
popolazione, e del campione, e temporale.
La prima riguarda essenzialmente la difficoltà di reperire i soggetti che rientrano nella popolazione
della ricerca; in questo caso occorre stabilire sempre in modo preciso la popolazione di riferimento
e le modalità di accesso ai suoi individui per la realizzazione del campione. Per situazioni specifiche,
si fa riferimento ai criteri e alle tecniche di campionamento statistico.
Per la validità temporale, invece, le minacce possono derivare dalle variazioni stagionali, da quelle
cicliche e da quelle della persona o dell’individuo. Ad esempio, gli studenti e i docenti durante il
periodo estivo ( variazione stagionale ) non sono presenti a scuola e quindi una campagna
pubblicitaria durante la stagione estiva nelle scuole contro il bullismo sarebbe vanificata.

Situazioni che possono minacciare la validità esterna:


1. La struttura del disegno sperimentale può limitare la validità esterna quando, ad esempio, si
utilizza il pre-test che, oltre a limitare la validità interna, può ridurre anche quella esterna,
producendo nel soggetto sperimentale una certa maturazione per cui il soggetto affronterà il post-
test in modo diverso da chi non è stato sottoposto al pre-test.
2. La tendenza dei soggetti sperimentali a rispondere in modo compiacente in assenza di qualsiasi
intervento dello sperimentatore.
3. La mancanza di conoscenza di alcuni parametri importanti dei soggetti partecipanti alla
sperimentazione relativi a qualità particolari degli stessi soggetti. Per controllare queste variabili di
solito sono adottati criteri statistici successivi a quelli utilizzati preliminarmente per la
randomizzazione dei soggetti destinati ai vari trattamenti.

Infine, un limite per la generalizzazione dei risultati ottenuti con i disegni a misure ripetute deriva
dalla ripetizione delle prove, che può provocare effetti di confusione dovuti all'ordine e alla
sequenza. Anche se, i ricorsi alle tecniche di controllo, come il contro-bilanciamento e l’uso di
intervalli adeguati possono ridurre gli effetti, l’esposizione multipla ai trattamenti comporta sempre
qualche minaccia alla validità esterna.
58
Possono essere utilizzati degli stratagemmi per aumentare la validità esterna, tanto negli
esperimenti sul campo quanto in quelli di laboratorio.
Il primo metodo è quello di adoperare misurazioni non intrusive, il secondo quello di raccogliere i
dati prima che i soggetti si accorgano che il ricercatore ha iniziato il suo lavoro d'indagine; e quando
è possibile, si consiglia di condurre la ricerca in condizioni naturali, che
presentano maggiori garanzie degli studi di laboratorio per la validità esterna.
Ma si deve tener presente che gli esperimenti non sono sempre condotti per generalizzare i dati
a tutte le situazioni, ma anche per altri scopi, per cui in questi casi è inutile preoccuparsi troppo
della validità esterna. Per esempio, è possibile condurre un esperimento per determinare se
qualcosa può accadere e non se essa accade nella vita di tutti i giorni.

LA VALIDITÀ INTERNA

La validità interna occupa una fondamentale posizione in quanto riguarda la teoria, o teorie, di
riferimento e la logica della ricerca stessa; lo scopo è di spiegare i fenomeni osservati e di prevederne
di nuovi. Dal punto di vista della sperimentazione questa forma è collegata alla verifica dell’esistenza
di un legame costante tra la variabile indipendente (VI) e quella dipendente (VD). Si ha validità
interna, quindi, quando sperimentalmente è possibile stabilire una relazione, tra queste due
variabili, confermandone la causalità; cioè, quando risulta che una modifica applicata alla variabile
indipendente provoca direttamente, ovvero causa, una modifica nella variabile dipendente.
La relazione per essere considerata causale deve soddisfare due requisiti:
la direzione, ovvero la simmetria, che riguarda il verso del legame tra la VI e la VD; infatti, occorre
la certezza che il cambiamento determinato volontariamente sulla variabile indipendente è causa
dei cambiamenti sulla variabile dipendente e non il viceversa. La direzione è ricavata dalla catena
temporale: se la modificazione della variabile indipendente precede e influisce sul cambiamento
della variabile dipendente, allora si può ragionevolmente supporre che la prima, cioè VI, influisce
sulla seconda, cioè VD.
l’assenza di fattori di confusione (requisito dell’esclusione dei fattori di confusione) invece, implica
il controllo di tutte le variabili che sono potenzialmente in grado di influire sulla relazione causale.
L’accertamento della validità interna consiste nell'esaminare e respingere perché logicamente non
plausibili le interpretazioni alternative delle relazioni tra variabili, ovvero nel provare che le
modifiche della variabile dipendente sono determinate direttamente da quelle della variabile
indipendente e non dipendono dall'influenza di terze variabili (dette di disturbo).

Minacce per validità interna


In questo caso, il compito del ricercatore consiste nell'eliminare tutte le possibili minacce alla
validità e nel creare procedure adeguate perché la relazione di causa ed effetto sia genuina.
Vari motivi possono minacciare la validità interna di un esperimento:
le variabili di confusione, gli errori derivati dai partecipanti alla sperimentazione, gli errori
cagionati dallo sperimentatore.
Le variabili di confusione sono il possibile scambio nell’ambito dell’attività sperimentale di variabili
importanti con variabili indipendenti o sperimentali, in quanto, in molte situazioni sperimentali il
ricercatore non può controllare alcune variabili sperimentali Ad esempio, una variabile che non può
essere assegnata dal ricercatore è il sesso: i gruppi di genere sono già formati (se la variabile sesso
è quella indipendente e di fondamento per l’esperimento allora siamo in una situazione di quasi-
esperimento).
Altre importanti condizioni in un esperimento, per evitare la confusione, sono relative a:

59
la selezione: il gruppo sperimentale e quello di controllo devono essere equivalenti rispetto a tutte
le variabili d’interesse. Alcuni fattori o condizioni possono minacciare l’equivalenza iniziale dei
gruppi, come ad esempio: la motivazione, il livello di intelligenza, la rapidità di apprendimento, ecc..
Tali variabili possono impedire che il risultato del gruppo di controllo sia la misura di paragone per
il gruppo sperimentale. Se i due gruppi non risultano equivalenti, ogni effettiva differenza rilevata
nel post test può essere erroneamente attribuita al trattamento.
la mortalità, possibile perdita, o defezione, differenziale dei soggetti nei due
gruppi. Nell’attività sperimentale può verificarsi, anche frequentemente, che, dopo il
pre-test, alcuni soggetti si ritirino da uno dei due gruppi. Tale sottrazione può influire
sui risultati dell’esperimento.
l’effetto storia: ogni evento che, durante il
corso di un esperimento, produce un effetto che si sovrappone a quello della variabile
indipendente (vedi anche effetto delle prove), producendo confusione sul rapporto
causale tra le variabili sperimentali. L’effetto storia riguarda eventi, anche personali,
che possono verificarsi durante il periodo di compimento dell’esperimento. Gli effetti
storia si verificano soprattutto negli esperimenti che hanno due misurazioni: una prima
del trattamento ed una dopo (cioè il pre-test ed il post-test)
i processi di maturazione, cambiamenti, di ordine biologico e psicologico, che avvengono col
trascorrere del tempo. Ad esempio, tra gli
aspetti biologici si rilevano la coordinazione, la fame, la fatica, ecc.. Tra gli aspetti
psicologici, invece: la stanchezza, la noia, l’acquisizione di nuove conoscenze, la
motivazione, l’interesse, ecc
la strumentazione La strumentazione o educativa o psicologica (interviste, questionari,
test), può esercitare una influenza sull’affidabilità delle misurazioni attraverso alcune
variabili. Ad esempio l’aumento di esperienza, la stanchezza, la disattenzione. Inoltre,
con l’aspetto della strumentazione si comprende anche, non solo la variabilità dovuta
alla struttura degli strumenti, la variabilità dovuta agli sperimentatori. Se nella fase di
post-test, rispetto al pre-test, il somministratore è diverso da chi aveva gestito la prima,
le differenze riscontrate tra i risultati, oltre al trattamento, possono essere dovute anche alla
sostituzione o degli strumenti o degli sperimentatori o di entrambi.
l’effetto statistico, Nella sperimentazione occorre considerare che gli effetti derivanti
dalla storia, maturazione, prove, hanno anche un effetto, ovvero sono rilevabili, sulle
stesse elaborazioni utilizzate per accertare, ad esempio, la presenza di causalit
l’effetto delle prove. La partecipazione alle prove sperimentali, le stesse più volte,
produce un effetto di apprendimento che può influire sui risultati delle prove successive
(ad esempio nelle prove di logica, di matematica, ecc.). Questi effetti, quindi, sono più
pronunciati nei reattivi che misurano le abilità, come la memoria, l'intelligenza, la
soluzione di problemi, ecc.. Poiché il presupposto fondamentale del disegno con un
gruppo sperimentale ed uno di controllo è l’equivalenza dei gruppi, a volte il ricercatore
per verificare la presenza di una storia relativa all’uso di test effettua un’attività di pretest. Questo
controllo a volte costituisce una minaccia alla validità interna, poiché i
risultati del post-test potrebbero essere dovuti alla combinazione dell’effetto del
trattamento e dell’abilità acquisita nella prova preliminare.

Coinvolge anche le possibili relazioni, come la selezione e maturazione, l‘interazione tra selezione e
storia, ecc..
Per contrastare le minacce alla validità interna sono stati proposti alcuni metodi per controllare o
le minacce nel loro complesso oppure le minacce dovute a particolari variabili:
60
per la storia:
Casualizzazione delle condizioni sperimentali (distribuire equamente le più importanti fonti di errore
tra gruppi sottoposti ad esperimento); Controllo della costanza (mantenere costanti, il più possibile,
le condizioni delle sperimentazioni, per tutti i soggetti e per tutto il periodo sperimentale, ad
eccezione del trattamento); Unica sessione e stessa situazione. (Per mantenere costanti e comuni a
tutti i soggetti le distorsioni, dovute a sessioni sperimentali diverse e a situazioni differenti, si deve
eseguire l’esperimento, quando è possibile, in un'unica sessione e nello stesso ambiente e si può
ridurre il tempo tra il pre-test e il post-test)
I processi di maturazione possono essere resi inefficaci attraverso l’uso di misurazioni ripetute
ad intervalli costanti, avvalendosi sempre di un gruppo di controllo.
La variabilità dovuta alla strumentazione è annullata attraverso il mantenere costanti tutte le
variabili della sperimentazione.
Gli effetti delle prove, invece, possono essere rimossi utilizzando i seguenti procedimenti:
− far passare il pre-test come evento ordinario della vita dei gruppi,
− eliminazione del pre-test, quando l’equivalenza dei gruppi è assicurata dalla effettiva scelta
casuale dei singoli partecipanti e la loro numerosità è conforme alle regole del campionamento;
− utilizzare il disegno di Salomon), che prevede nel suo schema sperimentale il controllo degli effetti
del pre-test.
Gli effetti statistici sono resi inefficaci estraendo a caso, dalla stessa popolazione, un gruppo di
controllo che mantiene le caratteristiche nel tempo per valutare i cambiamenti dovuti alle
elaborazioni statistiche.
Per quanto riguarda la mortalità non vi sono procedimenti di controllo sufficientemente efficaci.
E’ consigliabile effettuare le prove in tempi molto ravvicinati, qualora sia possibile, in modo da
limitare l’allontanamento dei soggetti.

LA VALIDITÀ DI COSTRUTTO

concerne la questione della conformità fra i risultati e la teoria che sta alla base della ricerca
La validità di costrutto (Cronbach e Meehl, 1955) si definisce come il grado in cui uno strumento
misura il costrutto che si intende misurare, cioè gli attributi o le qualità psicologiche che si
presuppone siano posseduti dalle persone.
Per costrutto (ad esempio intelligenza, ansia, emozioni ) si intende una definizione legato a una
teoria, che non può essere direttamente osservato ma solo inferito, dal comportamento, grazie a
variabili manifeste, ovvero indicatori osservabili come, ad esempio, il risultato di un test di
apprendimento, il ritmo del battito cardiaco, la sudorazione delle mani, la tensione nervosa, ecc..,
indicatori che dipendono dalle teorie dei ricercatori e dagli strumenti adottati per misurarli
La validità di costrutto non è espressa da un unico indice statistico, ma da una serie di osservazioni
e dati che forniscono un'informazione sulla natura del costrutto.
Solo con una definizione chiara del costrutto astratto, gli indicatori empirici che possono
rappresentarlo porteranno a procedure di manipolazione soddisfacenti.
La validità di costrutto è simile alla validità interna. Questa si raggiunge cercando di eliminare
le variabili alternative che possono essere considerate come cause potenziali del comportamento in
esame. Nella validità di costrutto, invece, occorre escludere altre possibili spiegazioni teoriche
dipendenti dai risultati ottenuti.
Per verificare se è stata raggiunta la validità di costrutto, si raccoglieranno sia i dati convergenti (gli
esiti attesi), sia quelli divergenti (gli esiti che non sono correlati con la variabile concettuale), e si
verificherà che i secondi non portino a spiegazioni che configgono con quella attesa.
61
La validità di costrutto è importante perché, ancora prima di iniziare l'esperimento, garantisce la
congruenza tra variabili teoriche e variabili operative, e quindi anche tra operazioni di trattamento
e quelle di misurazione degli effetti in relazione ai rispettivi costrutti.

LA VALIDITÀ STATISTICA

controlla, attraverso l'applicazione di specifiche tecniche statistiche, che i risultati della ricerca
non siano dovuti al caso ma ad un'effettiva relazione causale tra le variabili, e quindi alla diretta
manipolazione della variabile indipendente.
La validità statistica è collegata alla validità interna; ambedue hanno per scopo la verifica del
rapporto tra le variabili sperimentali, ovvero se è di tipo causale o meno. L'importanza di questa
validità è legata al fatto che, nella pratica degli esperimenti, i risultati sperimentali sono spesso
caratterizzati da un’ampia variabilità; in effetti unità sperimentali diverse, sottoposte allo stesso
trattamento forniscono risultati diversi. Questo esito può risiedere, in primo luogo, dalle
caratteristiche, o proprietà, dei soggetti sottoposti a trattamento e può essere attribuita alle
differenze individuali che non sono state o non possono essere controllate. Dalla grandezza di
questa variabilità dipende la precisione dell’esperimento, cioè la possibilità di ottenere risultati
simili, se non uguali, qualora la ricerca venga ripetuta. In secondo luogo, può mancare
l’uniformità nel modo in cui l'esperimento viene materialmente eseguito, o allo scarso controllo
delle variabili di confusione; ovvero, alla mancanza di accuratezza. Infine, è possibile attribuire
al caso, cioè ad una molteplicità pressoché infinita di condizioni non analizzabili singolarmente,
l’influenza sui risultati sperimentali. In questi casi, comunque, la variabilità può essere valutata
mediante i metodi statistici.
La validità statistica, invece, può aver luogo solo dopo che i dati sono stati raccolti e
quindi non consente di anticipare alcun rimedio immediato, ma può indicare se esiste la
necessità di modificare le condizioni sperimentali e di controllo in successivi esperimenti.
Ciascuna procedura statistica di analisi dei dati implica degli assunti che vanno rigorosamente
rispettati. Altri fattori minacciano la validità statistica gonfiando l'errore di misurazione. La
scarsa affidabilità degli strumenti di misura ad esempio, aumenta la variabilità d’errore,
impedendo così di cogliere le differenze attese; la mancata standardizzazione delle procedure
di manipolazione della variabile indipendente introduce una variabilità incontrollata nella
variabile dipendente a causa del cambiamento nelle modalità di presentazione dei trattamenti
che devono rimanere gli stessi anche quando cambiano le persone, i tempi e i luoghi;
l’eterogeneità dei soggetti sperimentali ancora può aumentare l'errore sperimentale.
Le strategie volte a migliorare la validità delle conclusioni statistiche sono essenzialmente tese
a ridurre la varianza d’errore: da qui l'uso di disegni sperimentali con prove ripetute, il ricorso
a gruppi omogenei ecc.
Oltre a queste strategie generali, vi sono strategie specifiche. Secondo John Anderson3
, vi sono
tre possibilità per aumentare la probabilità di scoprire un vero rapporto tra le variabili studiate:
la prima riguarda il livello di significatività, che si può aumentare, migliorando la sensibilità
del disegno, pur considerando che tale operazione diminuisce la possibilità di non riconoscere
false inferenze (errore di II° tipo). Una seconda possibilità può riguardare l’ampliamento
dell’intervallo tra i valori della variabile indipendente, usati per definire le condizioni
sperimentali, aumentando la grandezza dell’effetto. Ad esempio, ipotizzando per
l’apprendimento un rapporto tra lunghezza di una lista di parole e il numero di parole che
vengono apprese, occorre utilizzare liste composte di parole di ampiezza molto diverse, e non
62
di ampiezze simili o lievemente diverse. In questo caso occorre considerare che il rapporto tra
variabile indipendente e dipendente può assumere un andamento monotonico.
La terza possibilità prevede la riduzione dell’errore casuale, operando sulla riduzione degli
errori dipendenti dal campionamento, derivanti dall’assegnazione dei soggetti alle condizioni
sperimentali, dalla somministrazione delle condizioni stesse o dalla misurazione della variabile
dipendente.

LA VALIDITÀ ECOLOGICA

La validità ecologica riguarda la percezione del soggetto sperimentale sia verso il compito sia
verso l’ambiente durante lo svolgimento della sperimentazione. Occorre perciò considerare
l’importanza dell’ambiente per com’è vissuto dal soggetto, ciò di cui ha esperienza, che non si
risolve con il solo riferimento all’ambiente naturale o quotidiano, per garantire la validità
ecologica, bensì considerando anche la conoscenza di quello che il soggetto percepisce e vive
nella situazione sperimentale. In questo caso occorre considerare due situazioni in grado di
compromettere la validità ecologica. La prima riguarda il contesto laboratoriale che con la
presenza di oggetti sconosciuti o poco familiari rende poco naturali le reazioni o le prestazioni
del soggetto. La maggior parte degli esperimenti, quindi, può garantire la validità interna,
assicurare una certa validità esterna, ma costituisce una minaccia alla validità ecologica, in
quanto non consente di generalizzare i risultati alla vita quotidiana.
La seconda situazione considera come minaccia per la validità ecologica tutto ciò che impedisce
allo sperimentatore di conoscere come il soggetto percepisce la situazione. Non ha molta
importanza che la situazione sia artificiosa o meno; ciò che importa è che lo sperimentatore ne
sia al corrente ed abbia incluso nel disegno sperimentale tale variabile. Le minacce in questo
caso saranno uguali alle minacce alla validità esterna ed alla validità interna.
Ogni tipo di validità presentata risulta molto importante per la ricerca; occorre considerare,
però, che si devono distinguere gli studi in cui sono indispensabili le validità, ad esempio interna
ed esterna, da quelli che esigono, invece, la validità ecologica, poiché spesso il rispetto e la
garanzia dell’una, presuppone un minor rispetto della garanzia delle altre.

Il controllo
L’attività di controllo, soprattutto nella ricerca sperimentale, può essere considerata come la
seconda faccia della medaglia della validità. Infatti, nell’esperimento per il controllo della
validità si utilizza un gruppo di controllo insieme al gruppo sperimentale. Il gruppo di controllo
è costituito con le stesse caratteristiche di quello sperimentale ed ha la funzione di offrire un
punto di comparazione per la verifica degli effetti della variabile indipendente. Questa verifica
avviene confrontando i risultati del gruppo sperimentale che riceve il trattamento con quello di
controllo che non è sottoposto ad alcun trattamento. La comparazione può anche riguardare i
risultati sia dello stesso gruppo sperimentale (ad esempio una classe) sottoposto a differenti
livelli della stessa variabile indipendente (esperimento entro i gruppi), sia di due, o più, gruppi
che ricevono però livelli diversi dello stesso trattamento. Nel caso si utilizzi lo stesso gruppo si
stabilisce una condizione di controllo, in quanto lo stesso gruppo fa da controllo a se stesso;
inoltre, occorre considerare che si possono verificare degli effetti combinati dovuti all’ordine e
alla sequenza, dato che il gruppo esegue più volte le prove ed è sottoposto al trattamento almeno
due volte.
In tutti i casi si ricorre ad un pre-test per assicurare che o il gruppo singolo o i gruppi siano
effettivamente omogenei per quanto riguarda le variabili più importanti per l'esperimento.
Per ovviare alle possibili sorgenti di variabilità o confusione di effetti sono utilizzate specifiche
63
strategie di controllo.

Le strategie generali di controllo

L’ambiente di ricerca, o setting. Il laboratorio, come ambiente, è sempre stato considerato


ideale, in quanto permette di eliminare o di tenere sotto controllo le variabili estranee e di
confusione. Inoltre, permette una semplificazione della situazione sperimentale riducendo le
variabili che non interessano e aumentando, invece, il controllo sulla variabile indipendente.
Il laboratorio consente anche di mantenere costanti tutte le altre variabili che non sono eliminabili
poiché si sottopongono i soggetti alle stesse prove, nello stesso luogo (aula o stanza), con lo
stesso sperimentatore (docente o somministratore o psicologo) e nel medesimo momento della
giornata, e così via. Perciò, eventuali differenze tra il gruppo sperimentale e quello di controllo
possono essere attribuite con maggiore sicurezza alla manipolazione della variabile
indipendente. L'efficacia del controllo sperimentale è strettamente connessa sia alla scelta, da
parte del ricercatore, delle varie strategie, strumenti, dispositivi per eseguire la sua ricerca,
sia alle caratteristiche e qualità degli strumenti di misura adoperati nella ricerca.

Ogni strumento di misura per essere valido deve essere oggettivo attendibile e sensibile - e questo
vale per qualsiasi studio condotto con qualsiasi metodo -. A volte, soprattutto se si ha il dubbio che
un’eventuale assenza dell’effetto della variabile indipendente sia dovuta allo strumento di misura,
si ripete l'esperimento con un altro strumento di misura per aumentare l’affidabilità della
misurazione. Se il risultato delle due diverse misurazioni coincidono, ovvero se un fenomeno
osservato in un primo esperimento si verifica anche in un secondo e in un terzo, allora si può ritenere
che le misurazioni, e lo strumento, siano attendibili. Un esperimento che non può essere ripetuto,
lascia invece il dubbio che i dati ottenuti possano essere dovuti ad eventi casuali.
Quando si ripete un esperimento in modo più fedele possibile all’originale, si parla di
ripetizione; quando invece si opera una modifica rispetto alla prima sperimentazione per vedere,
ad esempio, se nonostante la modifica si otterrà un risultato analogo, si parla di replica o
ripetizione sistematica.
occorre utilizzare più procedimenti di controllo insieme, mai uno soltanto, per garantire la validità
della sperimentazione e della ricerca nel complesso.
I soggetti partecipanti alla sperimentazione possono essere influenzati da
motivazioni diverse, dalle aspettative, dall’interazione con lo sperimentatore e da altri elementi
soggettivi. Nello stesso modo, anche il ricercatore o il personale di ricerca può, anche
inconsapevolmente, influenzare il comportamento dei soggetti sperimentali inficiandone le
prestazioni. Per ridurre questi possibili effetti di confusione si può operare, ad esempio,
nascondendo ai soggetti sperimentali sia lo scopo generale della ricerca, sia la condizione alla
quale ognuno di essi è sottoposto per quanto riguarda gli effetti di disturbo (è il metodo del
singolo cieco, in inglese single-blind control procedure).
Per quanto riguarda, invece, le minacce provenienti dallo sperimentatore è necessario ridurre al
minimo i contatti diretti tra ricercatore e i soggetti partecipanti. Queste minacce si possono
realizzare attraverso la preparazione e collaborazione del personale di ricerca appositamente
addestrato e formato, che gestiscono i rapporti con i soggetti, a patto che siano anch’essi all’oscuro
oltre che dell’ipotesi dell’esperimento anche della formazione dei gruppi (non devono sapere cioè
a quale gruppo di trattamento sono stati assegnati i singoli soggetti) e, inoltre, a quale gruppo
appartengono le risposte che sono chiamati a valutare. In questo modo i collaboratori, anche
involontariamente non trasmettono ai soggetti informazioni sul trattamento (o inganno), sulle
risposte attese, e,
64
nello stesso tempo, non hanno la possibilità di interpretare in modo differenziato i risultati.
Questo procedimento è tecnicamente chiamato doppio cieco perché risulta cieco, cioè senza
informazioni che possono modificare i propri giudizi, sia il soggetto sia lo sperimentatore. Tale
situazione non sempre è utilizzabile, soprattutto quando entrano in gioco motivi etici
Con il metodo osservativo, quando cioè le osservazioni sono soggettive e prevedono la
registrazione di informazioni destrutturate, o altri metodi obiettivi, il controllo si effettua mediante
l’impiego di parecchi osservatori e i dati rilevati possono essere comparati e valutati mediante un
coefficiente di accordo. Questa tecnica è conosciuta come inter-rater reliability, cioè dimostra la
concordanza tra valutatori per la stessa valutazione e ciò caratterizza l’affidabilità della misura, o
giudizio, realizzata
Una selezione scrupolosa dei soggetti può assicurare l’equivalenza dei gruppi e la possibilità di
generalizzare i risultati alla popolazione, anche attraverso il giusto uso delle regole di
campionamento.
Per la ricerca, occorre selezionare in modo casuale dalla popolazione accessibile un
campione convenientemente numeroso; più grande è il campione e più risulta rappresentativo
della popolazione poiché si riducono gli errori di campionamento. Il campionamento è definito
casuale quando la selezione di ogni elemento avviene da una popolazione in cui gli elementi
sono ordinabili ed ogni elemento ha la stessa probabilità di essere selezionato. Il
campionamento casuale è detto stratificato quando si considera una suddivisione preliminare
della popolazione in strati o sub-popolazioni, da ognuna delle quali viene estratto un subcampione,
sempre in modo casuale, di numerosità proporzionale alla numerosità del campione
Nelle scienze psicologiche, invece, in molti casi i
ricercatori devono condurre gli esperimenti con soggetti non facilmente reperibili e disponibili
e quindi non scelti in modo casuale da una particolare popolazione ordinata. Tali gruppi di
soggetti, definiti campioni ad hoc, o ragionati, possono evidenziare risultati generalizzabili
sulla base delle caratteristiche del campione stesso; in pratica, quanto più si riesce a descrivere
i soggetti del campione in modo obiettivo, tanto più esatta risulterà possibile trasferire i risultati
alla popolazione di riferimento.
Una volta che il campione è stato formato i soggetti selezionati devono essere assegnati,
secondo le condizioni stabilite dai disegni sperimentali, ai gruppi sperimentali. I soggetti,
quindi, possono essere assegnati ai gruppi sperimentali in maniera casuale randomizzata,
(assegnazione casuale libera) soprattutto quando si lavora con un numero alto di soggetti;
quando invece il numero di soggetti è piccolo si utilizza preferibilmente il pareggiamento4
. Il vantaggio di questa tecnica è dato dal fatto che essa rende la ricerca con piccoli gruppi più
sensibile agli effetti della variabile indipendente mediante l’equa distribuzione tra i gruppi delle
variabili di disturbo conosciute o sospettate di esserlo.
Una seconda particolarità per utilizzare
il pareggiamento è il considerare che vi sia una variabile rispetto alla quale i soggetti
differiscono e che essa sia con buona probabilità correlata con la variabile dipendente. Questa
variabile deve essere comunque individuata prima di eseguire il pareggiamento stesso; quindi i
soggetti devono essere esaminati prima di venire assegnati alle varie condizioni.
Un altro metodo al pareggiamento è il metodo dei blocchi che consiste nell’abbinare le
caratteristiche dei gruppi. Questo metodo prevede innanzitutto l’identificazione della variabile
in base alla quale formare i blocchi, poi successivamente misurarla su tutti i soggetti, che
dovranno appartenere al campione sperimentale, e suddividere i soggetti in base alla media e
alla deviazione standard ottenute in tali misure
Un altro metodo di controllo, disegno entro i soggetti , prevede che a ciascun soggetto possa
applicarsi ciascuna condizione dell'esperimento.
65
Negli esperimenti in cui ciascun soggetto è sottoposto a più condizioni sperimentali è possibile
che l’esecuzione delle prime prove influisca sui risultati di quelle successive. A questo
proposito, gli autori distinguono due possibili effetti: dell'ordine e della sequenza. Il primo è
dovuto all’ordine in cui i soggetti sono sottoposti alle condizioni sperimentali,
indipendentemente dalla specificità delle condizioni stesse
L’effetto della sequenza riguarda, invece, un cambiamento temporaneo o permanente nel
comportamento del soggetto a causa di una precedente esposizione ad uno o più trattamenti
sperimentali.
La strategia per controllare gli effetti dell’ordine e della sequenza è quella del bilanciamento e
controbilanciamento
Quando ciascun soggetto è sottoposto a tutte le condizioni e si utilizza il
controbilanciamento questo verrà detto entro i soggetti. Lo svantaggio di questo metodo è
legato al fatto che tutti i soggetti devono essere sottoposti a tutte le condizioni e più di una volta.
A mano a mano che il numero delle condizioni aumenta, aumenta anche la lunghezza della
sequenza delle prove.
Vi sono due tipi di controbilanciamento entro i gruppi: incompleto e completo.

Gli effetti di disturbo


Un aspetto importante del controllo che può assumere il ruolo di oggetto-stimolo ed influire sui
dati, confondendo l’effetto della variabile indipendente, è l’ambiente (setting). Ad esempio un
ambiente importante, come un centro di ricerca, può essere percepito da un soggetto come garante
di una maggiore serietà per l’esperimento; in questo caso i soggetti possono essere
invogliati a seguire con maggiore attenzione le istruzioni dei ricercatori
Sono le caratteristiche di richiesta che possono influire sul comportamento del soggetto favorendo
o l’assecondamento o il boicottaggio della sperimentazione.
Data la natura sociale della ricerca educativa e psicologica, le caratteristiche di richiesta non
possono mai essere eliminate del tutto. Però la consapevolezza della loro influenza e la
possibilità di utilizzare procedimenti per diminuirne l’impatto possono rafforzare la validità
interna ed esterna di un esperimento.
Anche le istruzioni date oralmente sembrano
provocare un effetto di disturbo dovuto alla presenza dell'osservatore; occorre quindi prestare
attenzione anche al modo in cui si danno le istruzioni privilegiando la forma scritta e con lo
strumento della tecnologia.
La presenza dell’osservatore nella situazione sperimentale può influenzare il comportamento
dei soggetti, e le selezioni errate dei soggetti sperimentali comportano ugualmente effetti di
disturbo. Nello stesso modo, anche caratteristiche fisiche dello sperimentatore come il sesso e
le sue aspettative, possono provocare influenze sui soggetti sperimentali. Tutte queste possibili
variabilità o disturbi devono esser tenute presenti in modo che sia possibile utilizzare tutti i
metodi di controllo al fine di ottenere dati obiettivi e liberi, per quanto sia possibile, da elementi
di disturbo che possano inficiare i risultati di una ricerca

MODULO 5 VALIDITA

Scorm 1)

La validità di facciata può essere analizzata attraverso la correlazione: falso, non ci sono test statistici
specifici
66
La validità di contenuto necessita del coinvolgimento dei esperti per la sua valutazione: vero
Il criterio è un altro test o scala psicometrica? Falso, è una prestazione del soggetto
Per avere un livello di validità discriminante accettabile il coefficiente di correlazione deve essere uguale a
0 (zero) : falso Esatto, si sceglie un costrutto che abbia che sia correlato negativamente, quindi più si avvicina
a -1 e meglio è.

La validità come concetto è sfaccettata in tante dimensioni, ma è unica (come il trifoglio, che è una
pianta unica, ma con tre foglie, la validità è un concetto unico con 5 dimensioni che contribuiscono
tutte a dare una stessa concezione, definizione) ed in questo si differenzia dall’attendibilità, che nei
suoi diversi metodi di analisi è diversa (attendibilità in misure ripetute e come coerenza interna).
Diversamente dall’attendibilità di uno strumento di misurazione non esiste un singolo coefficiente
di validità per un test, che è sempre valido per qualche scopo e risulta più o meno valido a seconda
delle circostanze

Confronto tra validità della ricerca e dello strumento di misurazione.


La validità dei test, rispetto alla funzione, ossia la validità detta strutturale è una, ma sintetizza le
altre forme di validità.
Bisogna differenziare tra due aspetti fondamentali e intrinseci della validità di un test:
la sua validità di contenuto e la sua attendibilità e l'esame cosiddetto «indiretto» della validità di
un test, valutata in base alla sua maggiore o minore concordanza con altre misure: altri test, giudizi
di esperti ecc. Inoltre sarà poi necessario affrontare la questione relativa alla validità strutturale,
(che è una, ma sintetizza insieme le altre forme di validità) “rispetto alla funzione” che deve
espletare il test all’interno di un indagine, cioè chiarire qual è la caratteristica psicologica misurata
dal test.

In particolare riguardo ai reattivi si dice che un test è valido se misura ciò che dichiara di misurare.
(Kline)
area della misurazione (o dello strumento)
- validità di contenuto
- validità di criterio
- validità concorrente
- validità convergente
Elementi fondamentali per la misura di una caratteristica attraverso un test :
La validità a priori del test
• La validità a posteriori del test
• Corrispondenza del test alle esigenze pratiche

LA VALIDITÀ NELLA MISURAZIONE


La validità dei test, rispetto alla funzione, ossia la validità detta strutturale è una, ma sintetizza le
altre forme di validità.
Bisogna differenziare tra due aspetti fondamentali e intrinseci della validità di un test:
la sua validità di contenuto e la sua attendibilità e l'esame cosiddetto «indiretto» della validità di
un test, valutata in base alla sua maggiore o minore concordanza con altre misure: altri test, giudizi
di esperti ecc. Inoltre sarà poi necessario affrontare la questione relativa alla validità strutturale,
“rispetto alla funzione” che deve espletare il test all’interno di un indagine, cioè chiarire qual è la
caratteristica psicologica misurata.
In particolare riguardo ai reattivi si dice che un test è valido se misura ciò che dichiara di misurare.

67
Un test deve essere utilizzato in una situazione pratica ed oltre ad avere una validità pragmatica,
deve essere coerente e pertinente con lo scopo della somministrazione
Per la validità di uno strumento di misura, è necessario considerare che si intende, oltre ad una
definizione concettuale e operativa del costrutto che si vuole misurare, anche la definizione delle
relazioni con misurazioni diverse del costrutto, con misure di altri costrutti all'interno di un sistema
teorico e con misure di variabili presenti nel mondo reale.

Uno dei momenti più difficili nel processo di sviluppo di una misura è quello dell'interpretazione dei
punteggi ottenuti dalla misurazione. La registrazione di una significativa affidabilità rivela solo che
lo strumento misura veramente qualcosa, ma non dà alcuna informazione sulla natura di ciò che si
sta misurando.
La difficoltà deriva dal fatto che la validazione può essere verificata all'interno di un sistema di
relazioni ipotizzate tra il costrutto di interesse e altri costrutti; tali relazioni possono essere :
di causa, effetto o di correlazione.

Le prove di validità implicano la verifica simultanea dell'ipotesi riguardante i costrutti e lo


strumento.
Molti costrutti nelle scienze pedagogiche e psicologiche rappresentano astrazioni teoriche, che non
esistono nell'esperienza reale; per tale motivo gli indicatori che li rappresentano devono
essere sottoposti a verifica di validità. La validazione di una misura può quindi essere vista
come la verifica di una teoria. Il processo di validazione non può essere affrontato prima che
non sia stato portato a termine quello di verifica dell'affidabilità.
.
Questi tipi diversi di approcci al problema, di indicare o misurare la validità del test, definiscono
diversi tipi di validità: sta al ricercatore stabilire se la validità del test analizzato è utile per le finalità
della ricerca.
Non vi è un procedimento diretto per dimostrare la validità di un test psicologico, ma si analizzano
in un processo determinate condizioni, la validità di contenuto, facciata ecc e si esprime un giudizio
sulla validità dello strumento.
L’attendibilità invece ha dei test statistici strutturati e consolidati, che permettono la valutazione
precisa.
Un test è esteriormente valido se sembra misurare ciò che dichiara di misurare. Ci sono diverse
criticità nella misurazione
Esempio: test di coscienziosità, variabile molto importante nella comprensione della personalità:
non è ovvio che un tale test sia valido, sarebbe più facile se esistesse una variabile indipendente
della coscienziosità. Non è privo di senso invece discutere se una persona è coscienziosa, dunque
una valutazione può esistere. Si potrebbe farla valutare da persone che non conoscono i soggetti e
correlare i punteggi del test con le valutazioni di coscienziosità di esperti, assumendo però che
queste valutazioni siano valide, cosa che non si può fare, perché la realtà è dipendente
dall’osservatore Per Alcuni tipi di validità (costrutto e criterio) possono essere verificati mediante
procedimenti di ricerca, raccolta dati, correlazioni tra test somministrati a più gruppi di soggetti per
analizzare le analisi statistiche.
Per la validità di contenuto e facciata non si prevedono analisi statistiche vere e proprie, (perché
non producono gli indici classici con cui supportare le ipotesi e vengono ignorati dal punto di vista
dell’attendibilità), ma sottovalutarle perché non c’è un test statistico che ci restituisca una
informazione precisa, è un errore grave, dato che la procedura di analisi della validità e di taratura
di un test (di selezione degli item a partire dal pool più grande) comincia proprio dall’analisi di
contenuto e facciata.
68
Alfa di Crombac è di facile calcolo e può misurare l’attendibilità dal punto di vista della coerenza
interna.

Validità nella misurazione :


di traduzione: facciata, contenuto, costrutto

Inizialmente la valutazione della validità di facciata è stata considerata appannaggio degli esperti,
ma col tempo il focus si è spostato su gruppi di potenziali utilizzatori, costituiti da coloro a cui il test
verrà somministrato e gli utilizzi dei test nei contesti applicativi relativi a situazioni particolari
prevede una scelta (trade off) tra validità esteriore di facciata e le funzioni di un test all’interno di
una ricerca
Facciata o esteriore (significatività che una misura presenta, si valuta sulla base dei giudizi di
esperti), validità estetica o cosmetica E’ il grado in cui gli item sembrano misurare il costrutto che
si intende misurare.
La validità di facciata riguarda il fatto che il test "sembri valido" e misurare ciò che dichiara di
misurare agli esaminandi che lo compilano, al personale amministrativo che ne decide l'impiego (per
es a scuola) e ad altri osservatori non tecnicamente formati.
Questa apparenza di scientificità rispetto agli obiettivi del test, influenza anche le performance e
le risposte dei soggetti.
Di fatto, non esiste nessuna relazione logica fra validità esteriore e validità reale, anche se in alcuni
casi esse potrebbero essere correlate positivamente, mentre in altre circostanze la validità esteriore
può rappresentare un vero svantaggio. (Kline)
Vantaggi: la motivazione dei soggetti a rispondere si riflette nelle loro performance, (i piloti per
esempio se ci sono test esteriormente validi, si scoraggiano a completarli, così come gli adulti)
Nel campo dell’abilità non vi sono molte differenze, bisogna studiare le domande in modo che risulti
coerente con quanto si soggetti si aspettino di rispondere (un test sull’ansia sui piloti non avrebbe
senso e porterebbe a distorsioni).

E’ necessario differenziare:
validità di facciata : esteriormente come appare, se è ben fatto dal punto di vista della grafica, se è
completo nelle scale, non cambiano il contenuto, ma che influenza la percezione e la motivazione
del soggetto a portare a termine il compito in modo coerente. (l’abito fa il monaco: l’impressione
che da il test di essere valido motiva i soggetti e completarlo). La capacità del test di produrre dati
attendibili, dipende anche dall’atteggiamento nei confronti del test dei soggetti e del
somministratore (la valutazione della validità di facciata di solito è fatta da esperti) la
somministrazione può essere fatta a un gruppo di esperti o ad un gruppo rappresentativo a cui è
rivolto il test). La validità di facciata può avere effetti positivi, che negativi sulla validità dei punteggi
a un test, se la rilevanza degli item influisce sulla motivazione e nei reattivi di selezione del personale
se un test scarseggia di questa validità, il soggetto può demotivarsi a farlo bene perché può pensare
che sia irrilevante per la decisione che verrà presa o in altre situazioni ancora più gravi, uno scarso
livello di validità di facciata può creare problemi nella risposta, attivando processi di dissimulazione.
Sebbene non garantisca una misurazione accurata, può avere influenza sulla motivazione e deve
essere provata (Anastasi)
e validità di contenuto : non è una validità nel senso tecnico del termine, non si riferisce a ciò che il
test effettivamente misura, ma a cosa sembra misurare superficialmente.

69
SCORM 2
Validità di contenuto,:
anche definita concettuale, denota l’adeguatezza della tarazzazione e delle variabili misurate in una
ricerca o test, così tutte la variabili vengono operativizzate. Uno stesso concetto può essere misurato
più volte a seconda delle finalità.
Non sempre si è grado di garantire che gli stimoli, indicati come indicatori della variabile psicologica
del costrutto che si vuole misurare siano corrispondenti, attendibili e validi,
La validità di contenuto è il grado con cui gli item del test costituiscono un campione rappresentativo
dell'universo dei possibili comportamenti relativi al costrutto che si vuole misurare
La capacità dello strumento di misurare effettivamente ciò che si intende rilevare. anche questo
tipo di validità necessita del giudizio di esperti. La verifica della validità di contenuto è
particolarmente importante e deve essere effettuata al momento della costruzione dello strumento
di misura e quindi prima della raccolta dati e dell’analisi statistica; questa, in particolare, dovrebbe
fornire solo informazioni aggiuntive su tale validità, ovvero dovrebbe fornire solo un sostegno e una
giustificazione statistica.
Lo scopo è di valutare se gli item rappresentano adeguatamente un dominio di prestazioni o un
costrutto psicologico specifico. To Asses (valutare) significa che è uno strumento di valutazione e
l’applicabilità della validità di contenuto dello strumento deve essere coerente con i metodi di
valutazione psicologia (la misurazione sistematica del comportamento di una persona, nelle varie
dimensioni, da una parte obiettivi e strategie di misurazione e dall’atra inferenze, giudizi, la
riflessione, che uno psicologo riesce a trarre dalle misure ottenute.
La validità di contenuto è il grado con cui gli item del test costituiscono un campione
rappresentativo e dell'universo dei possibili comportamenti relativi al costrutto che si vuole
misurare, (Pedon e Gnisci) se è veramente rappresentativo del costrutto o dominio di prestazione
(competenza in matematica, copro tutti gli elementi che la costituiscono) che si rifà alla definizione
di Anastasi del test come campione di misurazione dei comportamenti dei soggetti.
Il giudizio che si esprime su base quantitativa o stime di rilevanza e rappresentatività, nella validità
di contenuto può essere considerata una caratteristica dimensionale del test e non qualitativa,
come invece si ritiene, dato che non esistono test statistici adeguati con riferimento quantitativo,
ma tecniche con cui si definisce se un test ha buona validità di contenuto.(anche nella validità di
facciata)
La rilevanza di un questionario self report che misura un particolare dominio della personalità o
della intelligenza sarà una funzione del grado in cui la misura contiene item che riflettono le
sfaccettature del costrutto, per cui sarà bassa la validità se la scala del test contengono item al di
fuori del dominio di contenuto o mancano di operalizzazione necessaria.
La valutazione della validità di contenuto è fondamentale se ci permette di ottenere Prove
empiriche a supporto del fatto che gli item del test sono rilevanti e rappresentativi del costrutto.
Nella valutazione psicologica in generale la sua importanza per la valutazione del costrutto varia
in base a quanto il costrutto viene definito e quanto gli esperti concordano sul dominio e sulle
sfaccettature del costrutto , quindi le uniche modalità che ci permettono di valutarla sono metodi
che fanno riferimento al giudizio degli esperti, mentre nella validità di facciata si fa riferimento
ai soggetti che rispondono al test, chiedendo una valutazione sulla qualità o sulle problematiche
del test.
Gli esperti vengono chiamati in causa col metodo Delfi o con il metodo CUE SORT, in cui i soggetti
mettono in ordine gli item, per cui c’è un riferimento sia qualitativo, che ad un ordine ed una
gerarchia.
La valutazione di contenuto è importante per la criticità che può avere, soprattutto per costrutti con
confini concettuali vaghi o con definizioni che non sono molto consistenti, che non ha letteratura
70
di riferimento molto chiara.(esempio di strumenti self report che misuravano il supporto sociale, in
cui era labile ed ambiguo questo costrutto)
Un’altra tecnica per lo studio della validità di contenuto è quella delle FAcets ANALISIS, esame delle
sfaccettature, che prevede un lavoro di individuazione degli aspetti basilari del costrutto per fare
una mappa esplicita e chiara del dominio concettuale e stabilire il peso relativo che ogni parte
costitutiva ha nella definizione del costrutto, cosa che ci permette di controllare che la quantità
di item sia proporzionale al peso delle varie sfaccettature individuate inizialmente.
Ad esempio se si vuole costruire una scala per misurare l’aggressività è necessario campionare un
certo numero di item della popolazione di tutti i possibili item ed individuare tutti gli aspetti
costitutivi di essa (rabbia, violenza ostilità ecc) ed i contesti , dipende dalle finalità dello strumento,
delle attività in cui si sviluppa. Bisogna definire dal punto di vista teorico anche qual è il peso di
ognuno degli aspetti in termini di numerosità degli item: se sottorappresentiano o sovra
rappresentiamo un aspetto della definizione del costrutto , si indebolirà la validità di contenuto.
Ci deve essere una congruenza tra questa costellazione di elementi per questa validità.
Nei test di profitto e di abilità (il dominio degli item è ben definito) è più facile applicare la ricerca
della validità di contenuto: in un test musicale per esempio, si potrebbe presentarlo ad un gruppo
di musicisti (per esempio del V anno) chiedendo di giudicare se il test copra tutte le prestazioni
musicali più importanti che è lecito attendere.
Questa metodologia di verifica è un’analisi indipendente dello strumento da parte di un gruppo di
esperti.(metodo Delfi). Se devono specificare eventuali carenze del test, possiamo garantire che il
contenuto finale del test è pertinente e rilevante per il suo scopo.
Il motivo per cui questo test musicale è rilevante e valido è perché c’è una buona misura di accordo
rispetto alle abilità specifiche ed alle conoscenze di base.
Anche se attualmente la validità di contenuto è considerata una componente importante anche per
i test di performance tipica, si è sviluppata a partire da quelli di intelligenza e per la valutazione dei
reattivi di profitto.
Sia la validità di facciata, che quella di contenuto sono sottovalutate e ritenute forme di validità
esterna, ma non è così. Se il soggetto risponde in modo corretto ad un item collegato ad un
accordo,è un esempio reale dell’abilità specifica, allora il soggetto lo sa riconoscere: la v. di
contenuto rispetto a quella esterna potrebbe essere similare. Ma se in test di personalità un item è
sull’ansia potrebbe non esserlo. (questo negli esempi di test musicali o di intelligenza che dice nel
video)
La misurazione della validità di contenuto è raggiungibile con il metodo DELFI, riassumibile
nell’analisi indipendente degli item da parte di esperti, con un processo strutturato che accoglie ed
approfondisce dal loro patrimonio conoscitivo e lo scopo è quello di approfondire le risposte
individuali al problema specifico. Questa tecnica si affina in modo progressivo, man mano che il
gruppo progredisce nella sua valutazione. E’ un metodo strutturato e formalizzato e prevede che il
giudizio avvenga in modo indipendente, per cui i componenti del gruppo non si dovrebbero mai
incontrare personalmente, in modo che il risultato finale non sia influenzato dalle loro interazioni.
La validità di contenuto , per quanto supportata da questa tecnica, non si può considerare l’unico
metodo di valutazione di uno strumento.
Se è coerente per esempio,con risultati di v. predittiva, per test di performance massima,
(intelligenza ecc)i giudizi dovrebbero essere congruenti tra loro.
Nella storia dello sviluppo dei test ci sono esempi (Bender visual test) ci mostrano come stimoli
ideati per misurare un costrutto, una variabile latente, si siano rivelati più validi per misurarne
un’altra.
Occorre distinguere fra relevance (rilevanza) e representativeness (rappresentatività) di un test.

71
La rilevanza di uno strumento di misura si riferisce all'appropriatezza dei suoi elementi per la
valutazione del costrutto oggetto del test
La rappresentatività di un test si riferisce invece al grado in cui i suoi elementi sono rappresentativi
delle varie sfaccettature del costrutto target e riescono acoprire in modo adeguato il dominio di
contenuto.

Scorm 4

Validità di costrutto o teorica:


si valuta in base ad indicazioni di carattere statistico, quindi è possibile calcolare un coefficiente di
correlazione del nostro test con un altro punteggio.
Si accerta se gli indicatori misurano accuratamente i costrutti teorici che interessa misurare; è
verificata attraverso la correlazione tra un indicatore ed altri indicatori secondo particolari modelli
teorici. La validità di costrutto (Cronbach e Meehl, 1955) si definisce come il grado in cui uno
strumento misura il costrutto che si intende misurare, cioè gli attributi o le qualità psicologiche che
si presuppone siano posseduti dalle persone.
Tradizionalmente la validità di costrutto è nata in modo complementare alle altre validità, assurta a
ruolo principale però nel momento in cui il costrutto si è potuto inserire in una serie di relazioni,
teoricamente fondate, con altri costrutti.
Intende se il test è strettamente connesso con la struttura teorica concettuale delle funzioni da
esso misurate: in questa condizione bisogna differenziarla dalla validità nomologica, che è di tipo
teorico più allargato, in cui quando ci riferiamo alle dimensioni teorico-concettuali delle funzioni di
un concetto, vuol dire se effettivamente ci sia un’appropriatezza di deduzione effettuata a partire
dai punteggi di un test , che poi misura una determinata variabile latente chiamata costrutto.
E’ quindi una validità rispetto a questa funzione, (ossia il giudizio sulla appropriatezza di deduzioni)

Validità incrementale e differenziale: hanno importanza particolare nel selezionare le procedure.


Validità Incrementale: se abbiamo una batteria di test durante una procedura di selezione, ossia
analizziamo varie dimensioni legate ad un costrutto che ci permette di selezionare delle persone, se
un test correla in modo moderato con un certo criterio, potremmo pensare che non sia utile. In
realtà se il test avesse una correlazione = 0 (ossia bassa) con tutti gli altri test della nostra batteria
e con il criterio che ci interessa, per quanto scarsa la correlazione aggiungerebbe nuove
informazione e sarebbe di grande valore.
Questo esempio evidenzia che non esiste un solo coefficiente di validità, ma che un test è sempre
valido per qualche scopo, magari per uno diverso da quello che ci siamo proposti.
La validità incrementale del test si applica alla selezione di quel caso o lavoro particolare, in relazione
alla batteria di test per cui c’è correlazione nulla (0), ossia una validità differenziale rispetto agli altri
ed incrementale rispetto al nostro criterio originale. Questo vale solo per la batteria di test con cui
c’è correlazione =0.
Se cambiassimo questi test con altri test che potrebbero correlare con il test con scarsa validità
incrementale, questa sparirebbe. Il metodo che si utilizza nella statistica si chiama regressione
multipla, un metodo di stima di un modello in cui un certo numero di variabili (almeno due, ma in
generale un numero qualsiasi) è usato per spiegare una altra variabile.
L’argomentazione che assegna la validità incrementale al test anche quando la correlazione con il
criterio è bassa è identica a quella che esiste quando si parla di item ideali (malgrado la necessità di
avere una omogeneità tra gli item, tutti relativi allo stesso costrutto, essi idealmente dovrebbero
correlare con il punteggio totale del test, ma avere una correlazione nulla tra loro, perché così

72
contribuirebbero individualmente alla variabilità del punteggio totale). Ogni item avrebbe così una
validità incrementale.
Validità Differenziale: esempio di test di interesse, di atteggiamento, che correla in modo moderato
con il successo universitario, (tra le discipline diverse), possiede, quindi, ha una validità differenziale
per la prestazione accademica, mentre i test di intelligenza hanno correlazioni più alte per il successo
universitario, ma non possono differenziare tra le discipline, perché la natura dei test di intelligenza
è diversa da quella di interesse. L’intelligenza, infatti, secondo la definizione di Kline, è un fattore
coinvolto in ogni prestazione individuale, intellettiva e per questo è universale, obliqua su tutti i
campi. E’ improbabile, ad esempio, che l’interesse per la scienza, porti al successo nelle materie
scientifiche, in questo senso è differenziale.

E’ difficile capire la validità di costrutto, perché non è direttamente osservabile (Algina e Crocker).
La definizione di un costrutto è importante dal punto di vista di una immaginazione scientifica
informata, ossia è un’opera, un processo creativo dello psicologo o ricercatore, che ha delle basi
sulla letteratura disponibile e su quelle che sono le indicazioni che vengono dagli studi precedenti.
Questo costrutto deve avere anche una finalità, ossia la categorizzazione e la descrizione di alcuni
comportamenti osservabili.
E’ chiaro che esiste un’ampia varietà di test per cui non è adeguata nessuno dei concetti di validità
vista fino ad ora (contenuto, facciata, criterio) e per superare questa difficoltà Cronbach e Meehl
nel 1955 definiscono la validità di costrutto come il grado in cui uno strumento misura il costrutto
che si intende misurare, cioè gli attributi o le qualità psicologiche che si presuppone siano posseduti
dalle persone. E’ una definizione che può sembrare tautologica.

Per costrutto si intende un concetto o una definizione legato a una teoria, che non può essere
direttamente osservato ma solo inferito. In questa prospettiva la validità di costrutto rappresenta
un'analisi del significato del test in relazione al costrutto psicologico che il test misura, ovvero
un'analisi di quanto una data operazionalizzazione (per esempio un G test) misura effettivamente il
costrutto che intende misurare (Cook, Campbell, 1979).
La validità di costrutto non è espressa da un unico indice statistico, ma da una serie di osservazioni
e dati che forniscono un'informazione sulla natura del costrutto da analizzare.
I ricercatori costruiscono un test o una scala per misurare una determinata caratteristica o costrutto
psicologico, partendo quindi dalla definizione di elementi fondamentali che costituiscono il
costrutto, come una dimensione della personalità , ed attraverso il processo di operalizzazione
sviluppano gli item adatti a cogliere questi elementi fondamentali.
La relazione che unisce i costrutti agli indicatori, nei modelli psicometrici sono ipotizzati che i
costrutti, le variabili latenti generino ed influenzino gli indicatori o le variabili osservate : modello
riflessivo (studiato attraverso l’analisi fattoriale, diverso dai modelli formativi, studiati attraverso le
regressioni).
Questa relazione tra le variabili latenti ed gli indicatori sono giustificati da queste relazioni di tipo
riflessivo ed i punteggi degli item vengono combinati tra loro di solito in modo additivo (sommando
i risultati dei singoli item) per ottenere un punteggio complessivo che rifletta effettivamente la
presenza di un costrutto (ansia, attitudine a lavoro impiegatizio, socievolezza ecc.)
Per la validità di uno strumento di misura, è necessario considerare che si intende, oltre ad una
definizione concettuale e operativa del costrutto (che non è solo un’etichetta) che si vuole
misurare, viene anche compresa ed inferita anche dalla definizione delle reti di relazioni con
misurazioni diverse del costrutto, con misure di altri costrutti similari o dissimili, all'interno di un
sistema teorico e con misure di variabili presenti nel mondo reale.

73
Il costrutto è un tratto teorico intangibile rispetto al quale gli individui differiscono gli uni dagli altri.
E’ una categoria astratta, di quella che è un’idea utilizzata per descrivere il comportamento dei
soggetti, o per operare collegamenti logici tra comportamenti diversi.
Sul concreto il termine costrutto è legato a variabili direttamente osservabili, che necessitano di
essere inferite da ciò che effettivamente si misura, ossia i comportamenti dei soggetti. (intelligenza,
motivazione, capacità di leedership)
Bisogna tradurre, quindi, il costrutto astratto, teoretico, in termini di comportamenti concreti
(esplicazione del costrutto, che costituisce la chiave preliminare, la tipologia di validità di un test
)
Le tre fasi principali della esplicazione del costrutto sono:
- identificazione di comportamenti concreti che possono avere una relazione con il costrutto,
- identificazione di altri costrutti che possono essere collegati con i precedenti
- La decisione di quali comportamenti hanno con costrutti supplementari

La validazione dei punteggi di un test su uno strumento è legata alla teoria riguardante la natura del
costrutto di interesse: se questo è vero le ipotesi di relazione teorica tra il costrutto e gli altri
costrutti possono essere confermate e disconfermate e utilizzate come studio della validità della
misura in esame.
Gli strumenti statistici utilizzati per studiare la validità teorica possono essere espressi in termini di:
- consistenza interna, ovvero sulla base della tendenza di misure diverse a correlare molto tra loro
e ad essere influenzate allo stesso modo da trattamenti sperimentali;
-correlazione della misura del costrutto con altre misure relative ad altri costrutti;
- analisi fattoriale.
Il risultato conclusivo del processo descritto dovrebbe condurre a sostenere che il costrutto è:
a) ben definito in termini di osservazione;
b) ben rappresentato in termini di variabili manifeste;
c) eventualmente correlato con altri costrutti.
E' comunque molto importante tener presente che la validità di costrutto può essere sostenuta ma
mai provata; è infatti possibile che successive ricerche e studi possano dare nuove interpretazioni
dei risultati precedenti utilizzando anche nuovi modelli.

Validità convergente e validità discriminante del costrutto


La procedura più semplice per valutare la validità convergente (o congruente) consiste nel correlare
i punteggi di un nuovo test con i punteggi di un test già ampiamente validato.
Mentre i vari approcci per i test di intelligenza come fattore g o multiplo possono essere considerati
convergenti, in un costrutto come “l’amicalità”, bisogna vedere se i punteggi dei vari test
convergono con una correlazione alta e positiva (apertura mentale), quindi convergente per
esempio, i punteggi di nuovi.
Test di intelligenza possono essere confrontati connaltre misure validate come quelle dello
Stanford-Binet o del test di Wechsler-Bellevue
E’ la misura della dipendenza di ogni item con il fattore di riferimento. Si misura tramite correlazione
tra ogni item e la sua scale di appartenenza. in questo caso le misure non riguardano gli strumenti
bensì i costrutti: si correlano perciò le misure relative ad un costrutto con quelle ottenute per un
altro costrutto, teoricamente legato al primo. In questo caso, quindi, la possibilità di accertare la
presenza della validità dipende dall’esistenza di costrutti, e relative misure, legate con quello da
validare. Poiché si ipotizza sempre un certo livello di errore che abbassi il livello di affidabilità, tali
correlazioni osservate non raggiungono mai il massimo livello

74
La validità discriminante, consiste nel dimostrare un ragionevole grado di dipendenza tra le varie
aree che compongono uno strumento. è il grado di discriminazione tra due misurazioni di costrutti
diversi e si ha quando si ottiene un basso livello di correlazione tra i punteggi al test con quelli di
altre variabili con le quali teoricamente ci si aspetta che il test non correli.
Per la misura si può utilizzare il coefficiente di cograduazione di Spearman.
Corrisponde inversamente alla validità convergente e quindi risulta alta quando la misura del
costrutto da validare non correla con le misure di altri costrutti, teoricamente distinti dal primo.

Una delle procedure per la valutazione della validità di costrutto è l’analisi fattoriale.(riesce ad
individuare se il costrutto analizzato ha le stesse dimensioni del costrutto presupposto o un solo
costrutto che influenza tutti gli item)
Il problema che i metodi di analisi fattoriale cercano di risolvere si può fondamentalmente formulare
come: dato un insieme di misure vediamo se tutte misurano sostanzialmente la stessa variabile
psicologica o se invece ne misurano aspetti diversi, identificabili con sottogruppi di misure
La Matrice multitratto o multimetodo è un altro metodo di conferma di validità, che
contemporaneamente valida il metodo e il costrutto

Scorm 3 Validità Correlata al criterio (esterno):


criterio o predittiva, concorrente, convergente, discriminante
Può essere quantificata attraverso un test statistico.
Mentre per la validità di contenuto non sempre si è grado di garantire che gli stimoli, identificati
come indicatori della variabile psicologica del costrutto che si vuole misurare siano corrispondenti,
attendibili e validi, per questa validità è possibile avere indicazioni più chiare.
I test hanno funzione predittiva, con indicazioni sulla validità di comportamento del soggetto anche
nel futuro, rispetto ad un punteggio, o per verificare ipotesi teoriche, per cui il ricercatore vuole
tirare le fila di alcune somministrazioni di un test, per indicare quali saranno le performance rispetto
ad un criterio, che potrebbe essere misurato in altro modo.
La validità rispetto a un criterio permette di comprendere quanto un test sia efficace nel
prevedere le prestazioni future di un soggetto in una determinata attività o compito specifico.
Essa pertanto indica il grado di associazione fra il risultato di prestazione al test e un criterio
esterno rilevante, che il soggetto ottiene in un momento successivo rispetto alla somministrazione
del test; momento sia nell’immediato o a distanza.
Questa forma di validità si ottiene quando lo strumento dimostra di essere ben correlato con un
criterio, il quale deve necessariamente anch'esso essere valido, attendibile, rilevante rispetto a
ciò che si vuole misurare e «non contaminato» , cioè realmente indipendente dal test: è una
questione anche di modalità con cui questa misurazione viene fatta.
Essa può essere misurata attraverso il calcolo del coefficiente di correlazione tra le due misure che
esprime appunto il livello di validità dello strumento.
Il criterio è la prestazione o rendimento prevista per il soggetto in funzione dei punteggi ottenuti
al test in esame e fondati su misurazioni esterne di una stessa variabile.
La performance prevista diviene di fatto uno standard o un insieme di elementi su cui basare un
giudizio in relazione a situazioni differenti e per questo è definito criterio.
Il criterio ci serve a stabilire se il test misura quel tratto o quell’attributo per cui è stato progettato.
E’ necessario che sia validato nella storia.

Caratteristiche principali di un “buon” criterio

75
• RILEVANZA: deve realmente riflettere gli aspetti fondamentali del costrutto che si vuole misurare.
(Se l’esito lavorativo sarà un criterio rilevante della misurazione del rendimento al lavoro, questa
performance deve riflettere le abilità del lavoratore studiate nella fase di selezione del personale.)
• REPERIBILITÀ: essendo variabile deve essere facilmente individuabile.
• ASSENZA DI DISTORSIONI: la misura-criterio non deve essere alterata (bias). •PRAGMATICAMENTE
VANTAGGIOSA: la misura deve essere quello più semplice da usare e più facilmente reperibile. Le
misurazioni usate di solito sono le conseguenze di un risultato di un test, il rendimento, la
persistenza di comportamenti indagati dal costrutto e possono costituire il nostro criterio.( esempio
personale per Amazon per la creazione di pacchetti)
La struttura generale di uno studio della validità di criterio presenta le seguenti fasi:
• Identificare un criterio di comportamento idoneo e un metodo per misurarlo
• Identificare un campione appropriato di esaminandi, rappresentativo della popolazione dei
soggetti su cui il test sarà utilizzato successivamente.
• Somministrare il test e registrare singolarmente i punteggi ottenuti da ciascun esaminando.
• Laddove i dati di criterio siano disponibili, ottenere una misura di prestazione sul criterio per
ciascun soggetto esaminato.
• Determinare la forza della relazione tra i punteggi al test e le prestazioni rispetto al criteri

Validità rispetto a un criterio: concorrente e predittiva


criterio o predittiva: rappresenta la capacità di uno strumento di misurazione di realizzare previsioni
accurate;
La validità predittiva diviene particolarmente importante quando a livello pratico la misura da
validare ha funzioni operative e decisionali (assunzione di personale, creazione di servizi sulla base
di previste necessità di un gruppo di cittadini, ecc.); si riferisce alla relazione statistica esistente tra
il punteggio di un test ottenuto da un soggetto e il suo successivo comportamento, misurato
attraverso criteri.
Un esempio è legato al fatto che vi siano College che fanno una selezione in base a criteri sulle
caratteristiche dei soggetti di competenza e Q:I, per essere sicuri di avere laureati che appartengano
al top.
Alcuni studiosi sostengono che la relazione tra Q.I e successo accademico, non prova la validità del
test, perché queste correlazioni che dovrebbero suffragare la validità predittiva del test sono
spiegati in termini di alta influenza comune che agisce sul soggetto e sul test, come la classe sociale
di appartenenza, che spiega parte della variabilità del punteggio del QI e di quello ottenuto in ambito
accademico.
Ancora più difficile valutare la validità predittiva di un test di performance tipical, non cognitivo di
personalità, come l’Eysenck test. (introversione ed estroversione)
concorrente: corrispondenza tra i risultati ottenuti ed un criterio esterno correlato. Si misura
confrontando i risultati ottenuti da un pre- test con risultati noti, oppure confrontandoli con un dato
oggettivo.
Collega uno strumento ad altri per la misurazione di una stessa caratteristica; la risultanza di una
relazione statisticamente significativa è considerata come verifica di questa validità.
La validità concorrente consiste nell'ottenere contemporaneamente sia i punteggi di un test, sia
quelli di un criterio in una specifica, preselezionata popolazione (i soggetti selezionati devono essere
un campione ampio rappresentativo della popolazione di riferimento) e devono avere ricadute sulle
nostre norme di riferimento, e nel calcolare la correlazione fra le due serie di dati, accertando la
corrispondenza fra le prestazioni del test e la valutazione delle stesse caratteristiche effettuata con
procedure diverse.

76
Di solito si utilizzava nel vecchio esame di scuola guida in cui una parte era con carta e matita e se il
punteggio ottenuto era alto si poteva effettuare la prova pratica. Tra il test (misura del costrutto
competenza guida), e il criterio di performance nella guida della macchina c’è l’analisi della
prestazione che richiede altre capacità. Il test carta e matita ha alta validità di criterio concorrente
se molti soggetti che passano lo scritto, passano anche la pratica, se la correlazione tra lla riuscita
è elevata. Questo serve nel caso anche nella guida di un aereo (se non si hanno competenze base
sufficienti, non si dà al pilota la patente!!!)

Con questi due tipi di validità evitiamo problematiche che si sviluppano in seguito o che possono
succedere nella pratica e che la performance del soggetto sia elevata e la differenza è il tempo che
intercorre tra le prestazioni scelte: predittiva a lungo termine, concorrente a breve termine

Validità nomologica

Quando si parla di validità di uno strumento di misura bisogna tener conto non solo della definizione
concettuale e operativa del costrutto che si vuole misurare, ma anche delle relazioni con misurazioni
diverse del costrutto, con misure di altri costrutti all'interno di un sistema teorico e con misure di
variabili presenti nel mondo reale.
E’ il grado con cui il costrutto si inserisce in una serie di relazioni predittive con costrutti affini e
con criteri di riferimento (reti di relazioni)

Definizioni di validità secondo l’APA (Pedon, Gnisci)


Pedon e Gnisci (2004) hanno proposto un approccio ben strutturato che può agevolare la
comprensione di un concetto complesso e multisfaccettato come quello della validità: che
distingue diversi aspetti: la validità di contenuto, l'attendibilità, la validità di criterio (concorrente
e predittiva) e la validità di costrutto (esterna e interna).

77
MODULO 6, LEZIONE VIDEO SCORM 2 : RANGO,CENTILI, Z,T E NUVOLA DI PUNTI

Dopo aver visto nella lezione precedente in modo formale a cosa corrisponde l'affidabilità secondo la teoria
classica dei test e ricordando sempre come l’attendibilità definita da Anastasi si deve intendere anche come
fedeltà nel senso che fa riferimento alla coerenza dei punteggi ottenuti dallo stesso soggetto quando questi
venga sottoposto allo stesso test in occasione diverse, o in condizioni di somministrazione equivalente o in
diverse condizioni di somministrazione. Possiamo in questa lezione andare a vedere alcuni elementi di sfondo
che vorrei che voi ripassaste in modo da poter discutere ad es. sulla curva gaussiana e cosa sono i punti
standardizzati e così via. Innanzitutto cominciamo con quelle che sono le assunzioni base della teoria classica
dei test, cioè quelle che giustificano il discorso che abbiamo fatto nella lezione precedente, che abbiamo visto
78
che l'attendibilità è la proporzione di varianza vera, quindi corrispondente al costrutto in analisi rispetto alla
varianza totale del nostro punteggio .
La prima di queste assunzioni è che la media degli errori casuali deve essere nulla altrimenti esisterebbe un
errore sistematico, quindi se avessimo gli errori casuali che pur fanno parte del punteggio grezzo di un
soggetto che non avessero una media uguale a zero (se presa appunto nel loro insieme), ma se la media fosse
inferiore o superiore allo zero, allora avremmo un errore sistematico in positivo, in negativo e non più un
errore casuale che distribuendosi in modo gaussiano ha come media zero.
Il secondo assunto è che la correlazione tra il punteggio vero e l’errore casuale deve essere nulla, come
vedete R e Ve cioè la correlazione tra punteggio vero e l'errore casuale, deve essere uguale a zero. L'entità
dell'errore di misura che si commette deve essere indipendente, cioè non deve avere una relazione con
l'entità delle caratteristiche che stiamo misurando. Se lo vogliamo dire il modo più semplice dobbiamo
supporre la stessa probabilità di commettere errori grandi o errori piccoli, in relazione a quantità grandi o
piccole della caratteristica del costrutto che stiamo analizzando; in caso contrario se a quantità grandi
corrispondessero errori grandi, e a quantità piccole corrispondessero errori piccoli, o viceversa ci fosse una
regola, l'errore non sarebbe più casuale ma sarebbe di tipo sistematico.
L'ultimo assunto che dobbiamo analizzare e ricordarci, é che anche la correlazione tra due errori qualsiasi
deve essere nulla, come vedete ( vedi slide “ Rappresentazione delle componenti di punteggio ottenuto a un
test”)R di errore uno e due ( rE1E2=0) la coefficiente di correlazione tra errore uno e errore zero deve essere
uguale a zero. Questo perché non è concepibile che un errore, se casuale, possa anche in qualche modo
essere legato all'errore commesso nella misurazione precedente, successiva, o in qualsiasi altra misurazione
.
Da questi tre assunti derivano poi le possibilità di fare i passaggi, per cui dalla formula della teoria classica dei
test per cui punteggio grezzo equivale al punteggio vero più un errore, che otteniamo che l'indice di
attendibilità è dato dalla varianza del punteggio vero fratto la varianza del punteggi osservati, ovvero uno
meno la varianza dell'errore diviso la varianza dei punteggi osservati.
Dato che abbiamo già più volte richiamato questo discorso di punteggi veri e punteggi standardizzati
eccetera, andiamo a vedere che cosa sono questi punteggi e poi faremo un piccolo ripasso della correlazione
lineare, dato che già l'abbiamo richiamata più volte in questa prima lezione e seconda lezione del modulo e
poi sarà ancora più rilevante quando andremo a vedere le modalità di valutazione della correlazione
all’interno dell'attendibilità e quindi è meglio andare a vedere come si costruisce questo indice, qual è il senso
che ci restituisce questo tipo di test statistico.
Perché non si interpreta direttamente il punteggio grezzo di un test? Questa è una domanda che vi sarete
posti più volte quando avete incontrato anche nel corso di Psicodiagnostica eccetera,avrete trovato delle
indicazioni per cui i manuali di test riportano i percentili, i punti Z, i punti T e così via. Innanzitutto perché i
punteggi grezzi sono implicitamente legati alla scala di misura originaria, per cui per superare quelle che sono
le limitazioni dovute alla specifica costruzione di un testo, rispetto al costrutto di riferimento, si possono
utilizzare alcuni alcune operazioni, e queste operazioni, manipolazioni dei punteggi grezzi non cambiano
effettivamente il valore conseguito dal soggetto (abbiamo detto che la valutazione è standardizzata, che ci
sono delle procedure, inoltre non deve il somministratore, lo Psicologo essere in grado di modificare in base
alla propria soggettività il punteggio), se questa manipolazione successiva modificasse il significato punteggio
ottenuto da un soggetto allora avremmo di nuovo violato quelle che sono le indicazioni per ottenere un test
psicometrico.
Una prima operazione che si può effettuare sui punteggi grezzi e quella di un'espressione di questi punteggi
in termini di percentuale di risposte corrette. Nonostante tramite questa operazione abbastanza semplice
sia possibile attribuire al risultato individuale un significato, una prospettiva più completa, sempre rispetto
da quanto consentito dal semplice punteggio grezzo, tuttavia questa manipolazione non permette di cogliere
il valore relativo dei punti percentuali calcolati. Pertanto si rende necessario procedere con procedure di
trasformazione del punteggio grezzo attraverso uno scale più informative, ovvero la conversione dello stesso
punteggio in misure relative che, in quanto relative, risultino interpretabili e confrontabili con altri punteggi.
Come vedete la prima modalità che ci permette di effettuare questo confronto è la trasformazione in ranghi
e punti centili o percentili. Attraverso questa trasformazione e il ricorso ai percentili e ai ranghi otteniamo
un riferimento del punteggio grezzo ad un ipotetico campione di certi soggetti - è come se suddividessimo in

79
100 parti uguali la nostra distribuzione dei dati. Il rango centile di una data misura indica la percentuale dei
punteggi che si colloca al di sotto di quel valore, sempre partendo dal presupposto che si abbia a disposizione
una distribuzione ordinata in base ad una graduatoria; quindi è possibile effettuare questo tipo di
trasformazione a partire da variabili di tipo ordinale misurate su scala ordinale. In una distribuzione di questo
tipo l'ultimo classificato è contraddistinto dal numero uno corrispondente alla percentuale di soggetti pari o
inferiore in merito a quel punteggio, mentre al primo viene assegnato un rango, in un numero 100 in quanto
tale soggetto è pari o superiore al 100% del gruppo.
Il principale limite dei ranghi centili deriva dal fatto che non sono effettivamente delle variabili metriche,
quindi essendo variabili ordinali questo rende impossibile determinare le entità della distanza tra la posizione
e quella successiva della graduatoria, quindi non vi è una unità di misura come per le variabili su scala ad
intervalli o rapporti . Questa impossibilità di ancorare ad una unità di misura il nostro rango, e quindi la
posizione, vuol dire che, anche come tendenza centrale, dobbiamo fare riferimento alla mediana. Un secondo
limite dei ranghi centili,consiste nell’alterazione della distribuzione, nel senso che c'è un'accentuazione delle
differenze tra i punteggi nella corrispondenza della mediana e allo stesso modo una riduzione delle differenze
tra i punteggi collocate alle estremità, e comunque i valori estremi sono minori e più distanziati e in questo
caso la loro distanza viene ridotta.
Il punto percentile non coincide con il rango ma in realtà è il punteggio che corrisponde al rango stesso,
mentre il rango indica la percentuale di dati soggetti che si colloca in posizione pari o inferiore rispetto ad
un dato punteggio, il percentile e il punteggio sotto a quale si colloca una certa percentuale di dati o di
soggetti, quindi è esattamente l'inverso. Successivamente possiamo vedere che per ottenere le norme
bisogna trasformare i punteggi grezzi mediante il processo di standardizzazione. Questo processo consente
di andare oltre a quelli che sono i limiti dei ranghi percentili che indicano soltanto la posizione all'interno di
una serie di misure ma non la distanza che c'è tra il punteggio e l'altro. Invece la standardizzazione, cioè la
trasformazione dei punteggi grezzi i punti standard, consente di ottenere contemporaneamente sia le
indicazioni relative alla posizione dei singoli punteggi, all'interno sempre della distribuzione corrispondente,
sia le loro distanze, le rispettive distanze. La possibilità di compiere questa trasformazione da un uso più
immediato e pratico della media della direzione standard. Standardizzare la misura significa riferire la
misura stessa ad una scala standard detta anche scala Z,dei punti Z, con media e varianza nota.
Praticamente si assume come nuova origine della distribuzione la media della distribuzione stessa e si
trasformano in singoli dati in scarti della media; come vedete da queste immagini ( vedi slide “curva normale
standardizzata”)abbiamo due distribuzioni diverse sempre entrambe di forma normale che possono
corrispondere a due test diversi misurati su scale diverse e avete anche la formula della curva normale in
generale. Come vedete è possibile trasformare quindi riportare ad una curva normale standardizzata più in
basso, entrambi i punteggi rilevanti sulle due differenti curve normali e su questa scala standardizzata il punto
medio è uguale a zero e la direzione standard vale uno; affianco trovate anche la formula per questo tipo
particolare di curva normale. Al posto quindi della serie di misure grezze si ottiene una distribuzione di
deviazione dalla media attraverso la sottrazione di ciascun valore grezzo detto X con i (Xi) dalla media M, e il
significato di tali scarti, direzioni, chiamate anche in questo modo, cambia secondo della variabilità della
distribuzione: quindi dividendo per la direzione standard a seconda del valore della direzione standard
otteniamo una posizione diversa dal punteggio Z della deviazione. Quindi la direzione standard diventa la
nuova scala di misura che ci permette di esprimere la posizione di qualsiasi misura grezza in un in unità di
misura indipendente dal tipo di misurazione originaria.
In ultimo abbiamo la conversione dei punteggi grezzi in punteggi T, stanine, sten. Quando si usano questi
tipi di punteggi? Questi tipi di punteggi assolvono alla risoluzione di un problema, cioè quando operiamo una
conversione dei punteggi grezzi in punteggi standard può succedere che otteniamo punteggi Z sia positivi sia
negativi e anche di qualche decimale. Nel caso in cui dobbiamo andare a comunicare questi valori ottenuti
nei punti Z ai soggetti, dobbiamo porre rimedio a questo limite di avere dei punteggi Z e avere anche punteggi
negativi e punteggi decimali che rendono l'interpretazione del punteggio un po' più difficoltoso nella
comunicazione al soggetto. Moltiplicando un punteggio standard normalizzato cioè un punteggio Z per 10 e
aggiungendo 50 al prodotto così ottenuto si ottiene un punto T. Quindi il punto T ha media 50, e deviazione
standard 10. Questa scala fu ideata nel 1922 da Mccall e da lui definita scala T in onore del suo maestro
Thorndike. Come vedete dato che i punteggi Z al massimo possono arrivare a -4, vanno verso fino infinito,

80
ma è chiaro che i punteggi al di sotto di -4 non sono osservati praticamente mai, allora i punteggi T non
avranno mai un punteggio al di sotto di 10 o comunque uguale a zero, per non parlare poi dei punteggi di
tipo negativo; statine, sten sono ulteriori trasformazioni che adesso vengono utilizzati sempre di meno,
comunque sono trasformazioni standard nine o standard ten che hanno medie e direzione standard ancora
più diverse.

Domanda test Scorm: “ Utilizzare i punti Z e punti T implica cambiare la magnitudine dell'osservazione
fatta (esempio punteggio del test) : FALSO ( Perché rimane la stessa cambia solo la scala di riferimento).

Ultima cosa prima di andare avanti, per ricordare alcuni principi della curva normale standardizzata detta
anche curva normale e poi curva di Gauss e poi la versione standardizzata che abbiamo visto
precedentemente, vi ricorderete che costituisce il modello di distribuzione maggiormente utilizzato per la
misurazione in ambito psicologico data la sua adeguatezza da rappresentare la distribuzione di grandi
quantità di caratteristiche di tipo non direttamente osservabile. Tale curva ha una forma caratteristica a
campana e la curva che otteniamo, immaginando di sottoporre a un campione ipoteticamente molto
numeroso da tendere all'infinito, un certo test.
La curva normale gode di tre fondamentali proprietà- ve le ricorderete : è simmetrica, con un accumulo di
valori al centro è una dispersione degli stessi verso le estremità,gli indici di tendenza centrale ossia media
moda e mediana sono sovrapposti si trovano tutti al centro e corrispondono al punto in cui la curva raggiunge
il suo apice e l'area sottesa alla curva gaussiana ha un valore pari a uno. Da un punto di vista teorico è possibile
ottenere una distribuzione perfetta che presenti le caratteristiche che abbiamo appena detto, ma in natura
osserviamo anche a causa della limitatezza dei campioni che utilizziamo, alcune distribuzioni che sembrano
avere una forma normale, tendenzialmente normale.

Adesso discutiamo del coefficiente di correlazione. Innanzitutto conviene partire dal diagramma a
dispersione (Scatterplot) la cosiddetta nuvola dei punti e come si costruisce poi questo diagramma in modo
da spiegare poi in cosa consiste la correlazione lineare. La prima cosa da fare quando si intende studiare la
correlazione tra due variabili metriche è sicuramente quello di rappresentarle graficamente, queste due
variabili, mediante un diagramma di dispersione. Un diagramma di dispersione non è altro che un sistema di
riferimento cartesiano, come vedete (vedi slide "diagramma a dispersione Scatterplot) abbiamo i nostri assi
cartesiani dove vengono posti sull'asse orizzontale detto asse delle ascisse, i punteggi della variabile X,
mentre sull'asse verticale, le ordinate, i punteggi della variabile Y; quindi per ciascuno dei nostri soggetti
abbiamo un punteggio per la variabile X e un punteggio per la variabile Y, abbiamo una coppia di punteggi. I
punti relativi a ogni soggetto vengono individuati in corrispondenza dell'incrocio della verticale che parte dal
valore delle ascisse, quindi in questo caso se il valore di Ralph (vedi slide) parte da due in verticale e dall'altra
dalla retta che parte dal valore delle ordinate, in questo caso è uno, quindi il punto corrispondente al soggetto
è dove si incontrano, dove si incrociano orizzontale e verticale di queste due rette. La valutazione della
relazione con l'età ad esempio, quindi la relazione tra un test e l'età, è una delle analisi di routine degli studi
di validazione di un test psicologico e laddove abbiamo un punteggio di un test,per es al Big Five
Questionnaire, e l'età dei soggetti, possiamo andare a fare un'associazione, disegnare quelle che sono le
posizioni dei soggetti; quando andiamo a vedere diversi soggetti, otteniamo una serie di punti dispersi
sull'asse cartesiano e questo insieme di punti è detto “nuvola di punti”. Dalla corretta valutazione della
nuvola di punti dipende l'adeguatezza dell'impiego dei coefficienti di correlazione di Pearson come misura
dell'associazione di due variabili. Per interpretare questa nuvola di punti la prima domanda che dobbiamo
porci è: "la relazione può essere considerata come lineare, ovvero rappresentabile, sintetizzabile con una
linea retta?" Dipende in effetti da che tipo di rappresentazione abbiamo, in questo caso è chiaro che tutti i
punti sono disposti lungo quella che sembrerebbe una linea retta (si riferisce alla retta nella slide "cenni sulla
funzione lineare" ). Inoltre la natura di questa nuvola intesa come assunzione di linearità della relazione tra
due variabili, ci indica anche la modalità più parsimoniosa, più sintetica per spiegare la relazione tra i dati.
Ora in realtà come vedremo non esiste solo un tipo di relazione tra due variabili di tipo lineare, però quella
lineare è la più facile da interpretare, per questo inizialmente ma tuttora si cerca di spiegare le relazioni
attraverso questo tipo di modello linea retta, la linea può essere interpretata come modello di spiegazione.

81
L'uso smodato del coefficiente di correlazione di Pearson naturalmente può portare a clamorosi errori
laddove la relazione la base dell'associazione tra due variabili non sia di tipo lineare e quindi l'ispezione del
diagramma di dispersione a monte dell'applicazione del coefficiente può evitare di incorrere in tali errori. Qui
trovate naturalmente cenni su quelli che sono le caratteristiche specifiche della funzione lineare (vedi slide
"Cenni sulla funzione lineare"); come vedete si riferisce alla slide successiva “ coefficiente di correlazione
prodotto - momento di Bravais-Pearson) diversi tipi di diagrammi Scutterplot e nuvole di punti possono
determinare gradi di associazione con variabili di tipo diversi, laddove sia distinguibile una specie di ordine
nella posizione dei punti è chiaro che c'è da presupporre che vi sia una relazione tra due variabili; questo tipo
di relazione però è molto diversa da quella che è la reale relazione lineare che vedete ad esempio qui , dove
abbiamo una perfetta correlazione lineare, infatti l'indice è pari a uno,infatti il coefficiente correlazione varia
tra meno uno e uno e il valore zero indica l'assenza dell'associazione di tipo lineare; questo non vuol dire che
non ci sia un altro tipo di relazione di sottofondo. La correlazione infatti indica la corrispondenza con la
connessione tra due variabili mentre il coefficiente di correlazione, nostro simbolo R è un indice numerico
che esprime il grado di variazione concomitante tra una singola variabile indipendente e una singola variabile
dipendente. Tra due variabili abbiamo detto che siamo noi a decidere qual è la variabile indipendente e qual
è la variabile dipendente e il ruolo di x e y. In altre parole il nostro coefficiente di correlazione ci dice quanto
è in grado in cui le variabili X e Y sono legate correlate tra loro. Abbiamo detto che il significato di questo
coefficiente di correlazione è espresso dal suo segno algebrico cioè da più o meno, positivo nel caso di una
correlazione positiva, all'aumento di una variabile aumenta anche la seconda, negativo quando l'aumento
dell'uno corrisponde alle dimensioni dell'altro e viceversa. Naturalmente la correlazione varia a uno o -1 e di
tipo teorico, non osserverete mai questo valore perfetto di uno, è difficile trovare correlazioni così perfette
nella ricerca psicologica ma nella ricerca in generale. Ad esempio anche variabili che sono molto correlate tra
di loro, ad es. il peso e l’altezza, tendono ad esser correlate positivamente, nel senso che aumentano
simultaneamente, più una persona è alta più pesa ( in termini generali naturalmente), sono il primo a non
avere una corrispondenza tra altezza e peso, però è innegabile che vi sia una correlazione positiva. Così come
ci possono essere due variabili che decrescono simultaneamente ad esempio la scarsa preparazione e un
punteggio basso agli esami. La correlazione in negativo cioè inversa, si ottiene invece quando una variabile
aumenta e l'altra diminuisce ad esempio come il caso in cui il soggetto che ottiene il punteggio più alto al test
di abilità di lettura è più scadente nella test di matematica. Un'ultima cosa è da ricordare che il valori
intermedi del coefficiente di correlazione indicano un'esistenza tendenziale di una relazione vedi in questo
caso la nuvola di punti che rappresenta quella che dovrebbe essere una relazione lineare ma con discrepanze
che poi possono aumentare fino a non più questa presentazione tipo lineare. Va molto sottolineato che è un
coefficiente di correlazione è l'indice della connessione tra due variabili ma non dell'esistenza di una
relazione causale tra di esse, e che la correlazione non vuol dire causa azione e però questo coefficiente
permette un'indicazione di predizione cioè se si sa che due variabili sono tra loro correlate dovrebbe poter
essere possibile predire, tra le nostre finalità della ricerca, predire con vari gradi di accuratezza, a seconda
naturalmente dell’entità del coefficiente di correlazione, il valore di una variabile dipendente Y conoscendo
quella della variabile indipendente X.

Modulo 6 – LEZIONE 3
I coefficienti di correlazione e attendibilità dei test
Esistono altri coefficienti di correlazione, oltre a quello di Pearson, che presuppone che entrambe le variabili
siano misurate su una scala di tipo metrico quantitativo, e questi coefficienti sono utili quando le variabili
hanno diversa natura e quindi sono misurate con scale di misurazione di livelli più bassi. Ad esempio il
coefficiente RO di Spearman denominato coefficiente di correlazione per ranghi usato quando:
1) La dimensione del campione sottoposto a test è piccola (in genere minore di 30 coppie di misurazione
o osservazione e sappiamo che quando il numero è più basso non possiamo ad esempio utilizzare il
teorema del limite centrale, anche in questo caso non possiamo presupporre che la curva sia
perfettamente normale e nel test delle ipotesi si utilizza quindi il test T ma per la correlazione si usa
l’indice RO di Spearman
82
2) Quando le due misure sono di tipo ordinale

Esiste il coefficiente biseriale utilizzato nel calcolo dell’attendibilità del test punto biseriale
Poi c’è il coefficiente tetracorico che si utilizza quando entrambe le variabili sono rese arbitrariamente
dicotomiche (esempio alto o basso per quello che riguarda il reddito).
Quando la seconda variabile è realmente dicotomica come nel caso di Maschio/Femmina invece si utilizza il
coefficiente punto biseriale.
Per l’impiego del coefficiente tetracorico le variabili devono essere connesse in modo lineare e ciascuna delle
corrispettive distribuzioni sia normale. Inoltre il campione deve essere molto alto (almeno 300 soggetti)

Esempi di diagramma di dispersione

83
Nell’esempio a destra in alto quando aumenta una variabile diminuisce l’altra e nel secondo esempio in
mezzo il contrario.

Abbiamo detto che non c’è solo una relazione di tipo lineare ma ne esistono altre di tipo curvilineo.
Esempio in basso a sinistra (parabola capovolta) A bassi livelli di ansia corrispondono bassi livelli di
prestazione poi se l’ansia aumenta allora aumenta la prestazione e poi quando continua ad aumentare le
prestazioni cominciano a diminuire. Oppure nell’esempio meno è complesso lo stimolo visivo meno piace poi
aumentando la complessità aumenta anche il piacere nel guardarlo poi quando la complessità diventa troppo
alta comincia a mancare di nuovo l’apprezzamento.
Soffermarsi sugli esempi di relazione lineare e curvilinea. Mettere in pausa e provare a definire gli esempi
che tipo di correlazione rappresentano cioè se positivo, negativo o curvilineo.

84
Coefficiente di correlazione prodotto-momento di Bravais-Pearson
(Pearson Product Moment Correlation Coefficient)

85
Standardizzando la formula diventa

La media aritmetica dei punteggi standardizzati corrispondono al coeff di Pearson.

La standardizzazione può avvenire anche dopo il calcolo.

Esempio di calcolo
(provare a farlo è il modo migliore per capirlo, si tratta di ripetere i passaggi indicati di seguito)

86
87
La statistica bivarita rispetto a quella univariata che si occupa di una sola variabile, è più complessa perché
rappresenta la relazione tra due variabili diverse quindi rappresenta due gruppi di punteggi. Una prima
distinzione da fare riguarda il tipo di relazione che possiamo stabilire tra le variabili oggetto di studio. La
presenza di covariazione o correlazione (che è la standardizzazione della covariazione) è una prima
indicazione che c’è una relazione ma non vuol dire che vi sia una causa. Il coefficiente di correlazione non ci
può dare questa informazione. Si risolve attraverso la verifica della significatività della relazione e nello
stabilire la forza della relazione di lavora sulle frequenze utilizzando ad esempio statistiche che possono
essere derivate anche dal chi-quadrato. Nell’interpretazione dei risultati ottenuti attraverso un’analisi
bivariata bisogna ricordare che questo tipo di analisi prende in esame due variabili alla volta non valutando
l’effetto di altre variabili. Se vi ricordate nel modulo 3 in cui parlavamo di variabile spuria ecc. La possibilità
di variabili moderative il modello bivariato può sempre risultare insufficiente per spiegare quelli che sono
fenomeni complessi come quelli psicologici.
Il coefficiente di correlazione misura solo l’entità di una relazione lineare e che quindi la possibilità che ci
siano altre relazioni anche dalla presenza di un punteggio di correlazione pari a 0.

88
Il coefficiente di correlazione come indice di analisi dei dati non veicola un’informazione fondamentale
ovvero quanta variabilità condividono le due variabili. Questo dato è fornito dal COEFFICIENTE DI
DETERMINAZIONE R-quadro. Può essere interpretato in questo modo: un coefficiente di
correlazione di 0,5 non significa che la metà della variabilità di Y è spiegata dalla sua relazione lineare con X
poiché la correlazione perfetta è uguale a 1. Una correlazione di 0,5 corrisponde ad un coefficiente di
determinazione R-quadro uguale a 0,25, cioè una proporzione di variazione comune spiegata dalla relazione
tra le due variabili del 25%. Quindi è corretto affermare che un quarto della variabilità di Y è spiegato dalla
sua relazione lineare con X.
C’è un altro valore che è 1-R-quadro che viene ad indicare la proporzione di variabilità di X e Y non spiegata
dalla loro relazione lineare ed è talvolta indicato come COEFFICIENTE DI ALIENANZIONE.
In questa immagine presa da Chiorri c’è illustrato il concetto di variabilità comune tra le due variabili. Per
l’interpretazione del coefficiente di determinazione ci sono delle indicazioni tendenziali come per il
coefficiente di correlazione. Di solito viene scelto 0,3 come valore di cut-off per l’interpretazione sostanziale
del coefficiente di correlazione dato che il valore del coefficiente di determinazione R-quadro corrispondente
è 0,09. Significa che le due variabili in esame hanno in comune almeno il 10% circa di variabilità che
rappresenta il minimo sindacale perché abbia senso considerare la relazione tra le variabili

Modulo 9 . 3. TEST DI PERSONALITA’


Partiamo dalla definizione di personalità secondo Ercolani. La personalità di un individuo è definita come un
insieme relativamente stabile e distintivo di comportamenti, pensieri e sentimenti che lo caratterizzano e che
influenzano le sue interazioni con l'ambiente. (Ercolani 2007)
Già in questa definizione ci sono entrambe le caratteristiche costitutive dei test: l’aspetto dei
“comportamenti” e dell’ “insieme”, significa che quando vado a fare campionamento di questi
comportamenti distintivi e stabili otterrò un campionamento rappresentativo. Dall’altra parte questi
comportamenti influenzeranno la relazione del soggetto con l’ambiente quindi analizzare in modo
standardizzato i comportamenti ci permette di tornare al profilo di personalità dell’individuo.
Una distinzione più semplice di test è di rendimento ( performance massima) e test di personalità (obiettivi
oppure proiettivi).

89
Questi reattivi di personalità obiettivi si prefiggono di esplorare la personalità o nella sua globalità o in
qualche sua dimensione. La finalità è legata alla classificazione e creazione di tipologie. L’interpretazione dei
dati è di tipo quantitativa- qualitativa a differenza di test di rendimento.
Diversi tipi di strumentazione sono nati in riferimenti a diversi tipi di metodi.
Rispetto alla segmentazione basata su influenze culturali se mi focalizzo sul fatto che i test siano culture free
o specific ci saranno due estremi all’interno dei quali troviamo i test in base al fatto che siano più o meno
influenzati dalla cultura.
L’EPI (modello teorico con validazione sperimentale) si basa su costruzione dei reattivi in base a modello
teorico. Si parte da costituzione di fattori dal punto di vista teorico e poi si fa confronto con i risultati ottenuti
dal test per confermare il modello.
Rispetto ai test a banda stretta il Beck depression inventory misura depressione, che di tutte le condizioni
cliniche patologiche è quella su cui sono fatte più analisi. Fornisce strumenti per le varie considerazioni sullo
stato clinico dei soggetti. Critiche al modello è che le domande sono intrusive e generano ansia Inoltre è
relativamente costoso. Il vantaggio invece segnalato è la rapidità di somministrazione e l’ampia disponibilità
di ricerche esistenti con cui comparare dati. In generale per quanto riguarda la classificazione tutti questi test
differentemente da quelli cognitivi usano la scala T (Cioè non esistono punteggi negativi Z) e quindi è più
semplice comunicare al soggetto i risultati. Dal punto di vista della valutazione clinica si usano soglie Cut off
che danno livelli di rischio patologico validi per la cinica.
Modelli di test non cognitivi si distinguono in categorie che derivano dalla combinazione del tipo di
comportamento descritto negli item (patologico non patologico) e dal numero di caratteristiche o tratti di
personalità latente utilizzati per tracciare il profilo della personalità. Si parla di scale a bande strette o larghe
a seconda che ci siano poche o numerose caratteristiche prese in considerazione.
Esempi: Per quanto riguarda MMPI è un tipo di test a banda larga che si occupa di comportamento
patologico. Il CATTEL 16, sempre a banda larga, è molto utilizzato per la selezione del personale e riguarda
molti tratti ma pone enfasi su comportamenti e tratti non patologici al contrario del MMPI.
Si ottiene un profilo su 16 dimensioni, create statisticamente attraverso metodi di analisi fattoriale in base a
indici di controllo delle distorsioni delle risposte. È molto facile da somministrare. I 16 fattori creano un profilo
di personalità che può essere direttamente mostrato al soggetto. Lo svantaggio per chi somministra è che
alcuni fattori di personalità hanno nomi poco comprensibili e diventa difficile capire e spiegare cosa
significano. Alcuni di questi fattori non sono piacevoli da riportare al soggetto (come l’esplicitazione di
caratteristiche di insicurezza /di dipendenza dal gruppo…ecc. ) E’ molto utile perché permette di individuare
uno dei fattori dell’intelligenza (rapida)
Rispetto al MMPI, negli anni 40, l’ obiettivo che spinse a rivolgere la ricerca al di fuori della Formazione
scolastica (area privilegiata della testistica) era lo scopo empirico derivato da richieste dell’amministrazione
pubblica e militare, di individuare uno strumento di misurazione non cognitivo per le reclute che bisognava
esaminare (comprendendo quanti individui potevano essere giudicati inabili). Per questo si dovevano
somministrare batterie di test. Ci fu il questionario auto descrittivo che presuppone una certa consapevolezza
del modo di sentire, di come ci si comporta e di come ci si pensa oltre che capacità di esprimerlo attraverso
domande standard (item).
Tutt’ora utilizzato nell’ambito della psicometria (non vanno sottovalutati gli effetti distorsivi) , ma per quanto
sia standardizzato non c’è certezza controllata rispetto ai test autosomministrati in quanto può non esserci
corrispondenza tra le risposte del partecipante o soggetto rispondente e la realtà perché non siamo sicuri ci
sia corrispondenza tra ciò che prova e ciò che dice. Potrebbe distorcere risposte per dare un’immagine più
positiva oppure più negativa di sé per risultare inabile ad esempio (fingersi peggiori). Tra gli effetti distorsivi
del soggetto ci può essere la tendenza a rispondere sempre una stessa risposta, oppure alcuni soggetti non
usano mai gli estremi ma sempre i valori mediati, oppure la desiderabilità sociale (risposte approvate).
Queste sono fonti di validità interne intrinseche controllate attraverso le strategie come inserimento di item
con frequenza di risposta pertanto se soggetti ottengono un punteggio positivo di questi item allora c’è
sospetto sulla qualità delle risposte.
Ne è un esempio l’inserimento di item di contenuto opposto o in contrasto che mettono in evidenza la
incoerenza delle risposte, oppure la tendenza a rispondere sempre in positivo (acquiescenza).
Attraverso questi accorgimenti è stato possibile ottenere punteggi che sono informativi della personalità.

90
L’MMPI necessitò di una revisione in quanto diventa difficile col passare del tempo utilizzare strumenti fissati
non aggiornati perché ci sono cambiamenti nel tempo che influenzano la descrizione nosografica della
sintomatologia clinica. È pertanto difficile creare strumenti che individuino caratteristiche costitutive della
personalità sebbene questi test puntino proprio ad un approccio di questo tipo = creazione di invarianti di
personalità che vengono successivamente incluse all’interno di scale.
MMPI 2 Si è operata una revisione perché nella pratica clinica si sono riscontrati dei problemi cioè i punteggi
sembravano non poter adempiere alla funzione di fare diagnosi. Diventava difficile fare valutazione sulle
scale diverse per inadeguatezza del campionamento che già originariamente era ristretto, costituito da
visitatori amici parenti di pazienti in gran parte bianchi. Era un campione più di convenienza che normativo
è già in fase iniziale era poco rappresentativo. Inoltre c’erano problemi dovuti al linguaggio (contenuto di
item) e riferimenti a elementi non più di uso quotidiano (linguaggio sessista): la formulazione del linguaggio
degli item creava disaccordo. Inoltre il set originario non era così ampio. Questa esigua numerosità si
riflettevano nell’ incorretta valutazione delle caratteristiche necessarie ad un Assessment psicopatologico.
Esempio: pochi item riguardavano il tentativo di suicidio, dipendenza da alcol e comportamenti correlati.
Negli anni 70 si assiste alla revisione a seguito della necessità di raccogliere e svolgere un lavoro certosino
che costò l’impegno di numerose risorse per oltre 10 anni.
Nel 1982 si cominciò una frase di standardizzazione del MMPI-2
Rappresenta un esempio di come test devono subire manutenzione continua. Il controllo e la
standardizzazione dello strumento è passata attraverso:
- Sostituzione item obsoleti / offensivi e di difficile comprensione
- Ampliamento del campione,più rappresentativo
- Mantenere continuità con scale cliniche originali, in modo da permettere a coloro che interpretavano
il test di fare affidamento su esperienza pregressa.

91

Potrebbero piacerti anche