Sei sulla pagina 1di 48

Buono studio!!!


Monica

Prima di iniziare la trattazione degli argomenti del corso di Tecniche di Ricerca ed Analisi dei
dati per l’analisi dei dati si ritiene utile spiegare come verrà impostato il percorso formativo
stesso.
Questo corso è da intendere come completamento “avanzato” del corso di Psicometria
appartenente al ciclo di laurea triennale e per questo ne condivide molte problematiche legate
alla formazione e preparazione. Anche in questo caso l'esperienza di insegnamento di questa
disciplina ha dimostrato come questo sia percepito generalmente come ostico ed ansiogeno, e
per questo affrontato con preoccupazione se non addirittura avversione. È facile capire come
queste attitudini possano influire sui risultati di apprendimento e conseguentemente sull'esito
dell'esame finale. È interessante osservare come la stessa "ansia statistica" (statistics anxiety
cfr. Onwuegbuzie, 2000; Zeidner, 1991) sia stata oggetto di studio da parte degli psicologi e
che vi siano addirittura questionari per misurarla (es. Statistical Anxiety Rating Scale; Cruise, Cash,
& Bolton, 1985). Molti studi si sono occupati delle difficoltà di insegnare la statistica
agli studenti di psicologia, ad esempio LaLonde and Gardner (1993) hanno proposto e testato
un modello di profitto in statistica che combina l'attitudine matematica e l'impegno
individuale con l'ansia e la motivazione come predittori.
In ogni caso se provate dell'ansia è necessario individuarne e valutarne le cause. La principale
è che gli studenti pensano che per affrontare il corso di psicometria sia necessario essere
molto competenti in matematica. Innanzitutto è utile pensare a questo corso come un nuovo
inizio, le prestazioni passate non dovrebbero e non influenzano nella pratica la comprensione
della statistica. In appendice A trovate un piccolo focus su alcune questioni matematiche e in
ogni caso la preparazione base della scuola dell'obbligo che è una piccola espansione di quella
approntata per il corso base di psicometria. Questo corso, soprattutto negli ultimi moduli, farà
largo uso delle tecniche di analisi statistica apprese nel corso di Psicometria, giustificandone
di fatto l’essenzialità per il corso di studi, e comprendere concetti statistici concreti come la
media aritmetica, non dovrebbe essere più difficile che comprendere concetti psicologici
teorici, talvolta abbastanza vaghi come l'attitudine. D’altronde se nessuno studente mette in
dubbio lo status di disciplina scientifica della Psicologia e questo status si fonda sulla
metodologia della ricerca sperimentale fondata sul ragionamento matematico e statistico è di
difficile comprensione il rifiuto istintivo manifestato dagli stessi allievi verso un
ragionamento di tipo numerico/simbolico. Facilitare il ragionamento e spiegare passo passo le
nozioni base e l'obiettivo di ogni procedura serviranno ad evitare la memorizzazione astratta e
la percezione di inservibilità delle tecniche.
Accenniamo due ulteriori ricerche prima di chiudere il discorso sull'ansia. La prima ha preso
in considerazione la convinzione che esistano individui bravi in matematica e altri non portati
per la materia. Uno studio (Tobias, 1995) ha comparato studenti americani con altri dell'Asia
circa la loro riuscita in un test di matematica internazionale trovando che gli studenti degli
USA erano surclassati nei punteggi. Una delle cause principali portate alla luce dalle
interviste è risultata essere la convinzione degli studenti asiatici che l'abilità matematica fosse
distribuita in modo costante nella popolazione e che le differenze di prestazioni fossero
determinate dal duro impegno. Al contrario gli studenti americani ritenevano semplicemente
che alcune persone nascessero con abilità matematiche maggiori, e che quindi l'impegno
personale non fosse utile. È palese che l'impegno che produrrete nello studio determinerà
migliori risultati. In ultimo vediamo un'altra ricerca sull'ansia che ha confermato in pratica
una delle scoperte più solide (ed antiche) in psicologia: la legge di Yerkes-Dodson (1908).
Questa afferma che le prestazioni e il comfort sono maggiori quando il soggetto è al livello
ottimale di stimolazione, quindi non sotto-stimolato e annoiato o sovra-stimolato e ansiogeno.
Questo studio della Auburn University (Keeley, Zayac, & Correia, 2008) ha messo in
evidenza che studenti con un po' di ansia avevano prestazione migliori di quelli con eccessiva o troppo
bassa ansia. Quindi andate avanti e agitatevi un poco.
L'impostazione scelta per il corso, e quindi per i materiali forniti a supporto dello studio,punta ad
assicurare agli studenti solide conoscenze teoriche e pratiche per la costruzione e
somministrazione di reattivi per la misurazione di caratteristiche psicologiche, necessaria per
coloro che nel futuro avranno in ogni caso un contatto con i test. Si dovranno pertanto
prendere in considerazione anche i cambiamenti avvenuti in anni recenti dal punto di vista del
repertorio dei reattivi a disposizione (molto più ampio anche in ambito italiano) e nella
professione psicologica più in generale (ambiti di intervento e requisiti richiesti).
Quali sono dunque gli obiettivi specifici di questo corso?
Principalmente tre:
• per trattare i temi dell'analisi pratica dei dati è necessario innanzitutto comprendere
da dove derivano quest’ultimi e quindi il primo scopo è una disamina critica delle differenti tipologie
di test e dell’excursus storico che ne ha determinato lo sviluppo, inteso come teorie psicologiche e
applicazioni statistiche.
• In secondo luogo saranno approfonditi i fondamenti sperimentali della metodologia e
dell'interpretazione psicologica delle evidenze. Il nodo gordiano da sciogliere è quello della
misurazione in psicologia, spesso sottovalutato e trattato con superficialità, ma che è imprescindibile
per la comprensione della significatività reale dei risultati forniti dai test psicologici. La trattazione
dei diversi argomenti sarà impostata in modo da minimizzare la necessità di analizzare
approfonditamente le formule i calcoli statistici e allo stesso tempo focalizzare l'attenzione sull'utilità
e gli obiettivi dei test e delle analisi statistiche dei dati. Questo non significa che, laddove necessario,
ci si sottrarrà dall'affrontare in modo tecnico e non superficiale questioni metodologiche e statistiche.
Utilizzare un linguaggio il più possibile agevole e legato ad esempi della pratica di ricerca non
significherà in ogni caso rinunciare all'uso di simboli matematici e/o ad una trattazione più formale
di argomenti, laddove un'eccessiva semplificazione comportasse un impiego scorretto delle analisi
statistiche o una distorta interpretazione. Questo perché il materiale di studio non deve essere un
album di "illustrazioni tecniche" da sfogliare per fotografare (rappresentare con precisione)
informazioni quantitative, ma uno strumento per la comprensione e l'utilizzo consapevole delle teorie
e dei metodi. Albert Einstein scrisse "Everything should be made as simple as possible, but not
simpler1" ("Tutto dovrebbe essere reso il più semplice possibile, ma non più semplicemente di così")
e nel testo si cerca di seguire questa filosofia.
• In ultimo si vuole presentare allo studente, in modo chiaro seppur breve, tutti i
concetti e i termini necessari come base per una formazione permanente riguardo le
Teorie dei Test in generale, i diversi approcci di studio (preliminare, esplorativo, confermativi) e
l’interpretazione. La capacità di analisi critica della materia è fondamentale per la progettazione e/o
la scelta degli strumenti per la raccolta e l'interpretazione dei dati e per apportare modifiche laddove
necessario. Si è già detto della necessità di sviluppare l’autonomia soggettiva nella valutazione,
selezione ed utilizzo dei test. Il risultato da raggiungere è la comprensione dei fattori cardine per
l’ideazione e costruzione di un reattivo psicologico sia per quel che riguarda le operazioni tecniche
necessarie per valutarne la capacità di misurazione sia per apprendere quali sono le informazioni
essenziali da prendere in considerazione per selezionare tra i diversi test disponibili quello più
robusto, adeguato e conveniente.
Mentre per le procedure più semplici la spiegazione della formula è importante per definire il
concetto, con l'aumentare della complessità la formula in se stessa conferisce meno
informazioni. In questo corso però la parte di comprensione teorica dei processi di
misurazione dell’attendibilità e per la validazione è particolarmente rilevante e si approfondirà
principalmente la reale procedura di calcolo informatico del test statistico. Sarà fondamentale
però la comprensione del significato del valore calcolato, ovvero se in base and un
determinato valore di un indice, ad esempio, il test è valido o meno, o se un item è
discriminante o meno.
Sussiste una consistente produzione di ricerca sulla formazione in statistica e del ruolo della
tecnologia e quindi dell'analisi dei dati attraverso i programmi per computer. Ad esempio
Tiskovskaya and Lancaster (2012) hanno elaborato una revisione sistematica di queste
problematiche, strutturata intorno ad elementi come il processo formativo, la competenza
statistica e la statistica come professione. È particolarmente rilevante per l'insegnamento della
statistica in psicologia, su cui si fonda anche l’applicazione specifica ai reattivi, perché
mettono in evidenza le problematiche specifiche con i riferimenti corrispondenti: incapacità di
applicare la matematica alle problematiche del mondo reale (Garfield, 1995); ansia
matematica e statistica e scarsa motivazione degli studenti (Gal & Ginsburg, 1994); necessità
di sviluppare competenze statistiche mobilizzabili nella vita reale (Gal, 2002). Tiskovskaya
and Lancaster (2012) sottolineano quindi la necessità di fornire esempi pratici
contestualizzati e un ambiente di apprendimento attivo.
Questa tensione esiste in diversi aspetti del Curricolum di metodi di ricerca, perché questi
possono essere insegnati con vari livelli di astrazione e rigore matematico. L'insegnamento
può enfatizzare l'interpretazione dei risultati o il processo computazionale, cioè in un certo
senso la prominenza del software sulle idee. Questo è evidentemente ciò che si vuole evitare
in questo corso e il fatto che si sia scelto un programma statistico che effettua analisi standard
permette di interagire col software mantenendo l'equilibrio con i canoni del rigore, della
validità e della controllabilità della ricerca scientifica.
Come nel caso di numerose altre università, psicometria e teoria e tecnica di analisi dei dati
sono insegnati attraverso l’uso esemplare del software SPSS dell’IBM. Questo programma è
utilizzato per dimostrazioni pratiche corrispondenti alle varie fasi della ricerca in psicologia
ed è strutturato con un’interfaccia grafica (GUI - Graphic User Interface) basata su una serie
di menu a tendina attraverso i quali operare manipolazione e analisi dei dati standard e
successive rappresentazioni grafiche. Mentre dal punto di vista dell’interazione SPSS offre
una riconosciuta semplicità d’uso ed una curva di apprendimento più accessibile, in generale
esistono anche delle difficoltà rispetto al suo insegnamento. Più nello specifico come software
è molto costoso e non si può assumere che tutti gli studenti possano acquistarlo (è disponibile
in ogni caso una versione gratuita di prova per 14 giorni scaricabile a questo indirizzo
http://www14.software.ibm.com/download/data/web/en_US/trialprograms/W110742E06714B
29.html o che sarà a disposizione delle aziende in cui lavoreranno in futuro. Secondo
svantaggio è costituito dal fatto che SPSS è molto difficile da programmare per eventuali
"nuove" analisi (non previste in quelle automatiche). In ogni caso SPSS è il programma che
presenta meno problematiche ad essere incorporato in Psicologia e non presuppone la
necessità di un modello mentale di uno statistico al posto di quello di un ricercatore sociale.
Aiken et al (2008) hanno effettuato delle ricerche nelle scuole di dottorato e hanno riscontrato
che la maggioranza dei corsi utilizzavano SAS o SPSS come pacchetto software primario. La
descrizione di uno studio di caso riguardante l’innovazione curriculare ha messo in luce come
l’affermazione di nuove tematiche e argomenti sia seguita dalle iniziative dei ricercatori
eccellenti. D’altro canto manuali e pacchetti applicativi (software) specifici accessibili agli
studenti facilitano il processo formativo. Per quanto riguarda R, con il miglioramento
dell’usabilità e la necessità di analisi più approfondite e complesse, la sua adozione si sta
dimostrando sempre più diffusa, sebbene le difficoltà legate all'ostica curva di apprendimento
estremamente e alle maggiori competenze matematiche necessarie per il suo utilizzo, ne
sconsigliano l'uso nei corsi di studio iniziali. Per quanto il programma SPSS possa rendere
semplice la gestione delle analisi dei dati attraverso menù lo studente dovrà rendersi conto che
è lui il responsabile ultimo dell'appropriatezza di tale analisi, perché per quanto stupefacenti
siano i calcoli effettuabili da parte di SPSS un software non sarà mai in grado di comprendere
il significato dei risultati e gli obiettivi dello studio.
Rispetto alla documentazione fornita per questo corso, così come per tutti i testi e i manuali
più in generale, comprendere le origini delle fonti documentali e delle differenti
classificazioni cui fanno riferimento costituisce un vantaggio per gli studenti perché rende più
comprensibile lo schema organizzativo degli argomenti, chiarisce gli obiettivi formativi e
suggerisce indicazioni per uno studio più efficace. Le fonti consultate per la stesura di questo
testo sono per la maggior parte di produzione americana, o di origine anglofona più in
generale, e saranno riportate nei riferimenti e negli esempi specifici in nota e in generale in
bibliografia generale del corso. L’apporto scientifico di testi fondamentali di autori italiani
come Boncori, Barbaranelli, Chiorri ed altri sarà in ogni caso riportata e sottolineata nel testo
con specifiche citazioni. In alcuni casi, ad ogni modo, gli esempi potranno fare riferimento a
contesti culturali diversi da quello italiano, ma è anche da tenere presente come la nascita e la
diffusione della psicometria è avvenuta nei paesi anglofoni e per questo permangono
influenze forti nella produzione della ricerca in questo settore disciplinare. D'altronde è il
contesto che rende un problema significativo e un quesito che richieda di calcolare un boxplot
di 30 numeri senza definire la situazione diviene un esercizio di disegno grafico.
Inoltre a tutt'oggi per alcuni argomenti specifici e più complessi, come i test non parametrici, la
produzione di ricerca è per la quasi totalità pubblicata su riviste internazionali rispetto a
questioni spesso multiculturali. Sempre più spesso, infatti, si preferisce applicare un approccio
non parametrico per problemi multivariati più complessi studiati in ambito non solo
psicologico e sociologico, ma anche biomedico, ingegneristico, negli esperimenti clinici e
farmacologici, quando non è noto il modello distributivo, ovvero non si può fare appello alla
normalità o laddove l’inferenza riguarda variabili di tipo qualitativo. L'obiettivo è
naturalmente ovviare alle limitazioni appena accennate minimizzando la perdita sostanziale di
efficienza.
Infatti i metodi parametrici applicati alla risoluzione di problemi di carattere univariato e
multivariato presentano la necessità di ricorrere all’introduzione di ipotesi molto restrittive e
in generale molto difficili da giustificare, oscure e per questo difficilmente interpretabili, oppure
chiaramente elaborate ad hoc per poter fare inferenza. A ciò va sommato che i
postulati che convalidano l’applicazione di tali metodi (indipendenza e identica distribuzione
della componente stocastica erratica, normalità, omoschedasticità,) sono di norma raramente
assolti, ovvero ottenuti tramite approssimazione.
Peraltro esistono casi in cui, anche assumendo la normalità della distribuzione degli errori, le
soluzioni parametriche non forniscono risultati esatti, ad esempio come nel caso dei test per
campioni con osservazioni appaiate laddove i parametri di scala dipendano dalle unità o ci
sono dati mancanti; o ancora nei test a due campioni quando si vuole fare inferenza
congiuntamente su media e varianze e le risposte sono positive.
Per questo, per quanto possibile in un corso non avanzato, sarà anche presentato un breve
inquadramento sui Test non parametrici.
In conclusione sembra appropriato richiamare i termini del contratto formativo inteso come
"dichiarazione, esplicita e partecipata, dell’operato della Università" e stipulato, a partire
dall'inizio del corso, tra il docente e gli studenti, nei rispettivi ruoli all'interno del processo di
insegnamento-apprendimento.
Il ruolo del professore di Teorie e Metodi di analisi dei dati è evidentemente complesso sia nei
termini del combinare l'insegnamento a livello teorico da cui originano i test con le attività
tecnico-pratiche di analisi dei dati sia per la necessità di contestualizzare le attività rispetto ai
requisiti professionali, agli altri programmi del corso di studi e ai bisogni specifici degli
studenti.
Harden and Crosby (2000) hanno definito 12 differenti ruoli dell'insegnante, riassunti nella
tabella successiva ed evidenziati per quello che riguarda questo corso.
Ruoli che richiedono più
Ruoli che richiedono più esperienza e
conoscenza teorica e
comprensione dei principi educativi
esperienza dei contenuti
Informatore:
Esaminatore:
Educatore in aula
Pianificare o partecipare agli esami formali degli studenti
Educatore in ambienti pratici o
Valutare i Curricola
clinici
Pianificatore: Modello del ruolo:
Progettare il curriculum Stereotipo sul lavoro
Gestire il corso Stereotipo nel contesto di
formazione
Sviluppatore di risorse:
Facilitatore:
Produrre una guida allo studio
Mentore, tutor e consigliere
Sviluppare risorse e materiali anche in forma
personale
digitale
Facilitatore dell'apprendimento
Lo studente si dovrà impegnare per il raggiungimento dei propri fini didattici e professionali
nell'ambito del corso, a partecipare attivamente alle attività promosse sulla piattaforma, ivi
comprese le eventuali attività formative propedeutiche nella forma dei test in itinere (o i
cosiddetti spunti di riflessione al termine dei moduli). La maggioranza degli studenti si
accontenterebbe di apprendere abbastanza da effettuare un'analisi base dei risultati di un test
magari somministrato nell’ambito della ricerca sul campo necessaria alla propria tesi. È
evidente la riduttività di questo ragionamento e che quest’ultimo non può essere l'obiettivo
formativo di questo corso.
Passiamo ora a vedere una prima breve classificazione dei reattivi psicologici intesi come
fonti dei dati per la valutazione psicologica.

Lezione 1 – Fondamenti metodologici della ricerca scientifica in psicologia


Per quanto riguarda la psicologia (e la psicometria in particolare) ma più in generale tutte le scienze
sociali che si basano sulla statistica, l’ordine naturale del processo di analisi dei dati è il seguente:
1) Individuazione della variabilità – raccolta attenta dei dati
2) Descrizione della variabilità dei dati – statistica descrittiva
3) La probabilità supporta l’inferenza
4) Stesura delle conclusioni in modo da distinguere la variabilità dei dati
Per lungo tempo le scienze del comportamento, cosiddetto Behavioural sciences, sono state
considerate un tipo di scienza di serie B. “La fisica è l’unica vera scienza, tutto il resto è collezione
di francobolli” (frase famosa con cui quasi un secolo fa il fisico Ruthford chiudeva le discussioni che
c’erano tra ambiti conoscitivi diversi). Rispetto a questa considerazione, bisogna dire però che tanto
è successo negli ultimi cento anni dal punto di vista scientifico per quello che riguarda in particolare
la nostra disciplina, ma anche per tutte le altre discipline considerate soft, come la pedagogia,
sociologia, psicologia, la stessa medicina che lo è in realtà nel momento in cui ha a che fare con le
persone come tutte le scienze soft, in contraddizione con le discipline hard delle scienze naturali,
chimica, fisica, matematica, ecc..
Per quanto riguarda la psicologia e la psicometria come insieme di tecniche statistiche applicate in
ambito psicologico c’è stata una rivoluzione nel processo di generazione della conoscenza. Ora la
psicometria cosi come la clinimetria in ambito medico cosi come l’econometria in ambito economico,
ecc, sono tutte branche di queste discipline che hanno integrato inizialmente il portato metodologico
statistico all’interno di esse e poi piano piano all’interno delle singole discipline hanno trovato un
proprio nucleo riuscendo a creare una separazione e un ruolo individuale all’interno di varie discipline
di un settore di conoscenza. La psicometria diviene come la psicologia dinamica, dei gruppi ecc.
Come è stata questa rivoluzione all’interno della metodologia che ha portato a ritrovare nuova linfa
per la produzione scientifica? Sono tre le rivoluzioni scientifiche che hanno determinato un unico
fondamento per il procedimento scientifico attuale e una sola teoria, la teoria della probabilità, che
integrata nel processo scientifico permette di supportare l’inferenza, cioè quell’attribuzione dei
risultati di un singolo esperimento o ricerca alla popolazione di riferimento e quindi a partire dal
campione di soggetti a tutta la popolazione. Sebbene all’inizio di una ricerca scientifica vi sia una
attenta raccolta dei dati che serve per elaborare una descrizione dello stato della realtà su un piccolo
campione, si ha poi bisogno comunque della probabilità che supporti questa inferenza: la teoria della
probabilità applicata alla conoscenza scientifica ha portato un cambiamento enorme, una frattura con
quello che era il sapere scientifico precedente, e permette poi di stendere delle conclusioni che siano
controllabili e discutibili dalla comunità scientifica. Queste tre rivoluzioni scientifiche avvengono
nelle scienze hard, nelle scienze naturali, chiamate anche oggettive perché erano in grado di vedere
effettivamente l’oggetto di cui si occupavano, determinando, laddove prima vi era una certezza, una
presa di coscienza della difficoltà conoscitiva della realtà, difficoltà anche per questo tipo di scienze
di ottenere dei risultati che fossero universali, cioè validi sempre, in ogni luogo, prevedibili, costanti,
legati a teorie che fossero immutabili. Il primo di questi tre paradossi della ricerca scientifica che
ha determinato questa rivoluzione è la teoria della relatività di Einstein del 1905, che si basa sull’
assunto assoluto della velocità della luce, che in questa teoria è l’elemento costante in tutti i sistemi
di misurazione, non dipende quindi dal sistema di riferimento in cui viene misurato ma che è sempre
costante. Questo elemento di costanza all’interno dei sistemi di riferimento ha minato le basi della
fisica newtoniana in quanto questo elemento rende relativo un altro concetto che per lungo tempo si
è ritenuto oggettivo, il tempo, non è più assoluto ma relativo rispetto al sistema di osservazione. Se
la velocità della luce è costante in sistemi in cui il tempo è relativo allora le leggi della fisica devono
essere formulate in modo che passando da un sistema di riferimento a un altro mantengano sempre la
stessa forma. Questa immutabilità dei sistemi di riferimento precedenti alla teoria della relatività in
realtà in psicologia non c’è mai stato, era un elemento che però differenziava le scienze soft da quelle
hard. Il secondo paradosso viene generato dalla formulazione del principio di indeterminazione di
Heisenberg nel 1927 che mina quelle che sono le convinzioni della microfisica, cioè di quella parte
della fisica che si occupa delle particelle. Tale principio dice: In un dato istante è impossibile attribuire
una posizione ad una particella ed una velocità determinata. Laddove il ricercatore va a misurare la
posizione esatta della particella influisce sulla sua velocità e laddove misura la velocità influisce sulla
posizione. Più la posizione è definita meno è conosciuta la velocità e viceversa. L’impossibilità di
conoscere allo stesso tempo la velocità e la posizione della particella elementare pone un limite alla
capacità di misurazione. La misurazione non è un carattere insisto nella natura delle particelle
dell’oggetto, la capacità che abbiamo di misurare non dipende dall’oggetto che stiamo misurando,
quindi il fatto che noi psicologi ci occupiamo di costrutti mentali porta a dire che poiché la proprietà
di questi oggetti fisici di essere misurabili li rende diversi da quelli che sono gli oggetti delle scienza
del comportamento. In realtà questo non è così, poiché si è visto che questo secondo principio indica
che a seconda delle scelte fatte dall’osservatore (observer dipendent) sarà determinata in maniera
diversa la natura dell’informazione che abbiamo ottenuto. Il terzo e ultimo paradosso è fondato su
quelle che sono le ricadute della teoria del caos elaborata negli anni ‘70 del secolo scorso che hanno
destabilizzato i principi delle teorie scientifiche delle scienze fisico-naturali. I teorici del caos hanno
infatti sostenuto che le leggi naturali che sono così utili nella scienza alla previsione degli effetti, dei
possibili esiti di una prova, costituiscono eccezioni piuttosto che regole. La teoria del caos è stata
applicata ad esempio sullo studio della formazione delle nuvole, del tracciato delle cascate, della
previsione dei terremoti.
Sebbene le diagnosi siano il prodotto che viene stabilito da un colloquio diagnostico, un buon clinico
diagnostico deve generare più ipotesi che diagnosi, perché un clinico indaga sulla natura del disagio
di una persona (Feinstein 1967). Il processo clinico decisionale si sviluppa e prende vita nel momento
in cui riusciamo a mettere ordine in quello che Kenneth Kendler (2012, p.377) chiama “natura a
macchie” cioè le numerose e interrelate cause dei disturbi mentali (testo adattato da Nussbaum 2014
p.211). Ciò significa nella ricerca scientifica oltre alla teoria della probabilità ciò che da significato
alla nostra ricerca è anche la parte teorica. Nella nostra attività di ricerca c’è una fase definita come
contesto della scoperta, che è la parte iniziale, in cui c’è la domanda di ricerca la definizione delle
ipotesi di ricerca, la scelta di quello che è il tipo di ricerca da mettere in campo per corroborare queste
ipotesi Questo momento teorico della formulazione delle ipotesi avvicina il lavoro del ricercatore a
quello dello psicologo che nel momento in cui si trova a dover fare delle diagnosi, deve fare delle
ipotesi sulle motivazioni, ovvero quali sono le variabili principali all’interno di un modello che può
spiegare gli effetti, i comportamenti del soggetto che stiamo osservando.
Test: [Le tre rivoluzioni scientifiche delle scienze naturali del 900 non hanno influenzato la ricerca
psicologica che si occupa delle persone -> falso perché hanno determinato l’introduzione della teoria
della probabilità nelle scienze del comportamento].
L’attività dello psicologo ricercatore che progetta e conduce un’indagine e quella di un libero
professionista che somministra test di valutazione* sono chiamati ad operare allo stesso modo e
necessitano delle stesse competenze di analisi statistica dei dati. In un certo senso l’attività del
secondo psicologo rientra nel tipo di ricerca orientata all’intervento che richiede per agire sul piano
operativo riferimenti teorici completi ed appropriata
*Il termine valutazione si riferisce ad “ogni metodo sistematico di ottenere informazioni dai test e da
altre fonti, usato per fare inferenze su caratteristiche di persone, oggetti e programmi” (Giusti,
Montanari Iannazzo 2006). La valutazione psicologica è un elemento più ampio rispetto a quelle
dell’assessment psicologico e quindi va oltre le informazioni definite dai test.
Le caratteristiche essenziali dei test psicodiagnostici sono che gli stimoli che le costituiscono sono
rigorosamente standardizzati, tali caratteristiche garantiscono l’attendibilità del test, cioè la
ripetibilità in tempi e luoghi diversi, e la validità che garantisce la misurazione da parte dello
strumento psicodiagnostico del costrutto di cui ci stiamo occupando. Un test è tanto più valido quanto
sono rappresentativi gli stimoli scelti per rappresentare la funzione cognitiva o la caratteristica di
personalità che si vuole studiare.
Il clinico utilizza i risultati delle valutazioni per pianificare meglio l’intervento e per monitorare
l’andamento del proprio intervento, mentre il cliente usa questi risultati per comprendere meglio se
stesso e per pianificare il proprio futuro. Una buona valutazione deve quindi integrare sia dati
oggettivi, quindi dati derivanti da eterovalutazione che dati soggettivi, che derivano da
autovalutazione. Le persone possono essere valutate in base a variabili comuni che riguardano
l’insieme della popolazioni o in base a variabili uniche che appartengono solo a quell’individuo. Nel
primo caso si tratta di una valutazione di tipo nomotetico, in cui l’accento viene posto sulle differenze
significative fra le persone, nel secondo caso di tipo idiografico, quando l’accento viene posto sulle
variabile che posso aiutare a comprendere meglio il singolo individuo. Il cliente rappresenta in ogni
caso il punto di riferimento sia per identificare variabili rilevanti e sia per interpretare quelli che sono
i dati ottenuti. Il problema vero è in ogni caso il descrivere in modo empirico la personalità di ogni
soggetto, vale a dire identificare qualità attributi o caratteristiche che si manifestano a determinati
livelli con un certo grado di regolarità e coerenza nel tempo attraverso le differenti situazioni. La
tendenza attuale non è tanto quella di contrapporre il metodo ideografico e quello nomotetico quanto
orientarsi verso un approccio prototipico, cioè un approccio che riesca a coniugare al suo interno
elementi che appartengano sia a sistemi classificatori, che sono categoriali e/o dimensionali (come
nel caso del disturbo mentale), sia a livello di fondamento teorico/metodologico. Il fondamento di
questa pratica è da ricercare nelle teorie e nella metodologia. È fondamentale riflettere sul significato
e importanza di quello che si chiama mondo teorico: costrutti, variabili latenti, tratti di personalità, la
popolazione, i parametri della popolazione, la causalità (che non è osservabile ma è solo nel mondo
teorico). Quindi è fondamentale per noi porre l’accento sul mondo teorico, da quelli che saranno poi
i nostri modelli li applicheremo poi alla realtà empirica e prenderemo decisioni quindi non solo su
ciò che vediamo ma anche su quelle che sono le teorie di riferimento. Queste teorie di riferimento
hanno due caratteristiche principali che le rendono importanti:
1) Ci permettono di organizzare le evidenze scientifiche lette da ricerche precedenti. Questa
organizzazione corrisponde ad una collezione di idee coerenti e interrelate fra loro. Siamo in
grado di accomunare idee simili generate d evidenze scientifiche. Se non ci fosse una certa
organizzazione e sistematizzazione di questa ricerche psicologiche sarebbe un caos e ciascuno
psicologo non sarebbe in grado di ottenere un beneficio da questa conoscenza enorme ma non
sistematizzata
2) Le teorie aiutano i ricercatori a pensare a riflettere su possibili ulteriori implicazioni in base a
fondamento teorici di base, quindi come le teorie generano nuovi problemi di ricerca, che
derivano dall’osservazione della realtà, dal lavoro. Possono derivare ulteriori ipotesi dalla
teoria. Quando testiamo delle ipotesi in realtà stiamo testando delle conseguenze della teoria,
se l’ipotesi non viene confermata allora alcuni aspetti della teoria potrebbero essere rivisti o
ripensati. O se per esempio ciò che si studia è il fondamento della teoria si può rigettare
completamente la teoria stessa. Dall’altro lato la conferma di una ipotesi derivante da una
teoria non vuol dire per forza che quella teoria sia tutta vera una volta per tutte. Semplicemente
un risultato positivo della nostra ricerca incrementa la nostra fiducia nella capacità della nostra
teoria di spiegare quelli che sono i risultati empirici. (fine lezione 1)

Lezione 2 – Costrutti e modelli


La terminologia che identifica gli elementi fondamentali di cui ci occuperemo. Questi termini sono
essenzialmente i costrutti, i modelli, i reattivi psicologici, gli item, validità, attendibilità, ecc…
Ciascuno di questi termini deve essere ricordato perché alcuni di questi elementi ha un significato
anche da un punto di vista della quotidianità e questo significato non è lo stesso che gli viene attribuito
nella nostra disciplina. Quindi bisogna assolutamente non confondere ed essere precisi nell’utilizzo
dei termini. Nella nostra quotidianità ad esempio non abbiamo difficoltà ad esprimere un parere se
una persona è depressa o meno, se è ansiosa o meno, se ha un comportamento colloquiale, se è
antisociale, ecc Ci basiamo sui comportamenti che percepiamo e sulla nostra opinione. Quando oltre
la quotidianità dobbiamo considerare queste caratteristiche in modo diverso, dobbiamo cercare di
rilevare questi tratti in un certo modo: con l’intensità dei comportamenti, con la frequenza, ecc. Un
costrutto è un concetto astratto che riguarda una proprietà riferita ad un soggetto. Un concetto astratto
è un’idea che nasce nella esperienza empirica del soggetto (es: la nostra idea di tavolo nasce dalla
nostra interazione, esperienza con diversi tavoli) ma non si riduce solo all’esperienza empirica ma va
oltre, non si conclude con l’esperienza empirica, la parte teorica di un concetto ci consente di applicare
quel concetto a elementi diversi. (esempio: se si va al salone del mobile di Milano ogni anno
presentano mobili diversi e particolari, però ad esempio attraverso la nostra esperienza di tavolo siamo
in grado di capire quale oggetto è un tavolo e quale non lo è). Allo stesso modo l’ansia, come costrutto,
quindi una proprietà non direttamente osservabile di un soggetto, deriva dalla osservazione e
dall’interazione nella nostra vita con comportamenti che noi riteniamo come ansiosi ma va aldilà,
Siamo in grado di capire se un comportamento che non abbiamo mai visto sia riconducibile ad una
definizione di ansia laddove riteniamo che quel soggetto abbia quel tratto ansioso di personalità.
L’intelligenza è stato il primo dei costrutti mentali dei soggetti ad essere studiato in termini di reattivo
psicologico. A Sternberg si deve una definizione di costrutto dell’intelligenza intesa come
tridimensionale come: pensiero analitico – pensiero creativo – pensiero pratico. Queste tre dimensioni
corrispondono alla teoria dell’intelligenza più complessa e completa rispetto a quella definita da
Spearman che definisce il fattore unico G dell’intelligenza che poteva essere quantificato e studiato
attraverso i test psicologici con cui a suo tempo si valutava l’intelligenza per stabilire se un soggetto
fosse da inviare all’interno delle forze armate come fanteria o come posizione di comando. Si capisce
quindi come una concezione unidimensionale dell’intelligenza è meno complessa rispetto ad una
tridimensionale che enfatizza l’adattamento del soggetto all’ambiente circostante e che ritiene questa
capacità di adattamento una delle componenti fondamentali del comportamento intelligente. Se riesco
ad adattarmi, a plasmare o a selezionare i contesti in funzione di obiettivi personali, ma anche sociali
e culturali allora dimostro una intelligenza superiore. Le 3 componenti di questa teoria di Sternberg
sono ulteriormente divisibili in sottocomponenti che rappresentano l’intelligenza componenziale
(pensiero analitico)che consiste nei meccanismi mentali responsabili dei comportamenti intelligenti,
l’intelligenza esperenziale (pensiero creativo) che rappresenta la capacità di affrontare con successo
compiti nuovi e l’intelligenza contestuale (pensiero pratico) definita dall’autore come l’attività
mentale implicata nel processo di adattamento e di selezione di quelle che sono le situazioni di vita
reale fondamentali per la sopravvivenza dell’individuo. Questa definizione del costrutto
dell’intelligenza è una definizione alternativa a quella monodimensionale del fattore G, ce ne sono
altre ma questa cosi come le altre è utile in determinati contesti, ha un background di ricerca a suo
supporto, e dato che abbiamo a che fare con elementi non direttamente osservabili finché non c’è una
determinazione di evidenze scientifiche che falsifichino questa teoria è applicabile e considerabile
come valida. Abbiamo altre teorie sull’intelligenza multidimensionale che si pone in contrasto con
quella che è l’intelligenza tradizionale ponendo l’accento su nuovi talenti sulla molteplicità
dell’abilità esistenziali. La comunità dei ricercatori “affezionati” al quoziente intellettivo (modalità
con cui si misura l’intelligenza generale come fattore unico) si trovano a dover affrontare questo
contrasto, di andare oltre la possibilità di misura unidimensionale del costrutto. Il focus su cui è
importante porre l’attenzione è il processo di operazionalizzazione che porta dalla definizione del
costrutto di interesse, in questo caso l’intelligenza, alla definizione di alcune dimensioni principali
(pensiero analitico, creativo e pratico),che secondo Lazarsfeld non esauriscono quello che è il portato
del contenuto del costrutto, nonostante se ne possono scegliere diverse (sottodimensioni), ma il
costrutto non è dato dalla semplice somma di tutte le dimensioni scelte che lo compongono ma è
qualcosa di più, queste dimensioni si pongono però ad un livello meno astratto rispetto al costrutto
che ci permette di legare attraverso un processo di indicazione degli indicatori alle dimensioni, che
sono esattamente degli stimoli (quesiti, domande, compiti..) che sono studiati per ottenere una risposta
dal soggetto e poter quindi misurare il soggetto su alcune caratteristiche.
Modello metacognitivo-motivazionale – Cornoldi, De Beni, Zamperlin e Meneghetti (2005)
I modelli sono una rappresentazione grafica, sintetica ed efficiente della realtà in oggetto. Quindi il
modello metacognitivo-motivazionale ha degli elementi al suo interno che sono i fattori principali
della realtà che si sta studiando e che vengono ritenuti fondamentali all’interno di una teoria
esplicativa. Il modello ci è utile perché si pone ad un livello intermedio fra la teoria, che non ha una
immediata contestualizzazione empirica, con la realtà di cui noi facciamo esperienza all’interno della
quale ci sono le convinzioni, l’autoregolazione, l’apprendimento con modalità che vengono
sviluppate come conoscenza, uso e coerenza all’interno di strategie autoregolate dall’individuo. È
importante comprendere come le variabili, gli elementi di questo modello (esempio del test AMOS)
sono legati fra di loro da delle relazioni e i modelli sono appunto utili perché oltre a sintetizzare gli
elementi principali della realtà che è sotto esame ci indicano anche la relazione fra questi elementi. I
modelli sono di diverse tipologie: statistici, matematici (esempio: media), modelli del computer,
modelli logici (di nostro interesse) composti da elementi che hanno tutti relazione causale fra di loro.
Anche le mappe concettuali sono dei modelli, sono delle rappresentazioni grafiche in cui ci sono degli
elementi legati fra loro, ma questi legami possono essere tassonomici, di appartenenza e in questo
tipo di modello il fondamento è che le relazioni devono essere denominate, spiegate. Nei modelli
logici questo non accade perché c’è già al loro interno il senso. Dopodiché in base a questo modello
noi dovremo analizzare se i risultati della nostra ricerca supportano le relazioni indicate in questo
modello.
Test: [I modelli non sono privi di errori -> vero perché in quanto rappresentazioni sintetiche non
saranno mai esenti da differenze con la realtà empirica]
Ad esempio in un modello statistico le variabili vengono indicate con:
un quadrato nel caso di variabili manifeste X (empiriche cioè misurate), un tondo nel caso di variabili
latenti Y, un triangolo nel caso di una costante, la covarianza indicata con un arco con due frecce,
oppure una retta di regressione che dice che relazione c’è fra un elemento latente e l’elemento
osservato. Un altro esempio di modello statistico è quello fattoriale che è legato a tipo di analisi
fattoriale che viene effettuato con diversi software.
Si può utilizzare un modello, quindi una rappresentazione grafica, anche per spiegare il processo di
operazionalizzazione, cioè come l’indicatore attraverso delle regole di corrispondenza (relazione che
c’è fra l’indicatore e le dimensioni del costrutto) possa essere legato al costrutto individuando un
modello teorico, più astratto. (fine lezione 2)

Quello che sia il suo ambito di utilizzo (scolastico, sanitario pubblico, clinico ospedaliero o
privato, organizzativo etc.) il test è considerato lo strumento diagnostico per eccellenza, cui
affidarsi per la valutazione delle varie sfaccettature della psiche proprio perché in grado di
garantire una misurazione fondata sul metodo scientifico.
Di fatto la Misurazione è al centro di tutta la scienza e di tutte le applicazioni della scienza, compreso
il settore che si sforza di indagare la mente, al fine di comprendere o predire il comportamento umano.
Nelle scienze sociali la ricerca portata avanti da psicologi, sociologi, pedagogisti etc. dipende dalla
misurazione efficace degli attributi psicologici non direttamente osservabili (costrutti, fattori latenti)
che si ritengono in grado di influenzare i comportamenti empiricamente osservabili. Al di là
dell’ambito della ricerca considerato spesso (a torto) lontano dalle attività operative, questa necessità
è molto percepita anche per i programmi e gli interventi clinici o educativi scientificamente progettati,
per i quali è richiesta una misura robusta dei comportamenti o degli attributi psicologici degli
individui iscritti in questi programmi.
In questo corso di Tecniche di Ricerca ed Analisi dei dati, la base minima di competenza in
statistica per l’analisi e la comprensione dei dati in Psicologia fornita dal corso triennale di
Psicometria, viene data per assodata. Questo perché il focus di questo percorso formativo
sono le questioni relative alla Ricerca attraverso il metodo scientifico e la Misurazione
nell’ambito delle Scienze del comportamento/Scienze sociali (Behavioral Sciences) (e nello
specifico le questioni legate alla costruzione e validazione dei test psicologici). Come già
detto nell’introduzione al corso, i temi che presenteremo sono evidentemente collegati con le
questioni psicometriche della costruzione degli strumenti per la misurazione standardizzata (In
particolare alcuni metodi della ricerca scientifica nelle scienze sociali, e nello specifico in
psicologia, e i principi dei metodi di analisi dei dati multivariati e fattoriali sono sviluppati dal corso
di Pedagogia sperimentale.)
Ciò non di meno non si ritiene appropriato proseguire senza accennare in modo sommario, ma
organico e strutturato, alle principali tipologie di test, poiché molti degli esempi presenti
successivamente faranno riferimento e riporteranno a questa classificazione. Quest’ultima si
suddivide nelle seguenti categorie:
• test di livello intellettuale generale, noti come test di intelligenza, individuali e collettivi;
• test per la misurazione di singole abilità, noti come test attitudinali, test di profitto e competenze,
batterie attitudinali multiple;
• test che misurano caratteristiche emotive, atteggiamenti ed interessi, o anche comportamento
interpersonale, atteggiamenti e dispositivi proiettivi, noti come test di personalità, in cui ricadono in
pratica tutti i caratteri latenti non intellettivi della personalità.
Nei paragrafi successivi sarà presentata una breve disamina delle tipologie di test, con esempi
specifici, in modo da rendere più chiaro ai lettori le singole aree psicologiche di intervento e
rilevazione di questi strumenti e tecniche della Psicometria. Più in generale la distinzione
fondamentale da tenere presente è quella fra le tipologie di test per la misurazione del
rendimento o della prestazione, ovvero dell’efficacia, e quelle dei test di personalità, tra i
quali si contraddistinguono i test obiettivi e i test proiettivi.
Prima di affrontare tale esposizione però è opportuno puntualizzare come attualmente vi siano
due derive pericolose che si presentano di fronte agli psicologi che utilizzano metodi
quantitativi per la misurazione dei fenomeni di interesse e che costituiscono l’estremizzazione
dell’approccio delle Neuroscienze e di quello dei Big data. Queste due distorsioni sono
presentate con l’obiettivo di rendere più difficile il cadere in orientamenti dannosi.
Da una parte le Neuroscienze riducono la spiegazione ogni azione umana in termini di
funzioni del cervello e dall’altra i Big Data promettono di rendere computabile qualsiasi trend
sociale. Paolo Legrenzi e Carlo Umiltà (2009) ci mettono in allerta rispetto la “Neuro-mania”
cioè la seducente prospettiva (o pretesa) di poter finalmente ancorare ad elementi
“materiali” – le immagini del cervello o i flussi di dati digitali – le interpretazioni di
fenomeni e comportamenti sociali e psicologici, sottraendole così a discussioni spesso
divisive anche sul piano sociale e politico. Sempre più spesso, fenomeni e comportamenti
tradizionalmente oggetto di studio da parte di psicologia, sociologia o economia (scelte di
consumo, preferenze politiche, innamoramento) sono spiegati sulla base dell’attività di
particolari aree del cervello.
Allo stesso modo, Il neurobiologo Dick Swaab (2010) arriva a sostenere che è nel cervello
che sono già fissati «l’orientamento sessuale, il livello di aggressività, il carattere, la
religione». Le conseguenze più dirette sono gli studi e perizie basati su simili presupposti
compaiono sempre più anche in ambito giudiziario. La posizione del tutto avversa è sostenuta
ad esempio da Bauman che nella “modernità liquida” scrive che «L’oggetto della sociologia è
l’esperienza umana. Che i tedeschi definiscono in due modi: Erfahrung, “qualcosa che mi è
successo” ed Erlebnis, “qualcosa che ho vissuto”. Il primo può essere descritto dall’esterno, in
termini oggettivi. Il secondo no, solo attraverso i racconti, pensieri e sentimenti del soggetto. E qui
le neuroscienze si fermano, lasciando il posto alle scienze umane».
In un’intervista pubblicata sulla Repubblica (2013) Bauman prosegue dicendo che «già nel
XVII secolo il grande matematico Pierre-Simon Laplace disse che se gli avessero fornito
“tutti i dati” sullo stato del mondo avrebbe potuto predire ogni suo successivo stato. Sono
ambizioni che ritornano. Tuttavia è una prospettiva impraticabile non a causa della scarsità di
informazione quanto per l’essenziale e irreparabile contingenza del mondo e l’irremovibile
presenza di accidenti che lo caratterizzano. Le possibilità sono infinite e l’infinito non può
essere calcolato». Questa considerazione ci porta a discutere della seconda deriva relativa ai
Big data, definizione che si attribuisce a quegli insieme di dati (dataset) di dimensioni molto
più grandi del normale e quindi riconducibili a casi (o soggetti) nell’ordine delle decine o
centinaia di migliaia in confronto alle poche centinaia di casi su cui si basano di solito i
dataset di ricerche psicologiche o delle scienze sociali in generale. I benefici che l’utilizzo dei
Big data apportano alle behavioural sciences sono principalmente due: il primo nell’ottica di
una convergenza di dati di primo livello che convergono in un unico dataset per un’analisi su
vasta scala con fini confermativi; il secondo la possibilità di una raccolta dati “invisibile”
effettuata sulle tracce che i soggetti lasciano attraverso le loro interazioni su internet, ovvero
di una misurazione silente del comportamento dei soggetti che dovrebbe assicurare
un’estrema obiettività del dato (truthfulness), intesa come sincerità dei comportamenti
osservati. La descrizione delle competenze di uno “psicologo dei big data” sicuramente
prevede una preparazione di alto livello in statistica, ma anche la capacità di identificare i tipi
di comportamenti che sono più utili per rintracciare ed analizzare modelli esplicativi, oltre che
capacità di progettare esperimenti web e inchieste online. Cheung and Jak (2016) espongono al
meglio il ruolo di rilievo occupato dalle teorie psicologiche rispetto all’opportunità costituita dai Big
Data, esse infatti devono fornire i modelli esplicativi fondamentali per spiegare il comportamento. La
Psicometria in particolare è in grado di fornire le evidenze legate alle proprietà di misurazione delle
informazioni raccolte (Veracity). Tecniche di analisi statistica avanzate, come l’analisi multilivello,
l’analisi dell’equazioni strutturali, la meta-analisi, sono da considerare come metodi statistici
per testare la bontà delle teorie proposte. Gli psicologi propongono invece nuove prospettive
su come i dati vengono raccolti, se le misurazioni hanno proprietà psicometriche valide e
quali modelli possono essere usati per analizzare i dati. Tuttavia, è evidente che la potenza di questi
archivi e dei colossi informatici ha particolare rilevanza per le scienze sociali. Fisico di formazione,
Duncan Watts di Microsoft Research si presenta come “sociologo” in grado di elucidare, attraverso
il trattamento sempre più sofisticato dei network informativi (ad esempio i messaggi su Twitter),
fenomeni quali il cambiamento di opinioni, il “contagio informativo” e perfino la crisi finanziaria (!).
La neonata computational personality recognition ricostruisce la nostra personalità analizzando
con sofisticati software le conversazioni online («chi usa molta punteggiatura ha un basso
tasso di estroversione, chi utilizza parole più lunghe di sei caratteri è di solito più introverso
»). Si potrebbero certamente sottolineare i limiti metodologici e gli eccessi di alcuni di questi
studi, talvolta criticati dagli stessi colleghi. Raramente i solerti data miners sono sfiorati dal
semplice sospetto, magari nutrito dalla lettura di autori come Goffmann o Turkle, che i
contenuti postati su Facebook, blog e Twitter rappresentino un indicatore della
rappresentazione di sé e soprattutto di come vorremmo apparire, più che della personalità o di
altre dimensioni profonde. In questo caso la questione metodologica legata alla qualità dei
dati (o della loro interpretazione) si scontra con la quantità di essi. Oppure che i motori di
ricerca registrino, oltre alle nostre malattie, le nostre paure. Le cautele sono già molte senza
approfondire altri temi fortemente critici legati alla questione etica, alla privacy e alle
implicazioni legali che sono strettamente connesse alle informazioni digitali personali.

Lezione 3 – Definizione di test


Per definire l’oggetto di questo paragrafo utilizzeremo la definizione breve, ma accurata, di
Anastasi (I test psicologici - 1985):
“un test psicologico consiste essenzialmente in una misurazione obiettiva e standardizzata di un
campione di comportamento”.
La funzione fondamentale di un reattivo psicometrico (sinonimo di test psicologico) è quella di
misurare le differenze fra individui oppure registrare reazioni dello stesso individuo in condizioni
diverse. Il termine reattivo è un termine arcaico ma rende l’idea di come il test rappresenti uno stimolo
a cui il partecipante è chiamato a rispondere, ciò a cui siamo interessati è appunto registrare la risposta
ad uno stimolo standardizzato.
I test (o reattivi) psicologici che rispettano questa definizione assumono un riferimento esplicito ad
una teoria psicologica, o almeno ad un modello elaborato secondo criteri scientifici.
I tre punti fondamentali di questa eccellente definizione su cui è necessario focalizzarsi e
riflettere a fondo sono:
1. l’Obiettività (da non confondere con oggettività) è intesa, almeno in linea teorica, come il
fatto che nella stragrande maggioranza dei casi gli elementi che caratterizzano l’assegnazione
di un punteggio non sono influenzati dalla soggettività dell’esaminatore. In pratica le modalità
con cui si assegna un punteggio grezzo al test (scoring) e come quest’ultimo viene
interpretato, non sono una funzione della decisione soggettiva di un esaminatore particolare
ma sono basati su criteri obbiettivi (avalutativi);
Test [obbiettività è sinonimo di oggettività -> falso in quanto non indica la corrispondenza con la
realtà intesa come verità assoluta.]
2. la Standardizzazione ha a che fare principalmente con le procedure con cui si somministra
il test, quindi le modalità con cui si somministra il questionario, con cui si assegna il tempo,
le indicazioni per la compilazione, anche il contesto in cui viene somministrato deve essere
standardizzato. La standardizzazione ha a che fare dunque con l’uniformità delle procedure
che permette a psicologi diversi di essere sicuri che il punteggio ottenuto da due individui
sono similari e confrontabili. Pertanto non ha importanza chi amministra il test, lo
somministra, calcola i punteggi e li interpreta perché la presenza di uniformità delle procedure
assicura risultati (misurazioni) concordanti e confrontabili;
(Da non confondere con la Standardizzazione del test (Crocker e Algina, 1986):
1. Identificare la popolazione target.
2. Determinare il metodo di campionamento e l'ampiezza campionaria adeguata, e
raccogliere i dati.
3. Calcolare gli indicatori statistici: media, varianza ed errore standard di misurazione e
individuare i tipi di punteggi standardizzati idonei all'interpretare i punteggi grezzi. Si
assume naturalmente che negli studi precedenti si siano già definitivamente risolte, in
campioni indipendenti da quello normativo, tutte le questioni relative alle proprietà
psicometriche del test, come la dimensionalità del test e l'attendibilità e validità del test
o delle sue sottoscale. Per facilitare il lavoro dell'utilizzatore del test è utile inoltre
produrre le tavole di conversione dei punteggi grezzi in punteggi standardizzati.
4. Inserire le informazioni sulle norme nel manuale del test insieme a procedure di
somministrazione, scoring dei punteggi e interpretazione dei risultati.)
3. Il Campione di comportamento, da non confondere con il campionamento effettuato su
soggetti di una ricerca, questo perché un test psicologico non è in grado di descrivere in modo
diretto conflitti e desideri proibiti, illusioni e dissidi interiori, ma riesce ad intercettare solo un
campione del comportamento della persona (un insieme ristretto della popolazione dei
comportamenti individuali possibili e riconducibili ad uno stesso costrutto – [Secondo la
classica definizione di Crocker e Algina (1986), il costrutto è il prodotto di una fondata riflessione
scientifica, un’idea sviluppata per permettere la categorizzazione e la descrizione di alcuni
comportamenti direttamente osservabili. I costrutti sono, per definizione, non accessibili
all’osservazione diretta, ma vengono inferiti o postulati sulla base dell’osservazione di opportuni
indicatori]), che si spera rappresentativo del costrutto che si sta misurando, e da cui si derivano
ed elaborano alcune inferenze ed ipotesi. È come se ci fosse un universo di item che sono in
relazione con il costrutto e da questi se ne fa una selezione, se ne estrae un campione, che
dovrebbe essere rappresentativo dell’universo di quel costrutto. Esempio: degli item relativi
all’ansia potrebbero essere relativi alle sensazioni di quando si è da soli, o quando si parla in
pubblico, ecc.

Questo fatto di avere un campionamento, ovvero una selezione di item da un costrutto che non
essendo direttamente osservabile, misurabile, ha un insieme di indicatori molto numerosi e dipendenti
dal contesto sociale storico culturale di riferimento determina anche il fatto che ci possono essere test
diversi che misurano con item differenti lo stesso costrutto. Si può parlare di duplice campionamento:
sia di quello che riguarda gli oggetti che vengono misurati (individui) sia di quello che riguarda il
contenuto che si va a misurare.
Da ciò deriva, dunque, il duplice problema della psicologia che si occupa del campionamento degli
oggetti da misurare e del campionamento del contenuto. Da un lato si trova la generalizzazione delle
scoperte sugli oggetti e dall’altro la generalizzazione delle scoperte su quesiti dei test.
A queste tre proprietà si aggiunge, nel caso di test condotti su campioni normativi, quindi su un
campione di soggetti di tipologia diversa cioè più numeroso rispetto ai campioni che si occupano solo
di ricerca, la possibilità di individuare norme o standard di riferimento. Queste norme non sono altro
che la possibilità di interpretare il punteggio ottenuto al test da un soggetto comparandolo con i
punteggi realizzati allo stesso test da un gruppo di persone che si sono sottoposte allo stesso reattivo
e che essendo rappresentative della popolazione di riferimento ne costituiscono un campione di
standardizzazione. Vuol dire poter interpretare il punteggio di una persona successiva al campione
normativo selezionato in base a quelle che sono media e deviazione standard del campione normativo.
Esiste un ampio dibattito in merito all’uso della terminologia che differenzia il test psicologico, come
reattivo psicometrico, per indicare una serie di strumenti di misurazione, che si somministrano
stampati e di cui si richiede la compilazione attraverso auto somministrazione (self report), oppure
compiti, tecniche, disegni da completare. Che ci permettono di misurare le variabili rilevanti rispetto
al funzionamento psicologico. Dall’altro lato abbiamo invece una terminologia che riguarda
l’assessment psicologico (traducibile in italiano con valutazione psicologica e accertamento utilizzato
sia quando si sottopone un test che quando si intende il processo come espresso del giudizio quindi
un processo più ampio che tiene conto di aspetti di informazioni derivanti sia dal risultato del test che
da una descrizione significativa della condizione psicologica del soggetto. Se l’individuo è un
paziente in ambito psicoterapeutico rientrano nell’assessmpent psicologico anche le attività
diagnostiche, prognostiche in cui il test psicologico è soltanto in complemento - in inglese invece c’è
differenza fra psicological assessment e psicological evaluation). Mentre rispetto al test abbiamo degli
elementi relativi soltanto ad alcuni costrutti che sono strettamente al test somministrato,
nell’assessment invece lo psicologo elaborerà le informazioni raccolte con metodi diversi e le
utilizzerà come fondamento per le conclusioni e le scelte terapeutiche. Ora sebbene l’assessment
psicologico di un individuo possa essere effettuato anche mediante test o batteria di test non si deve
confondere o ridurre l’assessment psicologico all’uso dei test perché presuppone un insieme di attività
e procedure eterogenee articolate che danno la possibilità di trarre informazioni integrabili con fonti
e strumenti diversi. L’assessment psicologico è definito anche da Caporali e Roberti nel 2013 come
l’intero percorso di assessment clinico e di testing, mentre invece l’ambito del singolo reattivo
psicometrico è uno specifico momento per rendere più accurata la diagnosi ed avere maggiori
informazioni rispetto alle ipotesi di intervento che a volte sono diverse. Gli stessi autori sottolineano
come numerose ricerche abbiano dimostrato che quanto emerso dai risultati ottenuti ai test in
confronto a quanto emerso dai dati rilevati con altre tecniche psicodiagnostiche sia più affidabile in
termini di predittività sull’esito di un percorso di sostegno psicologico. Ciò dimostra quindi come una
situazione standardizzata, in cui ci sono procedure uniformi di somministrazione e assegnazione di
punteggio, possa costituire una fonte di informazioni valida e indispensabile rispetto a moneti di
valutazione psicodiagnostica soggettiva. Il testing va visto come un punto di osservazione “terzo” e
una procedura di assessment che permette al clinico di utilizzare in modi sinergico tutti gli strumenti
di indagine da modo di ottenere informazioni che non sempre emergerebbero durante i colloqui con
il soggetto. Questo non vuol dire ovviamente che la diagnosi testologica può completamente
sostituirsi alla diagnosi clinica, di cui l’approfondimento tramite test è solo un momento. Una batteria
di test è composta da un gruppo di test che permette di ottenere informazioni più ampie su diverse
aree (ricognitiva, emotiva, dinamica, relazionale). Consente di integrare diverse informazioni
derivanti da diverse angolazioni e attraverso una triangolazione riuscire a impostare il lavoro clinico
soprattutto nelle fasi iniziali: dare degli elementi per la valutazione dei cambiamenti strutturali
funzionali oppure profondi superficiali oppure fare dei focus sul tipo di intervento. Le batterie invece
sono poi poco utili nel valutare il processo nelle fasi intermedie come strumenti di monitoraggio
perché sono scarsamente adattabili sia per la loro lunghezza sia per il tipo di somministrazione che è
un pochino più complessa.
Test: [evaluation psicologica e assessment psicologico sono la stessa cosa -> falso
Fasi in cui si articola il processo di costruzione di un test psicologico.
(tabella proveniente da adattamento di Santisteban – 1990 modificata da Barbaranelli, Natali nel
2005)

Fasi Metodi Risultati


Scelta del costrutto Analisi razionale del Definizione del
costrutto e delle sue manifestazioni costrutto e delle sue
manifestazioni

Elaborazione di un insieme Operazionalizzazione Insieme di item


ampio di item Versione preliminare
del test

Esame critico degli item Selezione di un gruppo di esperti Insieme scelto di item

Analisi formale degli item: Scelta di un campione Parametri che consentono


- dimensionalità Uso di tecniche di analisi di descrivere le proprietà
- difficoltà statistica metriche degli item
- discriminatività

Selezione degli item del test --- Versione finale del test

Studio delle caratteristiche Calcolo degli indici di ----


del test attendibilità, validità,
di informazione

Standardizzazione Selezione di un campione normativo Test come prodotto


e taratura del test Calcolo di statistiche finale
campionarie e inferenziali

La scelta del costrutto è un momento molto complesso perché richiede una profonda conoscenza sia
degli obiettivi di assessment sia conoscenza del pregresso della letteratura rispetto a quello specifico
costrutto. Quindi il metodo per completare questa fase è un’analisi razionale di quelle che sono le
manifestazioni di quel costrutto così come definite dalla letteratura (si va a vedere se nella letteratura
rispetto alla nostra teoria di riferimento sono presenti già dei test o strumenti che indagano quel
costrutto). Ad esempio ci può interessare l’ansia da un punto di vista legato ad esempio ad un ambito
prettamente scolastico e quindi può essere un ansia da performance, oppure relativo al tipo di studio,
nel caso di ansia relativa all’ambito dello sviluppo possiamo avere l’ansia da separazione ad esempio.
Si passa poi all’elaborazione di un insieme ampio di item attraverso il metodo della
operazionalizzazione (che comunque è solo uno dei metodi) e che consente appunto di individuare la
versione preliminare del test. Si selezionano poi un gruppo di esperti a cui si affida l’esame critico
degli item individuarti nella fase precedente per giungere ad un insieme scelto di item di cui deve
essere verificata la qualità attraverso la fase successiva che è la item analisys. L’analisi di item è una
analisi formale degli item comune a diverse teorie dei test. Una volta effettuata la scrematura
qualitativa degli item abbiamo la selezione finale degli item del test che verranno sottoposti ad una
seconda validazione del test, attraverso un secondo campione (diverso dal precedente) rispetto al
quale studieremo le caratteristiche del test in termini di attendibilità, validità, informazione. Questa
fase molto importante è precedente a quella che sarà la fase di standardizzazione e taratura del test
per giungere al prodotto finale. (fine lezione 3)

Lezione 4- Taratura e norme


Ci sono elementi fondamentali per la misura di una caratteristica attraverso un test:
- validità a priori del test
- validità a posteriori del test
- corrispondenza del test alle esigenze pratiche

Sono modi diversi di valutare la misura effettuata da un test rispetto alla caratteristica. Siamo in un
momento in cui decidiamo quale caratteristica dover misurare con il test e il metodo con cui vien poi
quantificato il risultato e dobbiamo scegliere gli stimoli e fissare le modalità di risposta. Sia gli stimoli
che le modalità di risposta devono essere appropriati alla caratteristica che vogliamo misurare, se si
vuole ad esempio misurare la creatività le risposte dovranno necessariamente essere aperte, se si vuole
invece misurare la capacità di risolvere problemi sono più efficaci le alternative chiuse ad una sola
risposta, se si vuole misurare un tratto di personalità il modello più adatto saranno le alternative chiuse
disposte lungo una scala che rispecchia il continuum soggiacente alle differenze individuali, quindi
abbiamo evidentemente termometri del sentimento, oppure scale likert ecc.. La scelta del tipo di
risposta è molto connessa con i problemi relativi alla risposta del test alle esigenze pratiche. Gli
stimoli devono essere scelti o realizzati i modo che attivino solo risposte attinenti alla caratteristica
da misurare, per esempio se abbiamo un questionario psicopatologico ci sono domande che
contengono vocaboli difficili e le persone meno colte potrebbero dare risposte che potrebbero non
rispondere effettivamente allo stimolo che si stava cercando con la domanda (risposta alpha). Se il
nostro questionario psicologico contiene domande che comprendono vocaboli difficili allora queste
persone che rispondono e che magari non hanno una cultura sufficiente potrebbero rispondere in
modo da sembrare psicopatologici anche quando non lo sono. Questo avviene nel caso in cui gli item
non sono di buona qualità. Allo stesso modo se lo stimolo è una figura ambigua oppure richiede di
concentrare le proprie risposte in relazione ad un particolare dettaglio bisogna essere sicuri che quel
dettaglio non presenti problemi di tipo percettivo altrimenti il soggetto non è in grado di rispondere
in modo corretto non perché non abbia il tratto latente o l’abilità ma perché non è in grado di percepire
l’elemento che dovrebbe giustificarne la risposta. Ora tutti questi problemi dovrebbero essere
affrontati per economia di lavoro già prima di aver sottoposto il test ai soggetti e pertanto di solito
vengono discussi ed esaminati all’interno del gruppo di esperti che costruisce il test. Nei test costruiti
con particolare cura vengono anche consultati esperti esterni al gruppo di coloro che lo sta costruendo
oppure già in questa fase si può fare un piccolo controllo preliminare con campioni molto piccoli di
soggetti (sperimentazione pilota o trial out). Gli insieme di questi controlli riguarda la validità di
contenuto del test o la validità di facciata, quindi se il test sembra effettivamente valido, se è percepito
in modo corretto dai soggetti. In questo caso si parla di validità esaminata a priori cioè quando
ancora non si conoscono le risposte dei soggetti agli stimoli del test. Una volta che vengono preparati
gli stimoli del test avremmo la validità a posteriori. Con la raccolta di risposte riusciremo poi a dire
quanto il test è una buona misura del costrutto che volevamo misurare. Questi procedimenti sono in
genere molto lunghi in genere durano anche più di un anno e vengono comunque continuati anche
dopo la pubblicazione del test perché si cerca comunque sempre di tarare il test in modo corretto. Si
chiamano controlli a posteriori perché vengono fatti dopo la somministrazione del test. In questo caso
i campioni sono più ampi ma anche se attualmente la maggior parte dei test sono validati su campioni
stocastici, e quindi campioni rigorosamente casuali, nelle ricerca però molti questionari non sono
testati su campioni di questo tipo e questo è un grave difetto che in certo senso è dovuto anche al fatto
che la ricerca impiega tempi molto lunghi. Le caratteristiche dei campioni confinano le validità degli
studi entro limiti di tempo e spazio, se un test è stato validato ad esempio 30 anni fa in Italia non
possiamo presumere in assenza di studi tedeschi recenti che lo stesso test sia utilizzato anche
Germania. Gli studi di validità hanno come premessa gli studi di attendibilità. Solo per alcuni tipi di
test è anche importante che gli stimoli siano omogenei fra di loro. Una volta accertato che la misura
sia stabile e valida possiamo proseguire scegliere il nostro test anche in base alle proprietà legate al
vantaggio pratico (di quanto tempo di somministrazione necessita, quali tipi di disturbi intercetta) ma
anche economico. Per massimizzare i vantaggi nella scelta di un test bisogna verificare che sia
appropriato per i soggetti a cui è destinato, cioè ad esempio se è scritto in linguaggio semplice se è
destinato ad ambiti lavorativi per cui non è richiesta una cultura particolare, oppure che gli stimoli
siano attraenti per il tipo di persone a cui è rivolto il test. Naturalmente il test non deve porre problemi
etici e deontologici che poi si potrebbero trasformare in problemi legali, non deve contenere quesiti
su opinioni religiose o politiche per dare garanzia di produrre risultati equi, non ci devono essere
discriminazioni legate al genere o alle minoranze. Naturalmente è opportuno tenere in considerazione
anche il costo del test nel momento in cui si effettua una scelta di questo tipo
Test: [non è mai opportuno prendere in considerazione esigenze pratiche nella scelta di un reattivo
psicologico -> falso anche riflessioni pragmatiche sono ammesse.

Come scegliere un test


Elenco riadattato da Boncori nel 2008 (Sandrone 2015, p.93) di elementi che devono essere presenti
nel manuale di un test per poterlo scegliere con coscienza e conoscenza di ciò a cui si sta andando
incontro. Ovviamente non esiste un reattivo che possa fornire al clinico tutte le informazioni
necessarie per fare una diagnosi, e test diversi forniscono informazioni differenti. La diversità delle
informazioni è riconducibile alle caratteristiche dello stimolo e anche in termini più generali al
modello teorico sotteso a quel tipo di test, ma anche al tipo di individuo sottoposto alla prova; la
misurazione dovrebbe tenere in considerazione la dimensione dello stimolo, la dimensione della
risposta del soggetto, la dimensione della persona che stiamo analizzando. La scelta del test va fatta
in base alle informazioni che si vogliono ottenere, quindi l’obiettivo per cui è richiesta questa diagnosi
testologica, per cui ad esempio se si vuole valutare la possibilità di un decadimento organico
bisognerà ricorrere a strumenti ad hoc che indaghino funzioni specifiche connesse al decadimento,
mentre sarà poco rilevante una indagine di struttura di personalità con test oggettivi o proiettivi. Se
lo scopo deve essere la formulazione e l’indicazione di un trattamento in relazione chiaramente ad un
quadro sintomatologico sarà importante misurare il sintomo e le sue caratteristiche, o valutare
l’organizzazione di personalità o le funzioni cognitive. Sfortunatamente i test molto spesso vengono
scelti in base a quella che è l’orientamento di ogni singolo clinico rispetto ad uno specifico modello
teorico, oppure per la conoscenza personale con chi lo vende o con chi lo stampa, ecc.. Questo porta
non solo ad un uso improprio dello strumento ma anche ad una scorretta valutazione dei dati perché
lo strumento rileva solo alcune informazioni e non altre. Anche la risposta del soggetto è correlata
con lo stimolo proposto e quindi se lo strumento è impiegato correttamente, cioè non vengono fatti
errori nella somministrazione, e se il paziente ha una buona alleanza terapeutica con il terapeuta si
riesce a fare una misurazione valida. Una mancata alleanza diagnostica o terapeutica sono spesso
causa di protocolli non validi detti anche muti; se lo strumento invece determina una risposta diversa
da quella attesa bisogna mettere in evidenza quali sono le possibili cause senza dimenticarsi di tener
in considerazione come alcuni risultati dei test sono inficiati da una scorretta somministrazione.

Come scegliere un test


TEST Nome, autore//i, primo anno di pubblicazione
aggiornamenti e ultima edizione
Manuali aggiuntivi (setting, età, tarature Nome, autore/i, anni
italiane, ecc)
Caratteristiche valutate Cosa misura
Età a cui è adatto A chi è somministrabile
Livello culturale Limitazioni
Situazione a cui è adatto Clinica, orientamento, selezione, educazione,
perizie, ecc
Validità (tutte) Dimostrazioni
Attendibilità Tipologia e coefficienti
Campione Rappresentatività sulla popolazione, numero,
tipologia, ecc
Training specifico Corso per imparare a somministrare e
correggere il test
Modalità di somministrazione Individuale, collettivo, al pc
Consegna Chiarezza e precisione, lettura al soggetto o al
somministratore
Tempo Conteggio del tempo nelle singole prove
Scoring A mano, lettore ottico, software
Elaborazione dati A mano, software
Profilo dei risultati Grafico, solo numerico
Utilizzo dei risultati Per psicodiagnosi, per relazione ai tribunali alle
assicurazioni, al solo approfondimento
terapeutico, come strumento di legame con i,
trattamento, ecc
Costo Test vero e proprio, manuale/i, protocolli di
risposta, griglie, ecc
Qualifica professionale Quali professionisti sono abilitati a
somministrare il test

Esempio di alternativa di tipologia di test:


- test di profitto
- test attitudinali
- inventari di personalità
- inventari degli interessi

Il lavoro di costruzione e taratura del test è essenziale per definire un buon test e questo lavoro va
svolto preliminarmente da chi costruisce il test e intende metterlo in circolazione proponendolo ai
colleghi e ai possibili utilizzatori. Gli item vanno scelti con cura magari con prove preliminari perché
rappresentino l’area psicologica da valutare e siano graduati in modo opportuno: per livello di
difficoltà se si tratta di prove di efficienza, per grado di accettabilità se le domande riguardano aspetti
delicati della personalità o della patologia. È opportuno iniziare dalle prove più facili nei test cognitivi
e da quelle più accettabili e meno “scabrose” nei test di personalità. Lo scopo nella costruzione degli
item è evitare che la risposta del soggetto risenta di un errore che inficia la valutazione in quanto non
consente di stimare adeguatamente competenze o condizioni “vere” del soggetto stesso. (Di Nuovo
p.13). In tutte le concezioni delle teorie dei test vi è una quantità di errori di misurazione presi in
considerazione, questo errore in particolare è invece un errore sistematico dovuto cioè ad una
procedura errata oppure ad una norma errata che modifica tutte le somministrazioni del test e che
evidentemente non permette un utilizzo adeguato dello strumento.

Proprietà delle norme di gruppo appropriate

Per essere appropriate le norme di gruppo devono avere le seguenti proprietà:


- recenti, quindi le norme sono legate al momento in cui il campione normativo è stato definito (le
norme sono “time bound” (Williams, 1988) così immerse e legate nel contesto che questo contesto
deve essere preso in considerazione all’interno dell’attribuzione del punteggio)
- rappresentative, cioè legate al metodo di estrazione del campione e ci deve essere corrispondenza
del tipo di campione alla eterogeneità della popolazione di riferimento (metodo di campionamento
e ampiezza del campione)
- rilevanti (corrispondenza tra le caratteristiche specifiche del campione e quelle della popolazione
di riferimento, cioè deve esserci un controllo che non vi siano differenze legate ad esempio a
disparità di distribuzione su alcune proprietà). (fine lezione 4)

Lezione 5 – Tassonomia test e test di sviluppo


Proseguiamo con la tassonomia dei test psicologici, ovvero la tipologia dei test così come vengono
suddivisi nella più utilizzata rappresentazione che vediamo di seguito:

Reattivi psicologici

cognitivi Non cognitivi

intelligenza attitudine Profitto clinici


Personalità
obiettivi proiettivi
atteggiamento

unidimensionali multidimensionali

Questa differenza fra test cognitivi e non cognitivi viene anche suddivisa in :
- test di prestazione massima (maximum performance test) detti anche tesi cognitivi o di
livello, che valutano il livello di competenze prevalentemente di tipo cognitivo o
esecutivo.
- test di prestazione tipica (tipical performance test), detti anche non cognitivi, che si
occupano di valutazioni personologiche e degli atteggiamenti
Nell’ambito della Teoria Classica dei Test il punteggio nel costrutto viene comunemente determinato
in base o al conteggio delle risposte corrette (test di prestazione massima) o come somma delle
valutazioni rispetto a ciascun item (test di prestazione tipica) – Chiorri 2011
I test possiamo suddividerli dunque in:
- test di livello intellettuale generale, noti come test di intelligenza, individuali e collettivi
- test per la misurazione di singole abilità, noti come test attitudinali (aptitudinal test), test
di profitto e competenze, batterie attitudinali multiple
- test che misurano caratteristiche emotive, atteggiamenti ed interessi, o anche
comportamento interpersonale, atteggiamenti (attitudinal test) e dispositivi proiettivi,
noti come test di personalità, in cui ricadono in pratica tutti i caratteri latenti non intellettivi
della personalità.
Questa tassonomia è soltanto una delle modalità di suddivisione dei test, ce ne sono anche altre fra
cui quella che distingue i test cognitivi (prime due categorie sopraindicate) dai non cognitivi (terza
categoria sopraindicata).
I test che rispettano questa definizione secondo le proprietà che abbiamo visto recentemente sono
sviluppati con riferimento esplicito ad una teoria psicologica ed hanno dei modelli elaborati secondo
criteri scientifici.
I termini di test di intelligenza generale, test attitudinali, di abilità singola, di rendimento, sono stati
utilizzati in modo intercambiabile per diverso tempo e questo ha determinato una certa
incomprensione sul significato specifico di ciascuno e sulle modalità con cui distinguerli. Anche se
hanno delle questioni in comune, i test di intelligenza generali sono da distinguere dai test attitudinali
in quanto dobbiamo distinguere se la misura che noi otteniamo dal test è una misura generale oppure
se è un test che misura uno specifico fattore.
Se è un test di intelligenza generale abbiamo dunque più elementi che compongono il test ma la
misura è di tipo generale, se invece abbiamo specifici singoli fattori all’interno del test quest’ ultimo
è definito come test attitudinale. Naturalmente ci sono diverse concezioni della intelligenza e si
potrebbe anche considerare un continuum che va da una attitudine specifica fino al concetto di
intelligenza generale. Naturalmente il termine intelligenza nella conoscenza popolare culturalmente
accettata ha delle connotazioni che lo legano ad elementi completamente innati, ma per questo il
termine attitudinale viene utilizzato talvolta per definire dei test che fanno riferimento
all’apprendimento, a competenze del soggetto che vengono acquisite anche in termini lavorativi, ma
evidentemente la differenziazione non può essere solo questa.
Test:[i test di atteggiamento fanno parte della categoria dei test di performance massima -
>falso perché sono test non cognitivi]
Perché spesso i test di intelligenza generale e attitudinali vengono considerati insieme? Va detto che
sia i test di sviluppo che quelli di funzionamento cognitivo generale possono rientrare su un
continuum di test di abilità, sono entrambi inoltre utilizzati all’interno della clinica in età evolutiva
per fini diagnostici quindi sono in grado di offrire misurazioni simili in particolare quando si tratta di
rilevare soggetti con ritardi rilevanti rispetto al loro funzionamento atteso per una data età. La maggior
parte di questi test inoltre cerca di definire un profilo di competenze, di mettere in evidenza lo
sviluppo e l’intelligenza come costrutti complessi, che non possono essere sintetizzati in modo
semplice con un singolo valore ( è chiaro che quando noi attribuiamo un punteggio grezzo ad un
soggetto abbiamo una rilevante perdita di informazioni fondamentali anche per il successivo
trattamento riabilitativo, ma siamo disposti a sacrificare questa parte di informazioni perché
evidentemente riusciamo a ritornare a quello che il cosiddetto campione normativo che ci permette
di effettuare dei confronti). Un altro aspetto che lega questi due test (intelligenza ed attitudine) è il
concetto di età mentale, concetto che si è sviluppo nello steso periodo ed è stato alla base di entrambe
le tipologie dei test, da un punto di vista teorico ci sono però delle indicazioni che spingono per un
trattamento separato dei test di funzionamento cognitivo generale e dei test di abilità, di rendimento
e di sviluppo. I test più attuali come i test di Wechsler che sono usati come standard de facto della
valutazione dell’intelligenza si basano su concetti matematici molti diversi da quello che è l’età
mentale. Inoltre non vi è in generale una buona correlazione fra il punteggio sintetico ottenuto dai
test di sviluppo e il QI cioè quello che l’indice intellettivo globale del soggetto. Nonostante questo
ulteriori analisi hanno dimostrato che esiste un certo grado di correlazione fra le specifiche scale del
quoziente intellettivo con alcuni i test di sviluppo, è quindi un ambito su cui si può continuare a
lavorare. Un ulteriore elemento che cerca di porre in evidenza lo scostamento fra queste due tipologie
di test, ad esempio, è che i test di sviluppo correlano relativamente poco con i risultati scolastici
(academic achievement) e a differenza di quanto accade con i test di funzionamento cognitivo
generale che storicamente sono nati proprio per identificare soggetti che necessitavano di interventi
particolari per consentirgli un apprendimento almeno parziale, mentre i test di sviluppo non possono
essere invece utilizzati a tal fine. L’assunto principale di tutti questi strumenti è che vi sia uno
sviluppo progressivo nelle competenze del bambino e che questo passi attraverso una sequenza fissa
e definita (Piaget che ha individuato sequenze fisse e immutabili nello sviluppo motorio). Il problema
tecnico alla base di questi strumenti è che dal punto di vista psicometrico ciascun item prevede una
risposta dicotomica e quindi il bambino viene giudicato capace o no di fornire una determinata
prestazione che abbia delle determinate caratteristiche qualitative senza che sia possibile in qualche
modo definire un grado della sua competenza in modo più raffinato con un criterio più fine. Questo
modo di procedere da un lato determina il potere di risoluzione del test e lo limita perché non è
previsto un punteggio intermedio in quanto i compiti non possono essere superati in modo parziale,
e non c’è neanche una valutazione del risultato in base al tipo di strategia più o meno efficace che è
stata messa in campo. Di contro invece c’è un elemento che potrebbe distorcere questi dati nel
momento in cui venisse introdotta anche una valutazione di tipo qualitativo da parte
dell’osservazione, e quindi l’interpretazione dei risultati da parte dello psicologo evita delle
distorsioni che potrebbero essere limitate solo laddove di optasse per un test che avesse un alto indice
di inter rater agreement (accordo tra i valutatori). I test di sviluppo hanno un obiettivo comune:
intendono misurare se e quando un bambino è in grado di affrontare e superare compiti adeguai alla
sua età anagrafica. Questo avviene essenzialmente osservando la risposta del bambino di fronte a
stimoli e situazioni che riproducono le difficoltà che egli potrebbe incontrare in situazioni della vita
quotidiana. (Chiappedi, 2009) Ma un test di sviluppo fornisce un quoziente matematico di sviluppo
che è dato dal rapporto moltiplicato per 100 tra l’età di sviluppo ed età anagrafica (quoziente di
sviluppo : QS = (ES/EA)*100). A seconda del metodo con cui viene stimato questo quoziente
abbiamo degli strumenti diversi. In base allo strumento l’età di sviluppo è definita dal livello
corrispondente alla prova più avanzata che il bambino che riesce a superare, oppure dalla somma dei
punteggi guadagnati in un set di prove, questo dipende da come è stato sviluppato il test. In questo
secondo caso il set di prove contiene compiti riferibili ad un anno di età anagrafica, in pratica aldilà
di quelle che sono le specifiche modalità per sua determinazione l’età dello sviluppo può essere
definita come l’età alla quale un bambino con sviluppo tipico è in grado di superare le medesime
prove di quello attualmente sottoposto alla valutazione. In altri termini l’età di sviluppo indica quale
età dovrebbe avere quel dato bambino per essere nella media come competenze dimostrate nella
risposta ai compiti del test. Da un semplice ragionamento matematico segue che se l’età di sviluppo
coincide con quella anagrafica il quoziente di sviluppo sarà pari a 100 che rappresenta un bambino
con sviluppo del tutto normale. Essendoci però una fisiologica variabilità nei tempi di acquisizione
delle diverse abilità e competenze questo fa sì che si consideri in genere del tutto adeguato il
funzionamento di un bambino il cui Q di sviluppo si collochi fra -1 e +1 deviazione standard rispetto
alla media ideale e di 100. Se il punteggio grezzo supera questo campo di variazione gli intervalli
rispettivamente a -2 e +2 deviazione standard rappresentano dei valori al limite (borderline), mentre
i bambini che ottengono un risultato superiore a -2 deviazione standard soddisfano un criterio di
diagnosi di ritardo nello sviluppo. Vi sono delle criticità nel quoziente di sviluppo, una di queste è
costituita dal rischio che numerosi esperti hanno segnalato relativamente alla introduzione di una
schema rigido nello sviluppo del bambino (Piaget) che non sembra cogliere quelle che sono le
strategie individuali che emergono a compenso di una o più aree critiche di fragilità del soggetto.
Questo aspetto è anche molto importante in sede di interpretazione del risultato e esiste una differenza
fra l’attribuzione di un punteggio secondo criteri prettamente matematici e la valutazione del suo
significato all’interno di un contesto di sviluppo. Questo è anche motivo di in contrasto alla base fra
l’approccio psicometrico fondato su uno schema di valutazione rigido del punteggio e un approccio
clinico (gli psicologi per anni hanno ritenuto che la valutazione in psicologia dovesse essere
equivalente alla misurazione delle altre scienze perché in questo modo si riusciva ad avere uno
standard, una base di valutazione che non fosse contestabile; l’approccio clinico tende a trascurare le
indicazioni più psicometriche in favore di un atteggiamento più interpretativo. Vi sono anche contrasti
fra il mondo clinico e quello accademico: i clinici sono più spinti a trovare le risposte efficaci per
ridurre le sofferenze del paziente, gli accademici sono più concentrati sui vincoli che rendano una
metodologia corretta per la fase della ricerca il che non è sempre compatibile con le necessità del qui
e ora della pratica clinica. Per gli accademici la psicodiagnostica è inoltre una strada sopravvalutata,
quindi era stato creato questo misticismo del reattivo psicometrico che poi evidentemente è stato
destinato ad avere un ampia fase di discredito. Ad esempio Meehl nel 1954 contrapponeva la
previsione clinica alla previsione statistica. Da questo discredito ne è scaturito un effetto contrario in
cui si è passati da un utilizzo parziale e settoriale di diversi strumenti, alcuni dei quali, come i reattivi
proiettivi, sono stati messi al bando dai ricercatori per essere continuati ad usare solo dai clinici che
ritenevano che questi strumenti facessero un favore alla loro metodologia di analisi. Questo scontro
fra il modelli clinico ed il modello psicometrico-statistico ha influenzato anche la valutazione dei
problemi, non dimentichiamo ad esempio che il DSM rappresenta come il rapporto fra i costrutti
misurati nella ricerca siano poi collegati a quelli misurarti in ambito clinico. Si è arrivati a mettere in
risalto la necessità dei non test factors per dare valore ai dati ottenuti al di fuori della consegna dei
test, nell’approccio statistico psicometrico i non test factors sono considerati una forma esterna e non
voluta di varianza che svia e distorce le conclusioni, invece nell’ambito clinico si pone maggiore
enfasi sul comprendere ciò che è al di fuori del test, i non test factors appunto, perché questi elementi
forniscono informazioni che sono ritenute significative per la valutazione diagnostica. Il testista ha
sempre un ruolo facilitante o inibente rispetto al bambino: questo avviene anche quando sono
rispettate tutte le regole previste dal manuale dei test, in conseguenza di piccoli messaggi verbali che
continuamente vengono scambiati tra bambino e operatore (a livello di mimica, attivazione motoria
globale, tono della voce, sguardo e sue caratteristiche e via dicendo) – (Chiappedi 2009 p.70).
Ogni performance deve essere criticamente esaminata e interpretata con giudizio da uno che abbia
insight, cioè sia capace di avere una percezione sufficiente, ed esperienza sufficienti per dare
all’interpretazione il peso della sua autorità. È possibile contestualizzare i risultati di un test anche in
base alla propria esperienza personale, alle proprie capacità, senza però distorcere i risultati e di
conseguenza la diagnosi clinica. I risultati dell’osservazione, del test e della misura sono il problema
della diagnosi clinica. Il giudizio del diagnosta in psicologia clinica comincia ad operare laddove
psicometristi e testisti di gruppo smettono la loro funzione, in base a ciò che viene dato
dall’osservazione dei test poi viene interpretato e gestito dal clinico. Ad esempio nella pratica clinica
c’è l’evidenza che i bambini tendono ad avere prestazioni molto diverse a seconda di vari fattori.
(citato da N. Tallent, 1992, p. 98).
Il ruolo di condizioni come la fame, la stanchezza, la sonnolenza, specialmente nei bambini più
piccoli è chiaramente evidente e in qualsiasi osservazione questo costituisce una ragione più che
valida per rimandare la somministrazione del test. Inoltre ci sono fattori relazionali legati all’incontro
fra bambino e psicologo/testista che dovrebbero rendere conto delle storie personali in quel momento
della loro vita, non è mai sufficiente il tempo impiegato per stabilire un clima di buona collaborazione
fra il paziente e l’esaminatore. Bisogna prendere in considerazione l’atteggiamento, la sua diponibilità
o meno alla collaborazione terapeutica, l’umore, la motivazione, il suo stato di attività. Tali fattori
devono essere sempre specificati in sede di valutazione del dato numerico e naturalmente con una
certa manipolazione attenta inserirli insieme ai valori in una eventuale relazione per consentire che il
significato dei numeri riportati sia compreso in modo corretto. (fine lezione 5)

Lezione 6 – Test di intelligenza non verbale e culture free


Procediamo la trattazione con test che si occupano del quoziente di sviluppo fra cui citiamo il Griffith
Mental Development scales. Procederemo poi con un excursus veloce su quelli che sono ti est per la
misura del rendimento intellettivo, per passare poi agli strumenti culture free non verbali e culture
fair per la valutazione dell’intelligenza mettendoli in relazione con quelli che sono gli svantaggi dei
test di rendimento di performance massima per la misurazione dell’intelligenza generale.
Griffith Mental Development scales.
La prima edizione risale al 1954 e poi venne rivisto negli anni 70 con l’aggiunta di norme che
coprissero il periodo di vita dai 3 anni agli 8 anni di età. Questo test viene ampiamente usato in Europa
e in Italia dove viene pubblicato dall’Organizzazione sociale dei Giunti. Si sviluppa su 5 scale e
ciascuna di queste scale per ciascun anno sono costituite da 24 item (2 al mese). Si ottiene in questo
caso un profilo dello sviluppo del bambino che può essere utilizzato per programmare eventuali
successive valutazioni in modo più mirato, addirittura mese per mese, e accanto a questo risultato i
principali vantaggi sono costituiti dall’esplorazione, almeno a livello di base, delle diverse aree
funzionali per il fatto che il test può essere ripetuto senza particolari problemi di apprendimento della
prova; il test training, cioè l’apprendimento del test, ovvero che il bambino ottenga dei risultati
migliori semplicemente perché ha imparato le modalità con cui superare il test in questo caso sono
abbastanza limitate. Nonostante questo ci sono delle criticità per questo strumento, in particolare in
relazione alla scarsa utilità per i bambini oltre i 4-5 anni, più crescono meno diventa utile la
valutazione ottenuta con questa scala, e inoltre una scarsa predittività rispetto ai risultati scolastici ma
questo abbiamo visto è una questione relativa comune a tutti i test legati allo sviluppo, laddove si
identifichino delle aree dove ci siano dei ritardi o ci fosse necessità di approfondire alcuni esiti
bisogna utilizzare test mirati e specifici per avere dei risultati più coerenti rispetto ai deficit riscontrati
dalle singole scale di questo test.

Il quoziente di sviluppo in una specifica scala viene calcolato:


Quoziente = (∑mesi/età anagrafica)*100
il quoziente di sviluppo è quindi dato dal rapporto percentualizzato tra il totale dei mesi di sviluppo
ottenuti in tutte le scale e l’età anagrafica:
Quoziente di sviluppo: (∑mesi (tutte le scale) / numero scale*età (mesi)) *100

Invece nella revisione della scale di Binet-Simon curata da Terman fu introdotto il concetto di
quoziente intellettivo definito come rapporto fra età mentale ed età cronologica. Al nome di Otis,
allievo di Terman, è invece collegato lo sviluppo dei test di intelligenza collettivo e l’uso dei quesiti
a scelta multipla e in ultimo il passaggio al concetto di abilità mentale, ovvero la qualità mentale
innata che si amplia con l’avanzare dell’età fino al raggiungimento della maturità intellettiva
massima. Otis ha fatto anche parte del gruppo di ricercatori che ideò i test Army Alpha e Army Beta
famosissimi perché utilizzati dall’esercito statunitense durante la prima guerra mondiale. Tra l’altro
l’utilizzo dei test di intelligenza all’interno delle forze armate è sempre stato molto diffuso tanto che
le somministrazioni più estese e le standardizzazioni di campioni numericamente più elevate sono
proprio dovute a questo settore applicativo. Lo scopo di questo autore, cosi come per Binet e Simon,
era di misurare l’abilità generale del soggetto attraverso un insieme di compiti e di prove testistiche.
A queste indicazioni si somma anche l’annosa controversia fra psicologi inglesi e americani circa il
numero delle dimensioni dell’intelligenza: Spearman (1904, 1923, 1927) postulava l’esistenza di un
fattore generale d’intelligenza denominato “fattore g” e, accanto ad esso, alcuni fattori minori
specifici indicati come s1, s2, s3 ….
Thurstone (1931) invece promuove l’idea che l’intelligenza sia un costrutto multidimensionale,
quindi un insieme di eterogenee, diverse e sfaccettate abilità primarie indipendenti fra loro. Pur
avendo individuato con i suoi studi l’esistenza di 12 di queste abilità, soltanto 7 sono state confermate
da studi successivi e attualmente vengono denominate Primary Mental Abilities (PMAs):
comprensione verbale, fluenza verbale, capacità numerica, capacità spaziale, memoria associativa,
ragionamento induttivo, velocità percettiva
Secondo questo schema nel 1938 Thurstone progettò il primo test di abilità mentali primarie costituito
da 7 subtest ciascuno dei quali consentiva di misurare una particolare capacità.
In questo dibattito sul panorama delle teorie dell’intelligenza, si presenta anche la posizione dello
studioso svizzero Piaget che ricopre un ruolo abbastanza significativo perché appunto secondo Piaget
la componente fondamentale del costrutto di intelligenza è rappresentata da schemi, definiti come
pattern comportamentali o strutture mentali organizzate, che consentono al soggetto di individuare la
modalità più efficace per eseguire un compito massimizzando le possibilità di successo. È chiaro che
al centro della sua proposta teorica abbiamo l’assimilazione, che consiste nell’applicazione di uno
schema o un oggetto ad una persona o a un evento e se lo schema funziona in modo corretto si verifica
una situazione di equilibrio. Viceversa si incorre in un disequilibrio che è uno stato di tensione
dinamica in cui la persona è chiamata a compiere aggiustamenti sullo schema stesso in modo da
renderlo funzionale. Nel suo insieme questo processo viene definito accomodamento, oppure
processo di equilibrazione. Queste strutture mentali infatti si evolvono nella direzione di una
crescente maturità mediante il processo di equilibrazione.
La famosa teoria delle intelligenze multiple proposta da Gardner è di tipo multifattoriale ed è costruita
partendo dallo studio delle relazioni cervello/comportamento. Secondo la prospettiva dell’autore
coesistono diverse forme di intelligenza, tra loro relativamente indipendenti, ma non è possibile
affermarne in maniera definitiva la natura ed il numero. Tuttavia Gardner riuscì ad individuarne
alcune con certezza, avendo una certa sicurezza sulla loro natura di intelligenza autonoma,
proponendo: linguistica, logico-matematica e spaziale (le tre più note), musicale, corporeo-
cinestetica, interpersonale e intrapersonale (le 4 più innovative proposte dall’autore) – (1983, 1993).
Negli ultimi anni, soprattutto nei paesi anglosassoni in America in particolare, è cresciuto l’interesse
verso lo sviluppo e l’uso di strumenti non verbali per la valutazione delle abilità cognitive, e quindi
per l’assessment, probabilmente anche per motivazioni legate ai flussi migratori, per quelle persone
appartenenti a minoranze etniche e culturali che hanno lingue diverse, che chiedono la consultazione
anche per un orientamento o che si presentano per un posto di lavoro, o per essere seguiti da un punto
di vista clinico. Per questo motivo è diventata sempre più pressante la necessità di valutare
adeguatamente le capacità delle cosiddette popolazioni speciali. I termini attualmente impiegati per
indicare una valutazione psicologica non verbale sono diversi: alcune volte si parla di valutazione
non verbale, altre volte di valutazione cognitiva non verbale, altre ancora di scale non verbali e/o di
somministrazione di test non verbali (Lang, 2008). L’espressione valutazione non verbale può essere
riferita sia alla somministrazione di un test in cui al soggetto e all’esaminatore è richiesto di non usare
il linguaggio sia in termini recettivi che espressivi, sia alla somministrazione di test non verbali dando
delle consegne verbali il più semplici possibili: questo è un fattore di criticità (“in effetti la maggior
parte dei test non verbali è descritta nei termini di strumenti nei quali l’impiego del linguaggio è
ridotto, spesso però si ricorre invece a consegne verbali anche lunghe e complicate” [McCallum,
2003, p.3]) soprattutto quando questi test vengono usati per soggetti con disabilità, disturbi del
linguaggio, deficit visivo, gravi disturbi emozionali, oppure altri problemi di salute che si presentano
in comorbilità con specifiche difficoltà di apprendimento. Queste necessità hanno reso possibile la
creazione di prove che fossero meno legate alla modalità di misurazione dell’intelligenza tradizionale
come ad esempio le scale Whescher.
Di seguito una classificazione di test non verbali che si basa sul format di presentazione degli
stimoli:
- test di performance che usano per i loro compiti materiali concreti e richiedono che il soggetto
risponda in maniera non verbale, ma le istruzioni sono date oralmente.
- Test non linguistici che sono completamente non verbali sia nelle istruzioni, sia nei contenuti,
sia nelle risposte e valutano le abilità collegate al pensiero analogico (come figure), alla formulazione
di categorie e al ragionamento sequenziale (come ad esempio nelle matrici di Raven).
Gli strumenti non verbali si propongono di valutare l’intelligenza nei soggetti tra loro molto
eterogenei, persone non madrelingua, persone che non hanno una maestria nella lingua in cui avviene
l’esame, e naturalmente gli strumenti non verbali che nascono per colmare il gap, lo spazio dovuto
alla mancanza della padronanza della lingua in cui viene somministrato il test comunque hanno un
bias (distorsione) di fondo costituita dalla idea che sia possibile superare anche il problema di una
diversa cultura di riferimento aggirando semplicemente quello che è il problema linguistico.
Naturalmente ci sono diversi studi sulla tipologia di valutazione non discriminante che hanno
dimostrato che i modi in cui il linguaggio e la cultura possono interferire nella valutazione non sono
stati superati in molti casi. Esiste la tendenza a vedere la valutazione non discriminatoria come un
problema di non riuscire a comunicare, a tradurre semplicemente la lingua nativa del soggetto valutato
e questo porta a tralasciare la definizione di fattori di tipo culturale. Inoltre è necessario sottolineare
che linguaggio e cultura sono solo parzialmente sovrapponibili, come dice anche Cohen, e per
costruire un test che sia libero da influenze culturali non basta costruire reattivi costituiti solamente
da prove non verbali, occorre predisporre dei test che richiedano dei processi di pensiero tipici della
cultura di appartenenza, non possiamo applicare processi di pensiero tipici delle culture occidentali e
poi pensare che un soggetto di un'altra cultura riesca invece ad interpretarlo correttamente.
Naturalmente pensare a dei reattivi intesi come culturalmente neutrali (culture free), imparziali ed
obiettivi, corrisponde al pensare al test non più come un insieme di prove supposte libere da influenze
culturali ma costituite da prove comuni a culture e subculture diverse. La ricerca su questo tipo di
conseguenze e distorsioni è un ambito di analisi è particolarmente complicato, solo negli ultimi
vent’anni si sono posti degli interrogativi rispetto alla capacità di valutare l’intelligenza in modo
trasversale nelle diverse culture. L’Army alpha e l’Army beta, precedentemente citati, sono stati i
primi test il cui contenuto per l’Army alpha, di cui esiste una letteratura italiana, è simile a quello
della scala Stanford-Binet destinato a soggetti che sapevano scrivere e leggere mentre l’Army beta,
di cui invece non esiste una letteratura italiana, è una scala non verbale da somministrare a soggetti
non capaci di leggere.
Un’altra classificazione dei test non verbali si basa sulla complessità e sul numero di prove
previste:
- Test unidimensionali sono brevi, composti da pochi subtest e tendono a sacrificare il grado
di accuratezza clinica in favore della rapidità e del risparmio di tempo e di conseguenza si possono
utilizzare di solito solo per uno screening iniziale. Prevedono esclusivamente prove non verbali
(solitamente matrici) che rappresentano un aspetto parziale delle molteplici sfaccettature del
costrutto: valutano alcune abilità cognitive ristrette trascurando la valutazione di altre abilità
importanti, come ad esempio la memoria.
- Test multidimensionali, sono delle batterie formate da più subtest, diversamente combinati
tra loro e permettono di ottenere diversi punteggi: di solito alcuni parziali e un punteggio globale,
definito ”scala totale”, “scala generale” o “abilità ampia misurata”, per questo vengono chiamati
high stakes test. Hanno buone proprietà psicometriche e sono spesso utilizzati per pianificare
interventi educativi.
Gli svantaggi dei reattivi non verbali per la valutazione dell’intelligenza sono:
- la presenza di un minimo di istruzione orale. Sebbene l’uso dei simboli verbali sia
apparentemente eliminato nella pratica dei test viene utilizzata una qualche istruzione orale o di gesti,
anche se poi l’esaminando è chiamato sempre a rispondere in maniera non verbale.
- scarsa rappresentatività del costrutto misurato da questi strumenti. Esiste una diatriba rispetto
alla quale ci si pone la domanda se questi test possano essere considerati stime attendibili del costrutto
di intelligenza generale di Spearman oppure possano essere considerati come competenze cognitive
non mediate dal linguaggio. Non è una questione meramente semantica ma un problema teorico
concettuale. Da una parte abbiamo coloro che sostengono i processi cognitivi non verbali come
differenti e complementari da quelli verbali, ad esempio Rourke, dall’altro abbiamo McCallum
supporta l’idea che i test principali di tipo non verbale misurano proprio l’abilità cognitiva e generale
del soggetto. Questa seconda proposizione teorica secondo cui i processi cognitivi sono in gran parte
indipendenti dal linguaggio ha acquisito in questi ultimi anni sempre più crediti perché ha avuto anche
il supporto di alcuni risultati di studi di analisi fattoriale che non indicano un differenza fra verbali e
non verbali.
Un altro tipo di test non verbale per la valutazione dell’intelligenza è il CTONI – Comprehensive
Test Of Non-verbal Intelligence (D.D. Hammill, N.A. Pearson, J.L. Wiederholt, 1996). È una batteria
di 6 subtest che misurano diverse abilità intellettive non verbali in correlazione tra loro. Questo tipo
di test può essere somministrato a soggetti dai 6 ai 90 anni di età e viene pubblicato per la prima volta
nel 1996 dalla casa editrice Pro Ed.
I principi che hanno guidato la costruzione dello strumento sono:
- in questo test gli stimoli, le regole di somministrazione e lo scoring dovrebbero essere dati in
modo orale o tramite pantomima (gesti) in base a quello che l’esaminatore ritiene sia il metodo più
appropriato,
- il test dovrebbe valutare tre tipi di abilità intellettive riconducibili all’intelligenza generale :
pensiero analogico, formulazione di categorie, ragionamento sequenziale.
- le abilità dovrebbero essere misurate in contesti aventi sia illustrazioni di oggetti sia figure
geometriche.

CTONI approfondimento
Il CTONI è composto da 6 subtest che devono essere presentati nel seguente ordine:
1. Analogie di illustrazioni (subtest 1) e Analogie di figure geometriche (subtest 2); senza fare
un uso manifesto di parole, si richiede che il soggetto sia in grado di capire la relazione
“Questo sta a quello (le due caselle superiori della matrice) come questo sta a …cosa (le due
caselle inferiori)?” L’esaminando risponde indicando uno degli item da scegliere (alternative
a risposta multipla) e da inserire nella casella vuota.
2. Categorie di illustrazioni (subtest 3) e Categorie di figure geometriche (subtest 4); senza usare
il linguaggio, l’esaminando deve intuire il nesso esistente tra le due figure-stimolo superiori e
scegliere, tra gli item proposti, quello che appartiene alla stessa categoria. L’esaminando deve
stabilire quale, tra questi, sia connesso a quelli.
3. Sequenze di illustrazioni (subtest 5) e Sequenze di figure geometriche (subtest 6); il clinico
mostra una serie di caselle ognuna delle quali contiene illustrazioni diverse, ma legate fra loro
da un nesso sequenziale; l’ultima casella è vuota. Il soggetto indica tra una serie di item (scelta
multipla) quello corretto per completare la serie progressiva. Senza usare parole,
l’esaminando deve decidere quale sia la regola alla base della progressività delle illustrazioni.

Ogni subtest prevede 25 item. La sola modalità di risposta accettata è quella per cui
l’esaminando sceglie all’interno di alternative proposte la risposta corretta e la indica. Non
sono richieste ne ammesse risposte verbali, scritte o che prevedono una qualche forma di
manipolazione del materiale più complessa e articolata. Il tempo previsto per la
somministrazione dell’intera batteria varia tra i 40 e i 60 minuti. Non esiste un limite di durata
obbligatorio, ma i sinoli subtest richiedono raramente più di 5-10 minuti di tempo per essere
somministrati. È prevista una somministrazione soltanto individuale.

Caratteristiche psicometriche del CTONI


Il CTONI mostra un buon livello di attendibilità, che si mantiene considerevolmente alto neo
confronti delle 3 fonti di errore considerate:
1) Campionatura del contenuto del test sia rispetto alla popolazione generale che per
sottogruppi e minoranze etniche:
2) Campionatura dei tempi (coefficienti del test-retest superiori a .80)
3) Concordanza fra esaminatori (indici di concordanza variabili tra .95 e .99)
 La validità di costrutto è stata verificata secondo la procedura proposta da N.E. Gronlund e R.L.
Linn (1990) che prevede la formulazione di ipotesi teoriche accertate tramite metodi logici o
empirici, quindi confronto tra la corrispondenza di correlazione fra costrutti similari o inversi.
 La validità di criterio: gli studi che hanno messo in correlazione lo strumento con altri test criteriali
(la WISC-III, il TONI-2, Test of Nonverbal Intelligence di L.Brown et al. E il PPVT-R Peabody
Picture Vocabulary test-Revised di L.M. Dunn et al.) forniscono solo un moderato supporto
rispetto alla validità di criterio concorrente del test: paradossalmente, i tre punteggi del CTONI
sembrano correlare di più con i QI verbali della WISC-III (.59, .56, e .76) che con i QI di
performance (.51, .55, e .70). Occorre continuare le ricerche relative al test incrementando la
potenza e l’efficienza delle procedure statistiche delle misure connesse.
Caratteristiche delle diverse tipologie di reattivi nella prospettiva della teorizzazione di Murphy
e Davidshofer
Tipologia dei test e continuum dell’influenza culturale
Tipologia di reattivo Obiettivo
Culture-free (o culture fair) Valutazione dell’intelligenza a prescindere dalle influenze
culturali
Culture-reduced/cross cultural Valutazione dell’intelligenza in contesti culturali diversi.
Riduzione dei bias culturali attraverso l’individuazione e
l’eliminazione degli item eccessivamente collegati ad
aspetti socioculturali
Non verbal Valutazione dell’intelligenza in soggetti che, per disabilità
dovute a cause organiche o per caratteristiche dell’ambiente
socioculturale di provenienza, non sono in grado di
rispondere ad alcuni stimoli verbali o a tutti.
Culture-specific (o culture-related) Valutazione dell’intelligenza in soggetti appratenti a un
preciso e circoscritto ambiente socioculturale. Il materiale-
stimolo (verbale e non) è specificatamente organizzato e
strutturato in funzione di quest’ultimo.
Se il concetto di test di ridotta influenza culturale si è imposto su quello cross cultural è dovuto a una
valutazione dell’impossibilità di ottenere una completa separazione di cultura e linguaggio.
Naturalmente l’identificazione del continuum da culture-free a culture-specific è modulato in misura
cospicua anche dalla presenza di materiale verbale. C’è una sorta di principio di uguaglianza fra test
non verbale e test culture reduced, in realtà il tema della ridotta influenza culturale in ambito
testologico, ma non solo relativamente ai test di valutazione dell’intelligenza ma in termini generali
su tutte le tipologie di reattivi, deve essere affrontato in un orizzonte teorico molto più alto. Già negli
anni 50 abbiamo detto si è dimostrato che fattori come la motivazione a sottoporsi a un test, la ed è
costituito pratica sui test, le reazioni alle condizioni di somministrazioni sono condizionate dal livello
socio economico dei soggetti ad esempio. Soggetti con diverse risorse socio economiche hanno delle
prestazioni diverse non soltanto dovute al test di per se. Elementi come l’interesse del soggetto per i
contenuti della prova, la capacità di interagire con l’esaminatore e la volontà anche di avere una buona
performance che deriva a volte anche dall’abitudine a risolvere problemi in modo individuale
influenza le prestazioni dei soggetti e la riuscita del test. La più immediata conseguenza di questo
tipo di osservazioni è che molti degli sforzi che sono stati compiuti per produrre uno strumento di
tipo psicometrico a livello culturale avrebbero potuto essere indirizzati alla progettazione di reattivi
nell’ambito di ciascuna cultura e tarati in rapporto a soli criteri locali (culture related). Non è una
proposta completamente innovativa perché abbiamo diversi tentativi già a partire dagli anni 40 (ad
esempio Mann aveva tentato qualcosa in questa direzione) però sono stati sempre tentativi isolati. Il
Black Intelligence test of cultural Homogeneity ad esempio è un test di vocabolario sviluppato da
Williams nel 1972 ed è composto da espressioni afroamericane usate all’interno del test di
intelligenza per i neri americani. La scarsa utilità di questo tipo di test è dovuta anche ai problemi
legati ai test culture specific rappresentati principalmente dalle estreme risorse necessarie per
sviluppare e validare un reattivo culture specific, la cui applicazione è poi di fatto limitata
semplicemente a quella specifica cultura. Se dovessimo creare un test per ogni subcultura della
popolazione allora non riusciremmo più ad andare avanti perché sarebbero troppe. Sarebbe però
fattibile una revisione di alcuni strumenti esistenti adattandoli e ritarandoli in rapporto ai diversi
contesti nei quali dovrebbero poi essere utilizzati.
Effetto Flynn e norme di un test
L’effetto Flynn definisce l’aumentare, nel corso degli anni, del valore del quoziente intellettivo medio
della popolazione, che risulta più marcato nei test che misurano l’intelligenza fluida rispetto a quelli
che misurano l’intelligenza cristallizzata. Questo cambiamento, rilevato negli anni 80 da James R.
Flynn, è stato considerato come indipendente dalla cultura di appartenenza. Inizialmente l’aurore si
concentrò nella valutazione delle situazioni di paesi in cui si avevano dei dati più affidabili, in
particolare quindi i paesi occidentali, e Flynn osservò come il QI aumentasse in modo progressivo
con una crescita media di 3 punti per ogni decennio. La popolazione statunitense guadagnò 13 punti
dal 1938 al 1984. L’intensità di questo aumento era diversa da paese a paese, però i dati rilevavano
comunque variazioni positive nel corso degli anni da un minimo di 5 ad un massimo di 25 punti.
Flynn pensò che questo fosse un risultato interculturale e osservò come l’aumento registrato fosse
dovuto a test che si concentrassero, come abbiamo detto, più sulla intelligenza fluida che su quella
cristallizzata. Tra le varie ipotesi che sono state avanzate per spiegare questo aumento furono prese
in considerazione la tipologia di alimentazione, quindi una migliore alimentazione nei paesi
occidentali, la crescita degli anni di scolarizzazione e la maggiore capacità di risolvere i problemi
logici astratti, molto più frequenti nell’ambiente socio culturale odierno. Si tratta però di ipotesi che
però non sono state spiegate e non hanno trovato una decisiva conferma rispetto ai dati. Negli anni
2000 i dati presenti in alcuni paesi sviluppati dimostrano che questa tendenza si sta invertendo con
valori medi di quoziente di intelligenza inferiori rispetto a quelli rilevati molti anni prima. Questa
tendenza dell’effetto Flynn continua a persistere invece dove la media nazionale del QI è ancora
bassa. Naturalmente molte critiche sono state apportate a questo effetto Flynn, alcune dicono che
questo fenomeno può essere facilmente influenzato dall’esistenza di una serie di fattori soprattutto
metodologici e psicometrici che ne possono limitare la portata esplicativa. C’è anche una controversia
rispetto allo stabilire se questa differenza di QI tra sottoculture si stia riducendo o incrementando, ma
Flynn non è riuscito a dare una indicazione specifica su quale possono essere realmente le cause di
questo effetto.
Test: l’effetto Flynn è dipendente dalla cultura di riferimento -> falso perché è considerato
indipendente. (fine lezione 6)
TEST DI RENDIMENTO
Questa categoria raccoglie i reattivi strutturati in base a serie di item standardizzati e scelti seguendo
una difficoltà crescente all’interno di un campione sufficientemente rappresentativo, allo scopo di
valutare determinate funzioni psichiche o determinate attitudini. Vengono detti anche test di efficacia
o di prestazione.
Test di livello intellettuale generale
Il primo test mentale fu approntato da Binet nel 1905, infatti è noto come “Scala 1905” o
Binet-Simon dal nome del collaboratore, all’interno di uno studio sulla didattica speciale per
bambini affetti da ritardi mentali commissionato dall’allora Ministro della Pubblica
Istruzione. Da notare, perché nella revisione del test si operò diversamente su questo punto,come in
questo caso la difficoltà crescente dei circa trenta problemi approntati fu determinata
in modo empirico somministrando il test sia a bambini normodotati tra i tre e gli undici anni
(circa cinquanta) e ad alcuni bambini con ritardo mentale. La prima versione non presentava
indicazioni circa il metodo oggettivo per l’assegnazione di un punteggio complessivo. Questo
reattivo venne rielaborato nel 1908 (e poi nel 1911 senza però cambiamenti sostanziali se non
aggiornamento degli item e l’estensione ad ulteriori età) aumentando il numero e migliorando
la qualità delle prove attraverso un più accurato controllo effettuato con la somministrazione
del test a circa 300 bambini normali con un’età compresa tra i 3 e i 13 anni. In questo modo
gli item furono anche suddivisi secondo i livelli di età, ad esempio tutte le prove che potevano
essere completate positivamente da bambini normali di cinque anni venivano inserite nel
livello corrispondente, mentre tutte le prove che potevano essere completate positivamente da
bambini normali di sei anni venivano inserite nel livello corrispondente e così via.
Quest’ultimo fattore costituiva l’avanzamento più importante perché permetteva di esprimere
il punteggio del test di un soggetto in termini di età mentale, ovvero il confronto tra il
punteggio del soggetto sul test e l’età dei bambini normali con rendimento di livello
equivalente. Binet utilizzo la terminologia neutra di “livello mentale” per evitare di introdurre
implicazioni non verificate sullo sviluppo dell’individuo. Negli USA il test riscosse molto
successo e subì diversi riadattamenti, il più famoso dei quali ad opera di L. M. Terman, nel
1916, che prese il nome di scala Stanford–Binet perché sviluppata appunto alla Stanford
University. Questa versione è rilevante anche perché per la prima volta venne adottato il
Quoziente di Intelligenza (Q.I.) per la determinazione del quoziente intellettuale attraverso un
rapporto tra età mentale ed età cronologica. Degno di nota anche l’adattamento del test ad
opera di Kuhlmann (1912), perché riuscì ad estendere la scala verso i livelli inferiori (fino ai
tre mesi di età) gettando le basi per lo sviluppo dei test di intelligenza prescolastici ed
infantili. Negli anni seguenti, a causa sia di alcune difficoltà tecniche di natura statistica sia
degli scarsi risultati delle metodiche di questi test per l’infanzia applicate a soggetti in età
adulta, questo tipo di reattivo venne progressivamente abbandonato a favore del test di
Wechsler-Bellevue, tutt’ora ampiamente diffuso nella del livello di intelligenza generale.
A questo ambito afferiscono anche:
• il Guilford–test, basato sulla Teoria della Struttura dell’Intelletto che comprende fino a 150 abilità
differenti classificate su tre fattori Operazioni, Contenuti e Prodotti ognuno con sotto dimensioni
(rispettivamente 6, 4, 6 e riassunto graficamente dal cubo del modello tridimensionale della struttura
dell’intelletto, Guilford 1967), è uno dei numerosi reattivi sviluppati dallo studioso e dai sui
collaboratori nell’ambito del ventennale Aptitude Research Project. Questo modello di analisi per la
valutazione dell’intelligenza ha dimostrato nelle successive analisi difficoltà nell’applicazione di
tecniche statistiche e per l’individuazione di correlazioni positive ed è stato criticato a tal punto che
ad oggi ha pochi sostenitori.
• il reattivo delle Matrici Progressive o Test di Raven (matrici progressive) è un test cognitive
approntato per la valutazione globale dell’intelligenza, intesa come ampiezza delle abilità mentali
indipendenti dal livello culturale (1954). Dato che i risultati di questo reattivo dipendono, in misura
minore rispetto altri test, dal fattore educativo, è divenuto lo strumento principe per la misura
dell’efficienza intellettiva, in tutti i settori in cui essa è utile (in ambito clinico o per la
valutazione del personale) ed ha generato una “famiglia” di test similari: Standard Progressive
Matrices, Advanced Progressive Matrices, Coloured Progressive Matrices. Gli items che devono
assicurare una valutazione non influenzata dal livello di istruzione del soggetto sono costituiti da 6 o
8 disegni tra i quali scegliere per completare un modello presentato attraverso delle logiche da
applicare per raggiungere la soluzione. I test richiedono dunque di analizzare, costruire ed integrare
fra loro una serie di concetti.
• il Thurstone–test (1939), batterie di test per l’uso applicativo denominate Abilità Mentali Primarie
Primary Mental Abilities PMA, fondate sull’analisi fattoriale per la loro costruzione (sulla elevata
validità fattoriale dei reattivi) e differenziate per livelli di età. Presenta delle criticità per l’assenza di
variabili rilevanti per l’ambito educativo e l’orientamento (memoria e abilità percettiva su tutte).

Test attitudinali specifici


Colmano le lacune rilevanti nei test d’intelligenza riguardo le attitudini specifiche legate
principalmente ad abilità pratiche ovvero concrete (attitudine meccanica, attitudine musicale, etc.)
spesso parzialmente incluse nelle recenti batterie attitudinali multiple. La maggioranza
dei test per la misurazione della velocità, del coordinamento e delle altre caratteristiche delle
reazioni motorie sono basati su apparecchiature, ma per la somministrazione collettiva sono
stati progettati numerosi adattamenti “carta e matita”. Afferiscono a questo ambito anche test legati
alla capacità visiva/uditiva, la destrezza motoria o addirittura il talento artistico:
• Labirinti di Porteus, test di Elithorn, Torre di Londra, per capacità di pianificazione
• i test di cancellazione e di cancellazione di cifre per la misurazione dell’attenzione selettiva;
• la scala di Oseretzki e Movement ABC per l’attività motoria;
• City university colour test, le prove di Nagel, le Tavole di Ishihara, per la capacità
di distinguere i colori;
Per quanto riguarda gli strumenti a disposizione dei temi afferenti alla Psicologia del lavoro è
utile citare:
• Il General Clerical Test GCT (P. Saville, J. Hare, L. Finlayson, S. Bleinkhorn) è un test utile per la
misurazione delle attitudini più richieste per i lavori d'ufficio: velocità e precisione, numerico-verbale.
Ideato quindi per supportare la selezione o l’orientamento del personale impiegatizio di livello
medio/medio alto che abbia completato il diritto dovere dell’istruzione è composto da tre sub-test per
ciascuno dei quali è previsto un punteggio con relativa scala di valutazione che può essere usata sia
singolarmente che correlata a quella degli altri due subtest. In tal modo è possibile elaborare sia un
giudizio analitico funzionale alle caratteristiche della mansione alla quale potrebbe essere destinato
il soggetto esaminato, sia una valutazione globale effettuata in base alla somma dei risultati ottenuti
nei tre sub-test, che sono:
§ il clerical fondato sulla velocità e precisione nell'eseguire un compito impiegatizio di routine:
comprende due prove che esaminano, l'una l'attitudine a controllare nomi e numeri accuratamente, e
l'altra l'abilità di classificare correttamente e rapidamente materiali.
§ Il sub-test numerical raggruppa tre generi diversi di prestazione, a base di conteggi, che sono spesso
richiesti nel lavoro impiegatizio.
§ Il sub-test verbal tende a misurare la conoscenza della lingua, aspetto molto importante in numerose
mansioni ed essenziale in altre; esso comprende quattro prove che esaminano l'attitudine a capire
concetti espressi verbalmente e le loro reciproche relazioni e la conoscenza di aspetti fondamentali
della lingua italiana concernenti l'ortografia e la sintassi.
• Test di Orientamento Motivazionale (Borgogni, Petitta e Barbaranelli, 2004) ha come obiettivo la
comprensione dei fattori principali che spingono una persona a mettere in atto un’azione, a
raggiungere una meta, a mantenere un impegno nel tempo, facilitando in tal modo l’impostazione di
programmi di gestione e di sviluppo delle risorse. Il TOM si propone appunto di misurare i motivi o
le inclinazioni che orientano il comportamento organizzativo o le preferenze in ambito lavorativo in
quattro diversi orientamenti: all’obiettivo, all’innovazione, alla leadership e alla relazione. Si sviluppa
a partire da una disamina delle principali teorie connesse alla motivazione: le teorie dei bisogni
(Maslow, 1954; Alderfer, 1969; McClelland, 1985) che fanno riferimento a specifici bisogni (fisici o
psicologici), il soddisfacimento dei quali è fondamentale per il benessere e la sopravvivenza; le teorie
del valore (Atkinson, 1958; Adams, 1965; McClelland, 1973) che prendono in considerazione ciò che
l’individuo vuole o desidera piuttosto che ciò che è necessario per sopravvivere riduttive dell’agire al
principio di massimizzazione del vantaggio, mentre i valori possono esprimere una preferenza o avere
un carattere morale; le teorie dell’obiettivo per le quali gli obiettivi rappresentano qualcosa di
importante per la persona ma sono più specifici nel contenuto rispetto ai valori perché circoscrivono
la meta ed indirizza più finemente il comportamento. Per questo reattivo si preferisce però la teoria
di McClelland (1985) che costituisce un avanzamento delle precedenti proponendo una definizione
puntuale, più precisa riguardo alle differenze individuali, ed individuando un metodo di misurazione
del costrutto latente. Considerata anche la proposta teorica di Berlyne (1966), la costruzione del Test
di Orientamento Motivazionale si è orientata verso la definizione di un questionario self-report (con
70 affermazioni valutate su una scala Likert a sette posizioni ) in grado di delineare un profilo
motivazionale dell’individuo in ambito organizzativo e di misurare, nel contesto culturale italiano, le
inclinazioni che orientano le preferenze in ambito lavorativo, ovvero di individuare le situazioni
lavorative che consentono alla persona di dare il meglio di sé. Viene impiegato con successo nella
selezione per valutare il profilo motivazionale del candidato, nei programmi di sviluppo per favorire
l’inserimento o lo spostamento del personale in più appropriati percorsi futuri di crescita professionale
o per comprendere e quindi anticipare potenziali conflitti o disarmonie, o nella valutazione del
potenziale.
• Il Differential Aptitude Tests DAT (G. K. Bennet, H. C. Seashore, A. G. Wesman,
1954) si sviluppa a partire dalla riflessione che ad uno stesso livello di abilità mentale
generale possono corrispondere diverse attitudini specifiche, e che ciò comporti per la selezione del
personale la necessità di un reattivo con punteggi multipli in grado rappresentare le diverse
caratteristiche. Al fine di valutare specifici profile professionali i DAT sono predisposti in modo da
poter essere applicati indipendentemente e in fasi successive. I componenti principali comuni a tutti
i DAT sono reattivi di efficienza, eccezion fatta per il test Velocità e Precisione, che serve come
strumento di misurazione diretta della velocità d'esecuzione. Al contrario del
precedente questo reattivo utile per valutare le capacità intellettuali fondamentali è
indipendente dalle conoscenze legate alle materie scolastiche. I sub-test sono:
Struttura del DAT-5
I DAT-5 sono articolati in livello 1 per soggetti con scolarità pari ai primi due anni della scuola
secondaria di II grado, e livello 2 per soggetti con scolarizzazione medio-alta.
Ragionamento meccanico = misura la comprensione dei principi fondamentali della fisica; è utile per
la selezione e l’orientamento verso occupazioni connesse alla fabbricazione e riparazione (ad es
ingegneria, elettrotecnica, uso di macchinari, ecc)
Velocità e Precisione = valuta la velocità di risposta in un’attività di percezione semplice, da
utilizzarsi nella selezione per molte professioni d’ufficio per i quali è richiesta attenzione rapidità e
precisione
Ragionamento astratto = è una misura non verbale della capacità di ragionamento (fattore g)
richiedendo abilità a percepire relazioni fra figure astratte e a giungere ad una generalizzazione, senza
ricorrere al linguaggio: per la valutazione e l’orientamento verso qualsiasi professione.
Ragionamento numerico= misura l’abilità a svolgere compiti che prevedono il ragionamento
matematico; è utilizzabile per la selezione e l’orientamento in professioni tecnico-scientifiche,
amministrative, di contabilità, ecc.
Ragionamento verbale = misura la capacità di comprendere concetti legati alla parola valutando la
capacità del soggetto nell’astrarre, generalizzare e pensare costruttivamente, da utilizzarsi per
professioni dell’area commerciale, giuridica, educativa, giornalistica, scientifica.
Rapporti spaziali = misura l’abilità nel visualizzare un oggetto tridimensionale a partire dalla
rotazione di un modello bidimensionale; utile in professioni e studi di tipo tecnico, dalla progettazione
al design, all’architettura, alla moda, ecc
Uso del linguaggio = misura l’abilità nel rilevare errori di grammatica, punteggiatura e sintassi e la
capacità di esprimersi nella lingua italiana
• Il Reattivo di Ragionamento (P. Rennes) il cui obiettivo è la rilevazione della capacità
di ragionamento attraverso l'abilità a trovare delle relazioni. L’ambito di impiego di
questo test è principalmente la selezione del personale, per valutare se i candidati
possiedano un'adeguata elasticità mentale. Per saggiare l’abilità di adattamento veloce
dei soggetti a nuovi problemi e situazioni (anche imprevisti) che possono verificarsi in
un ambiente di lavoro si basa su diversi tipi di prove: serie di lettere, serie di numeri, analogie verbali,
prove di vocabolario.
Test clinico–diagnostici
L’insieme degli strumenti di cui si avvale la psicologia clinica comprende quasi tutti i test
citati precedentemente poiché gli psicologi che operano in questo contesto necessitano di
stabilire se il disordine di un individuo è di tipo funzionale o di tipo organico, e per questo
necessitano di informazioni derivanti da fonti diverse e non solo quelle ricavate dai colloqui o dalle
anamnesi. L’applicazione dei test in modo coordinato e complementare agli altri
approcci vie di analisi ha due ricadute rilevanti. La prima è che anche reattivi le cui capacità
psicometriche non siano state accertate o siano insufficienti possono essere utilizzati e
contribuire alla definizione del caso e all’indicazione all’esperto clinico del giusto percorso
per lo studio del soggetto. Sempre tenendo presente che i limiti di punteggi su tali test sono da
ritenersi molto vincolanti. Seconda conseguenza è che anche reattivi con un alto grado di
attendibilità e una validità ampiamente accertata non possono autonomamente restituire
risultati sufficientemente precisi da giustificare diagnosi individuali in modo autosufficiente.
I reattivi utilizzati in questo campo sono i test psicofisiologici che derivano dalle ricerche per
la classificazione delle complesse interazioni tra i fattori organici, e quindi le modificazioni
biologiche, e i disturbi a livello intellettuale o comportamentale in particolare nel corso degli
eventi psichici, come conseguenza diretta o indiretta, sia nel soggetto normale che
patologico (Ogni paradigma della psicologia clinica (principalmente riassumibili in Psicoanalitico,
Cognitivo, Umanistico, Apprendimento, Biologico) presuppone delle ipotesi sui concetti di normalità
e patologia, sebbene non esplicitandoli in modo chiaro e definito. Generalmente le singole indicazioni
avanzate per le definizioni ricorrenti di normalità e patologia sono diversificate (irregolarità statistica,
sofferenza individuale, infrazione delle norme sociali, palesi disfunzioni in alcune aree rilevanti
dell’esistenza, imprevedibilità rispetto ad un elemento ambientale stressante), ma in nessun caso si
tratta di elementi soddisfacenti, poiché al massimo descrivono solo una dimensione di quella che
potrebbe essere una definizione concettuale esauriente).
Molti test neuropsicologici sono stati strutturati come strumenti clinici per la valutazione della
compromissione delle funzioni mentali e che quindi misurano con accuratezza e affidabilità
aspetti come la velocità di risposta, la percezione spaziale, l’astrazione, il livello di
comprensione, la formazione dei concetti e il linguaggio, la memoria visiva, l’abilità
psicomotoria sempre in riferimento al presupposto di una deficienza differenziale nelle varie
funzioni.
Tra questi ricordiamo:
• il test Visual Motor Bender Gestalt, noto come Bender-Gestalt test, è sostanzialmente un test di
riproduzione a memoria di disegni ideato per la misurazione delle funzioni visuo-percettive e visuo-
costruttive. La denominazione deriva dall’origine dei disegni selezionati da Bender, elaborati in modo
da illustrare specifici principi della psicologia della forma (Gestalt).
• Il test di Goldstein, generato dagli studi sulle ripercussioni del danno celebrale sul comportamento
dei soldati della prima guerra mondiale, e tutt’ora applicato ai cerebrolesi; nella versione Goldstein
Scheerer (test dei cubi, o il test dei bastoncini) per la valutazione del pensiero astratto i reattivi hanno
scarso valore di affidabilità ma hanno una utilità per l’interpretazione delle osservazioni di carattere
qualitativo riguardo alla funzione compromessa nei celebrolesi dell’”attitudine all’astrazione”.
• Il test di memoria visiva di Benton basato su items relativi alla percezione spaziale, memoria
immediata e riproduzione visomotrice è utile per la valutazione dello stato di compromissione delle
funzioni psichiche dei bambini e degli adolescenti.

Lezione 7 – Test di personalità obiettivi e proiettivi


Questa categoria di test (denominati anche test di prestazione tipica o test non cognitivi) si
prefiggono di esplorare la personalità o nella sua globalità o in qualche sua dimensione, come
i test di dominanza–sottomissione o quelli di introversione–estroversione, allo scopo di
riferirla ad una classificazione o ad una tipologia. In questo caso l’interpretazione dei dati, a
differenza di quanto avviene nei test di rendimento, sono sottoposti ad un’interpretazione non
solo quantitativa, ma anche qualitativa. In questo ambito si distinguono due grandi categorie: i
test obiettivi costruiti su principi omologhi ai test di rendimento, quindi con prove o domande
le cui risposte vengono dapprima quantitativamente conteggiate e poi qualitativamente
valutate, e i test proiettivi idonei all’indagine dei processi inconsci, ma non facilmente
assoggettabili ad una generalizzazione delle risposte entro schemi prefissati e quindi
conteggiabili.
I test obiettivi
A questa categoria fanno riferimento diversi metodi studiati per trattare le difficoltà collegate
alla costruzione degli invarianti di personalità incluse le rating scales che, differentemente dai
questionari di personalità successivamente elencati, non puntano a individuare le
caratteristiche costitutive di una personalità, ma a valutare una sintomatologia clinica, qualificando
nosograficamente le corrispondenti possibili modificazioni nel corso del tempo.
Tra questi i principali sono:
• Il primo metodo della “costruzione empirica”, ovvero validazione empirica, del
reattivo si serve delle (frequenze di) risposte di gruppi di riferimento formati da
individui che presentano le caratteristiche (ad esempio sintomi) che si intendono
analizzare. Il test diviene strumento discriminatorio tra gruppi di normali e gruppi
diagnosticati come patologici e la standardizzazione ottenuta dal campione di
popolazione di riferimento permette di trasformare i punteggi grezzi ottenuti dal
campione esaminato in punteggi ponderati molto utili in ottica di predittività del
reattivo. L’Inventario Multifasico di Personalità del Minnesota - MMPI (Minnesota
Multiphasic Personality Inventory), inventario in questo caso indica un questionario
descrittivo, rientra in questa categoria e prende in esame i tratti patologici della
personalità mediante il confronto tra le risposte dei soggetti esaminati e quelle dei
pazienti affetti da diversi tipi di disturbi mentali tenendo presente tre obiettivi
principali: il raggiungimento di una campionatura di comportamenti significativa per
lo psichiatra; massimizzare la facilità di presentazione attraverso la semplificazione
linguistica; creazione di un repertorio di items molto ampio per estendere il ventaglio
di descrizioni di personalità valide (più di mille nella versione originale). Il MMPI e
successive revisioni (MMPI-2 con nuove scale e aggiornamento dei contenuti)
controlla la presenza di distorsioni attraverso una serie di items (raggruppabili in una
scala a se L = lie) in grado di intercettare e mettere in luce le tendenze dei partecipanti
a esagerare gli aspetti positivi della propria personalità o viceversa quelli negativi.
Diversamente in altre versioni sono previsti items cosiddetti “ovvi”, perché connessi
semanticamente in modo ovvio alle variabili di interesse, e contemporaneamente ci sono quesiti più
sottili che sono definiti come quesiti di controllo. Ad esempio il questionario di Cattell che vedremo
di seguito adotta questa tipologia di intercettazione delle menzogne
• Un ulteriore metodo prevede un maggior numero di dimensioni di portata più
specifica, ma meno generalizzabili poiché utilizza l’analisi fattoriale che permette di
costruire insiemi che codificano un determinato tratto o funzione mentale in rapporto
alle rispettive correlazioni. Secondo la scuola fattorialista, considerando un numero
significativo di supposte manifestazioni di capacità mentale e calcolando per ognuna il
coefficiente di correlazione con tutte le altre, ogni tratto psicologico rilevante è
riconducibile a strutture latenti che rappresentano le componenti fondamentali della
personalità. A questa categoria appartiene il questionario Cattell test 16 PF, un
esaustivo inventario di personalità fondato sulla misurazione di 16 dimensioni, funzionalmente
indipendenti e psicologicamente significative, individuate nel corso di
decenni di ricerche fattoriali condotte su gruppi normali e clinici (attualmente si è
arrivati alla quinta revisione).
• I metodi per la costruzione dei reattivi in base ad un modello teorico con validazione
sperimentale fanno riferimento a poche dimensioni estremamente generali, come nel
caso dell’EPI (Eysenck Personality Inventory) che è stato strutturato sulla base della
teoria della personalità elaborata da Eysenck, che infatti sostiene l’universalità delle
dimensioni da lui identificate. La prima versione del reattivo (Maudsley Personality
Inventory MPI) proposto da Eysenck prevedeva tre fattori: EstraversioneIntroversione, Neuroticismo,
Psicoticismo. Nella versione rivista e denominata EPI si
aggiunse alle tre precedenti una scala L come per il test MMPI (e adattati da questo) e
una validità e affidabilità più robusti dovuti ad una revisione degli items, ma la teoria
fondante è sempre la stessa. Vi è poi una successiva versione (tuttora riadattata ed
utilizzata) l’Eysenck Personality Questionnaire (1975) che si discosta in particolare
solo per la scala di misura dell’Estroversione definibile come “estraversione sociale”, più vicina
all’impostazione di Guilford. Le intercorrelazioni tra le scale appaino
ancora più forti in questa terza edizione, mentre l’attendibilità e la validità fattoriale è
stata verificata con repliche su molti campioni diversi.
• Fondato sulla teoria dei bisogni psicologici di Murray (1938) l’EPPS (Edwards
Personal Preference Schedule) del 1953, si fonda sul metodo della correlazione per lo
stile di risposta per ridurre gli effetti della desiderabilità sociale; in base agli studi di
Edwards su quest’ultima minaccia all’affidabilità di un test gli items del reattivo sono
stati approntati come un confronto tra coppie di affermazioni indicative di bisogni
diversi tali di costringere il soggetto ad una “scelta forzata” tale da ridurre la
desiderabilità sociale da parte dell’intervistato nella formulazione delle proprie
risposte (È stato dimostrato da studi successivi che anche le risposte del PPS possono essere formulate
in modo da restituire un’impressione distorta (McKee, 1972).
• Big Five Questionnaire, Five-Factor Model (FFM), è un famoso reattivo le cui basi teoriche si
fondano su differenti concezioni presentate precedentemente come l'approccio fattoriale elaborato da
Hans Eysenck e la teoria della sedimentazione linguistica sviluppata da Cattel. Il primo identifica le
dimensioni caratterizzanti e le differenze individuali attraverso analisi statistiche di tipo fattoriale,
due fattori Nevroticismo ed Estroversione sono quelle già utilizzate dallo studioso nel 1983; il
secondo, nei sui studi, considera il vocabolario della lingua quotidiana come un serbatoio di
descrittori delle differenze individuali (Giustificato anche dal fatto che “le differenze individuali che
sono più salienti e sociologicamente rilevanti nella vita delle persone finiranno per essere codificate
nelle varie lingue: più importanti sono tali differenze e più è probabile che vengono espresse con
singole parole (Angleitner e Ostendorf, 1988, p. 174)”.). Questi diversi approcci di ricerca
confluiscono in questo test formulato da Costa e McCrae (1988) i cui vantaggi principali
comprendono l’economicità e la praticità, ed infatti quando fu somministrato per la prima volta in
Inghilterra nel 1990 i partecipanti restarono sorpresi e anche un po’ scettici rispetto alla velocità della
profilazione della personalità (solo circa 10 minuti) termini dal significato non sempre inequivocabile.
Altri punti di forza di tale modello sono sia l’ampia generalizzabilità, riscontrata attraverso
l’applicazione in contesti con lingue e culture diverse, sia la possibilità di individuare altre dimensione
derivanti dall’integrazione con ulteriori paradigmi. Il modello del Big Five si propone come un
tentativo di mediazione e unificazione tra diversi punti di vista. Individua 5 dimensioni fondamentali
per la descrizione e valutazione della personalità che si pongono ad un livello intermedio di generalità
rispetto ai modelli che fanno riferimento a poche dimensioni estremamente generali come l’Eysenck
Personality Inventory e rispetto a modelli a più dimensioni di portata più specifica come il Cattell 16
PF. “Le cinque dimensioni dei Big Five quindi rappresentano strutture latenti a cui poter ricondurre
ogni spiegazione e descrizione dell’individuo poiché si riferiscono alle modalità stabili utilizzate dalla
persona per interagire con gli altri e con l’ambiente, alla regolazione dell’umore e alla attività
conoscitiva” (Bianchi P., La diagnosi in psicologia clinica: il modello dei Big Five, p. 84).
§ Nevroticismo: Tendenza all’ansia, Ostilità rabbiosa, Tendenza alla depressione, Ansietà sociale,
Impulsività, Vulnerabilità. Tendenza a fare esperienza di stati emotivi negativi e percezioni negative
di se stesso sul piano dell’ansia, della vulnerabilità e della coscienza di se. Individui con alti livelli su
questo tratto sono caratterizzati da un umore negativo e da stress.
§ Estroversione: Disposizione a fare esperienza di stati emotivi positivi, avere fiducia e sicurezza
anche in un contesto sociale, di sentirsi bene riguardo a se stesso nel mondo globale, Calore emotivo,
lstinto gregario, Assertività, Attività, Ricerca di eccitazione, Emozionalità positiva. Individui con alti
livelli su questo tratto sono più socievoli e socialmente aperti (ha a che vedere anche con l’apertura
mentale)
§ Apertura: Fantasia, Senso estetico, Apertura alle emozioni, Apertura all’esperienza,
Consapevolezza, Curiosità intellettuale, Rispetto per i valori.
§ Gradevolezza: Fiducia, Schiettezza, Altruismo, Acquiescenza, Modestia, Empatia.
§ Scrupolosità: Competenza, Ordine, Senso del dovere, Impegno per il risultato, Autodisciplina,
Riflessività

Tabella 1 Riepilogo degli elementi principali dei tratti latenti del BFQ
Fattori Polo 1 Polo 2 Componenti
Energia / Dinamismo /
Estraversione Introversione
Estroversione Dominanza
Amicalità / Cooperatività /
Altruismo Egoismo
Gradevolezza Cordialità
Scrupolosità /
Coscenziosità Responsabilità Destrutturazione
Perseveranza

Controllo delle
Stabilità Emotivamente emozioni /
Nevrotico
emotiva stabile Controllo
degli impulsi
Apertura Apertura a Apertura alla
mentale / nuove cultura
Conformista /
Apertura idee/valori / Apertura
all’esperienza Creativo / all’esperienza
L’Acronimo in lingua inglese utilizzato per ricordare i fattori principali è OCEAN:
• Openness to experience (Apertura mentale) rappresenta la tendenza ad essere aperti alla varietà delle
esperienze ed essere creativi e anche molto disponibili al cambiamento
• Conscientiousness (Coscenziosità) : tendenza ad essere cauto attento meticoloso organizzato e
strutturato neo comportamenti. Talvolta questa coscienziosità è vista anche in relazione al
nevroticismo. Include anche la dimensione di quando un individuo internalizza i valori morali e le
regole della società
• Extraversion/Introversion (Energia)
• Agreeableness (Amicalità / gradevolezza)
• Neuroticism (Stabilità emotive)
Rispetto a ciascuno dei Big Five sono inoltre state determinate due sottodimensioni, entrambe riferite
ad aspetti differenti della medesima dimensione. Le affermazioni legate ad ogni sottodimensione sono
formulate per metà in senso positivo rispetto alla denominazione della scala, mentre l’altra metà è
formulata in senso negativo, con l’obiettivo di controllare eventuali risposte date a caso o con lo stesso
livello per fare più velocemente. In totale il BFQ consta di 132 item e le 10 sottodimensioni. A tal
fine è anche presente nel Big Five Questionnaire test una scala L = Lie, inserita per apprezzare la
misura della tendenza del partecipante a restituire un profilo personale falsamente "positivo" o
"negativo". Particolarmente rilevante è il ruolo di questa scala poichè in presenza di elevati punteggi
rilevati su di essa si possono attuare due differenti strategie: ponderare i risultati, apportando delle
correzioni ai punteggi ottenuti, oppure, nel caso in cui la simulazione superi un determinato punto
critico, procedendo all’eliminazione "d’ufficio" del soggetto, perché manifestamente inattendibile.
La risposta agli item del BFQ avviene selezionando la risposta ai quesiti all’interno di “scala Likert”
a 5 punti (da "assolutamente vero per me" ad "assolutamente falso per me").
Test obiettivo di personalità MMPI
Un grande impulso allo sviluppo dei test non cognitivi si ebbe negli anni in cui scoppiò la prima
guerra mondiale le nazioni in guerra chiedevano alla psicologia di misurare in modo empirico il
funzionamento non cognitivo delle reclute in modo da esaminare quanti più individui possibili nel
tempo a disposizione e scartare le reclute con potenziali problemi dal punto di vista psichiatrico.
Il test MMPI (Minnesota Multiphasic Personality Inventory) parte dal presupposto che “La
personalità di un individuo è definita come un insieme relativamente stabile e distintivo di
comportamenti, pensieri e sentimenti che lo caratterizzano e che influenzano le sue interazioni con
l’ambiente” (Ercolani 2007, p.68). Il MMPI è probabilmente il più utilizzato e famoso test di
personalità (al momento è disponibile la versione 2) (ci sono più di circa 500 riferimenti ad esso già
solo su uno dei data base che si possono consultare che è PsychLit), le sue proprietà psicometriche
sono buone, il test può essere somministrato a gruppi di persone contemporaneamente ed è abbastanza
semplice da correggere nonostante la grande lunghezza. Si compone di 13 scale che valutano tra
l’altro la depressione, la mascolinità-femminilità, la schizofrenia, e la tendenza a dare un’immagine
favorevole di sé (scala Lie). Dopo varie analisi è stato costituito un comitato di esperti per rivedere la
prima versione dell’MMPI e fornire una seconda versione per risolvere alcuni problemi, caratteristici
dei test in genere, che proprio per questo devono essere presi in considerazione come esempio di ciò
che non va fatto durante la creazione di uno strumento di misurazione. L’MMPI 1 aveva come
fondamento un campione normativo di soggetti che frequentavano un ospedale del Minnesota, erano
una popolazione di riferimento caucasica bianca. Evidentemente questo tipo di campione normativo
non poteva essere validato, non aveva rappresentatività, per la popolazione americana in generale.
Erano presenti molte influenze della cultura religiosa e anche del tipo di famiglia tradizionale, e anche
dal punto di vista linguistico c’erano dei riferimenti che non erano di facile comprensione per coloro
che non appartenevano alla cultura di riferimento. La revisione ha portato pertanto a presentare
diverse scale. L’MMPI-2 è un questionario di personalità autosomministrato composto da 567 item
dal contenuto eterogenei, che prevede risposte dicotomiche del tipo vero/falso. Esso costituisce la
revisione aggiornata e standardizzata di uno dei questionari di personalità più diffusi e utilizzati
nell’assessment clinico e psichiatrico, l’MMPI-1 di SR Hathaway e JC McKinley del 1940-1942
appunto. I risultati di diverse indagini indicano infatti che il MMPI/MMPI” è il test di personalità più
frequentemente utilizzato dagli psicologi clinici (86%), il secondo in uso dopo la WAIS-R (94%) .
L’MMPI-2 ha superato i problemi connessi a:
- Adeguatezza del campione di standardizzazione originale
- Linguaggio e riferimenti contenuti negli item
- Esigua numerosità del set originale degli item
Ci si è accorti di questi problemi perché i risultati del questionario non permettevano una
formulazione di diagnosi valida in tutti i casi. In alcune situazioni diventavano inutili. Era chiaro che
i punteggi ottenuti dalle scale cliniche non rappresentavano misure pure delle sindromi che venivano
indicate dalle scale. Una revisione degli item aveva dunque una necessità primaria perché riduceva
la possibilità di ottenere un singolo punteggio elevato su un’unica scala. Gli obiettivi della revisione
inoltre sono stati la sostituzione di item obsoleti offensivi e di difficile comprensione ed elaborazione,
l’ottenere dati normativi più recenti e fondati su un campione che fosse davvero più rappresentativo
della popolazione degli Stati Uniti e più ampio possibile, e mantenere anche una certa continuità con
le scale cliniche e di validità perché ovviamente non si voleva perdere tutto quello che era stato fatto
sulla ricerca precedente.
Scale di validità Numero item
? Cannot say
L Lie 15
F Infrequency 60
K Correction 30
VRIN Variable response inconsistency 98
TRIN True response inconsistency 40
Fb F back 40

Scale cliniche
Scala 1 Ipocondria (Hs) 32
Scala 2 Depressione (D) 57
Scala 3 Isteria (Hy) 60
Scala 4 Deviazione psicopatica (Pd) 50
Scala 5 Mascolinità-femminilità (Mf) 56
Scala 6 Paranoia (Pa) 40
Scala 7 Psicoastenia (Pt) 48
Scala 8 Schizofrenia (Sc) 78
Scala 9 Ipomania (Ma) 46
Scala 9 Introversione sociale (Si) 69

I test proiettivi
Sono test non rigidamente strutturati dove il soggetto, rispondendo più liberamente, mette
qualcosa di più personale nelle sue risposte, che, opportunamente esaminate, consentono di
scorgere gli aspetti inconsci della sua personalità, ma non sono facilmente assoggettabili ad una
generalizzazione delle risposte entro schemi prefissati e quindi conteggiabili. Il termine proiettivo fa
riferimento al meccanismo della proiezione illustrato dalla psicoanalisi, in cui il soggetto espelle da
sé e localizza nell’altro, persona o cosa, qualità, sentimenti, desideri che egli non riconosce o
rifiuta in sé. Nelle tecniche proiettive il termine proiezione viene usato in un’accezione più
ampia e si riferisce alla modalità con cui il soggetto organizza le proprie esperienze, proiettando in
un materiale non strutturato la struttura della sua personalità. Questo tipo di test
fa appello alla produzione immaginativa in cui il soggetto è libero di creare il proprio mondo
rivelando nella sua creazione anche le tendenze inconsce di cui non è pienamente
consapevole. Le caratteristiche principali di questo tipo di test sono: l’ambiguità dello stimolo
fornito, la molteplicità delle risposte possibili non sottoposte al giudizio vero/falso, giusto/sbagliato
e che non sono però strutturate ovvero non predefinite ma create in autonomia dal rispondente e
quindi si richiede una interpretazione della prova che talvolta, a differenza delle tecniche
psicometriche, non esclude un rapporto interpersonale con l’esaminatore. Contemporaneamente
questo è sia un punto di forza che di debolezza perché se abbiamo il soggetto che è in grado di
rispondere in maniera libera proiettando ciò che è dentro di se ed esprimerlo in modo più efficace
dall’altro abbiamo una interpretazione e un rapporto con l’esaminatore che potrebbe introdurre una
distorsione (la risposta non è di tipo chiuso ma c’è una creazione da parte del soggetto che deve essere
interpretata). È importante non confondere l’essere non rigidamente strutturati con l’essere non
standardizzati: non strutturato vuol dire che abbiamo appunto un questionario non strutturato cioè
senza risposte predeterminate mentre non standardizzato significa che non ci sono delle procedure di
somministrazioni uguali per tutti, che non è vero perché i test di tipo proiettivo sono standardizzati
come tutti gli altri, la differenza è che ci consentono di scorgere aspetti inconsci della personalità
facendo appunto riferimento al meccanismo della proiezione della psicoanalisi. Un altro aspetto
vantaggioso è che questo tipo di test fa appello alla produzione immaginativa in cui il soggetto è
libero di creare il proprio mondo riuscendo ad esprimere solo in questo modo alcuni elementi di cui
è inconsapevole.
Rientrano in questo gruppo:
• il test di Rorschach, presentato ufficialmente nel 1921 insieme ai criteri di analisi delle risposte, è
probabilmente il più utilizzato (e ormai celeberrimo) e prese spunto dal suggerimento di Binet del
1895 circa l’opportunità di utilizzare le macchie di inchiostro per analizzare la personalità. Parte
dall’ipotesi che le risposte verbali fornite dal soggetto a dieci macchie accidentali e simmetriche
suggestive e ambigue, che suscitavano cioè le risposte più numerose nella prima versione, forniscano
un quadro della struttura di personalità del rispondente, generate da riflessioni sulle proprie modalità
cognitivo–affettive. Il test delle macchie di Rorschach permette un’analisi approfondita della struttura
di personalità, consentendo anche di elaborare ipotesi diagnostiche.
Dal punto di vista internazionale è ritenuto il metodo più rilevante nel campo delle tecniche proiettive
sebbene ci siano numerose criticità e critiche sulla capacità di differenziare alcuni tipi di soggeti.. A
differenza del TAT, che presenteremo successivamente, il reattivo di Rorschach non è stato
congegnato in riferimento ad una determinata teoria della personalità, ma si è sviluppato ed è stato
promosso come metodo esplorativo per studiare la relazione tra percezione e personalità a partire
dall'osservazione empirica che i pazienti schizofrenici apparivano percepire le macchie in modo
molto differente dai soggetti non clinici. Proprio per questo motivo sembra più funzionale in alcuni
casi e meno in altri. I tratti di personalità che possono essere colti in un reattivo di Rorschach possono
essere classificati in base a tre dimensioni: aspetti cognitivi o intellettuali; aspetti affettivi o emotivi;
aspetti del funzionamento dell'Ego. A partire dall'iniziale intuizione di Rorschach, che non completò
comunque il manuale di siglatura del test, che la modalità di interpretare le macchie potesse fornire
delle informazioni sulla struttura della personalità del soggetto, molti sono stati gli autori che hanno
condiviso, ma anche modificato, ampliato e reinterpretato il Rorschach. Bisogna quindi fare
attenzione in merito alle scuole di siglatura di questo test. Concentrandoci sulla capacità di valutare
la personalità con il Rorschach bisogna sottolineare che le informazioni che il test è in grado fornire
devono però integrarsi con altre informazioni derivanti da strumenti differenti.
• Il Test di appercezione tematica - TAT (Thematic Apperception Test) rappresenta, dopo il
Rorschach, il test proiettivo più impiegato per l’analisi globale della personalità attraverso la
rilevazione delle tematiche basilari intese come emozioni, sentimenti, vissuti affettivi profondi e
processi cognitivi complessi e conflitti di personalità che ricorrono nelle elaborazioni immaginative
dell’individuo. La valutazione delle reazioni a stimoli interpersonali ambigui è alla base della stesura
della prima versione del manuale del 1935 e viene definita da Murray col termine di appercezione,
per evidenziare il fatto che i soggetti interpretano attivamente lo stimolo in base ai loro tratti di
personalità e alle loro esperienze di vita. La personalità in questo caso viene intesa come la
conoscenza dell’assortimento dei bisogni che in modi eterogenei incidono sul suo sviluppo. Il reattivo
è composto da trenta tavole in bianco e nero (più una tavola bianca) che introducono personaggi
diversi per genere ed età rappresentati all'interno di varie situazioni di vita (originariamente 20 cui
vennero aggiunte le specifiche “serie” per bambini e donne). Rispetto ai test tematici prodotti nella
prima metà del ‘900 le tavole hanno il vantaggio di essere a colori il che le rende più gradevoli ai
soggetti ed ha anche due forme parallele che lo rendono utili ed interessante per gli operatori.
Test: i test proiettivi psicometrici non sono standardizzati -> falso tutti i test psicometrici sono
standardizzati
Il grado di strutturazione delle tavole è eterogeneo, infatti alcune sono appropriate per i soggetti di
ogni età, altre differenti per bambini o adulti, e i soggetti inseriti nella situazione possono essere un
numero variabile (da uno a più personaggi), ovvero contenere soltanto rappresentazioni di paesaggi.
La somministrazione del test può avvenire anche in modo collettivo con differenze di risultato
modeste e quindi valide anche a livello di ricerche psicologiche, anche se il metodo di analisi richiede
la padronanza della teoria psicodinamica di Murray per essere somministrato e conduce ad una
descrizione qualitativa (non quantificata) delle caratteristiche di personalità individuali. Per quel che
riguarda l'attendibilità, occorre innanzi tutto prendere in considerazione la confrontabilità di risposte
stimolate da esaminatori diversi. Permangono dubbi sulla confrontabilità di risposte stimolate da
somministratori diversi poiché diversi studi hanno messo in evidenza che anche la sola presenza del
somministratore produce variazioni fino ad inibire la produzione di contenuti ad alto valore emotivo.
L'attendibilità del TAT inoltre non può essere verificata attraverso i criteri si omogeneità interna, dato
che è possibile utilizzare modalità di somministrazione diverse (serie di tavole diverse o ripartite in
più sedute) e interpretazioni/analisi diverse. Inoltre la scelta delle tavole in base all’obiettivo della
varietà inficia la possibilità di applicazione del metodo delle forme parallele, visto che in linea di
principio non esiste una serie parallela di stimoli. Oltre alle caratteristiche permanenti alcuni studi
hanno dimostrato che anche gli stati transitori influenzano le risposte, quindi la stabilità delle
caratteristiche personali evidenziabili con il TAT non è un’assicurazione di affidabilità robusta.
Ulteriori ricerche sulla validità di questo reattivo hanno preso in considerazione il rapporto tra
comportamento e fantasie espresse nelle storie, mettendone in discussione il rapporto lineare diretto:
le problematiche derivanti dalle fantasie espresse nei racconti possono non essere collegate al
comportamento dell’individuo, e per di più anche il rapporto tra la quantificazione dell'intensità delle
fantasie dei soggetti rispetto al loro comportamento non risulta chiaramente definita: in generale è
considerata positivamente correlata, ma variabile in base a caratteristiche come l’età, il genere, il tipo
di scoring utilizzato e le variabili considerate.
• il test di Appercezione tematica per Bambini CAT (Children Apperception Test) elaborato da Bellak
(1957) è un reattivo per lo studio della personalità a partire dall’analisi delle differenze individuali
nella percezione di stimoli standardizzati, nel caso specifico rappresentazioni di animali. Queste
situazioni considerate basilari per il bambino sono in grado di rilevare gli aspetti dinamici delle
problematiche del soggetto, portando alla luce i tratti latenti relativi all’aggressività, all’angoscia
derivante dalla solitudine, alla propria accettazione da parte degli adulti. Questo test restituisce
informazioni anche sulla struttura affettiva, sulla dinamica delle reazioni del bambino di fronte ai
problemi dello sviluppo ed alle modalità di risoluzione adottate.
• la Tecnica delle relazioni oggettuali ORT (Object Relations Technique) elaborato da Phillipson
(1990) è un altro test proiettivo sviluppato principalmente a partire dal TAT e con influenza minore
dal test di Rorschach. I presupposti teorici però sono diversi e fanno riferimento agli elementi alla
base della relazione oggettuale del soggetto, ovvero i processi dinamici con i quali il soggetto esprime
le forze consce e inconsce che caratterizzano l’interazione col suo ambiente. Queste forze si
dispiegano a partire dalle relazioni con i primi oggetti da cui il soggetto dipende per la soddisfazione
dei bisogni primari e il test dell’ORT rileva se e quanto l’esperienza di adattamento è convalidata
socialmente o, al contrario, non sia opportunamente gestita con manifestazioni inconsce e come la
relazione oggettuale influenzi il modo successivo di entrare in rapporto con il mondo.
• Il Blacky Pictures test, ideato da Gerald Blum e apparso per la prima volta sulla scena clinica nel
1949 per valutare le varie componenti di competenza psicoanalitica e per convalidare
sperimentalmente i concetti principali della teoria freudiana classica (conflitti psichici, meccanismi
di difesa, sviluppo psicosessuale). Tuttora i concetti principali della psicoterapia non hanno evidenza
empirica forte. Quando si parla di questo test si parla di un tipo di test proiettivo dove proiettivo
specificatamente si riferisce alla natura delle risposte date dal soggetto, il quale è chiamato ad
arricchire gli stimoli ambigui ma più o meno strutturati, si hanno delle immagini indicative che
vengono sottoposte al soggetto a cui è richiesto una risposta soggettiva. Agli stessi stimoli ogni
rispondente attribuisce contenuti diversi organizzati sulla base della propria esperienza e delle sue
rappresentazioni psichiche. Proprio per questo motivi i test proiettivi sono costruiti su materiale poco
strutturato che si presta a plurime interpretazioni. Come nel CAT, anche in questo test i personaggi
sono animali antropizzati e il test si compone di 11 tavole raffiguranti scenette in cui compaiono
Blacky, un cagnolino nero, e la sua famiglia composta da madre, padre e Tippy una figura di età e
sesso imprecisati. I personaggi sono cani invece di essere umani in modo da facilitare la libera
espressione in situazioni in cui le figure umane potrebbero provocare una inopportuna resistenza di
tipo inibitorio in quanto troppo familiari. Lo scopo del test è quello di portare alla luce le tematiche
principali più significative della personalità sempre in relazione ai bisogni e sentimenti che vengono
inibiti dal soggetto o che sono addirittura inconsci. Le critiche rispetto a questo test sono state
molteplici perché come spesso accade le azioni ordinarie vengono rappresentate in modo strano e
grottesco anche in relazione alla terapia vera e propria di Freud. Ad esempio la figura in cui Blacky
mangia lo spago dovrebbe rappresentare l’erotismo orale, la figura in cui Blacky mostra rabbia mentre
guarda i genitori che si tengono per mano dovrebbe rappresentare l’inizio del complesso di Edipo. La
somministrazione di questo tipo di test è di tipo individuale, la tavola 1 ad esempio dice “qui c’è
Blacky con mamma” e propone la situazioni duale e rievoca i problemi relativi alla dipendenza
primaria nella situazione di allattamento e quindi dovrebbe mobilitare delle risposte che indichino
teoria della pulsione come erotismo orale e presenza e qualità della simbiosi come una lettura
relazionale. Tutte queste tavole hanno questo tipo di interpretazione. La somministrazione di questo
test prevede tre diversi momenti: racconto spontaneo, prodotto liberamente dal soggetto dopo la
presentazione di ogni singola tavola, la presentazione di queste tavole è preceduta da una breve
consegna inziale come ad esempio “ti presenterò una tavola alla volta e tu dovrai raccontare quello
che ti viene in mente sui personaggi e su quello che sentono”, su ciascuna tavola viene poi presentata
una breve frase come ad esempio quella di prima “qui Blacky osserva mamma e papa”, c’è un secondo
momento che è l’inchiesta, ovvero una serie di domande strutturate a scelta multipla presentate ad
ogni tavola a seguito del racconto spontaneo per poter indagare quali siano gli stati d’animo che il
paziente attribuisce ai suoi personaggi. Ad esempio nella tavola 4 potrebbe essere “cosa prova Blacky
nel vederli amoreggiare? Perché?” “Cosa rende infelice Blacky?”; l’ultima fase è la preferenza per le
vignette cioè la categorizzazione delle tavole in due gruppi a seconda di quella che è la preferenza, il
gradimento, del soggetto. Quelle che piacciono di più e di meno. Questa fase viene condotta alla fine
del test per mettere in evidenza il materiale non immediatamente accessibile alla coscienza e per poter
verificare che la preferenza che viene indicata sia più o meno discrepante con i raconti spontanei e le
risposte fornite alle domande poste in precedenza. Questa operazione secondo Blum ha lo scopo di
riflette ciò che non è immediatamente accessibile alla coscienza e che posa invece far luce attraverso
la sua struttura difensiva. Le debolezze di questo test fanno rifermento in generale a quelle che sono
le debolezze dei rettivi proiettivi di personalità. Gli studi effettuati hanno cercato di verificare la
validità di contenuto, cioè quanto gli item del test riflettono e rappresentano il comportamento, il
costrutto, che il test vorrebbe valutare, nonché dare un giudizio sull’appropriatezza delle deduzioni
che sono effettuate a partire dai punteggi del test misurando una determinata variabile che è proprio
quella che si vuole misurare. Queste ricerche non hanno trovato risultati soddisfacenti perché vi è una
possibilità di interpretazioni plurime delle risposte del soggetto e soprattutto la contaminazione tra
risultati del test e informazioni acquisite tramite altre fonti e quindi che il somministratore posa
inquinare quello che è il risultato del test.
Cosa misura: sviluppo psicosessuale del soggetto, meccanismi di difesa, e relazioni oggettuali. Ambiti
di utilizzo: assessment clinico. Destinatari: bambini con età compresa fra 6-11 anni ma a volte anche
adulti. (fine lezione 7)
• Il metodo delle piccole favole o storie elaborato da Düss (1957) come rapido metodo di indagine
sostitutivo dell’interrogatorio psicoanalitico diretto del bambino. Un protagonista si trova in una
specificata situazione che rimanda ad uno dei diversi stadi dello sviluppo psicosessuale (stadio orale,
anale, edipico, ecc.) e il modo in cui il bambino conclude una favola iniziata dallo sperimentatore
serve a valutare le reazioni normali, patologiche e sintomatiche, e quindi le risposte date dal bambino
sono utilizzate per individuare rapidamente eventuali conflitti e il loro grado di gravità e nel
caso costituire un punto di partenza per un intervento psicoterapico. L'analisi delle risposte date dal
soggetto richiede agli esaminatori una conoscenza profonda del modello psicoanalitico, in particolare
riguardo alla struttura della personalità e alla comprensione delle situazioni simboliche rappresentanti
determinati stati dell'evoluzione affettiva del bambino, ma anche una certa padronanza della tecnica
dell'interrogatorio psicoanalitico.
Vanno segnalati anche i reattivi basati sulla produzione di disegni come meccanismo per
facilitare l’espressione di contenuti altamente emotivi da parte del soggetto all’interno del
colloquio e per attenuare l’eventuale ansia derivata. Questa ampia tipologia fa riferimento alle
tecniche cosiddette “produttive” (G.W. Allport, 1965) che favoriscono le risposte non verbali.
Questi test (sebbene il termine in questo caso sia quasi improprio dato il basso grado di
validità e affidabilità), oltre alla produzione “libera” del disegno, prevedono il disegno della
figura umana, della famiglia, di oggetti di familiari, e il completamento di disegni come
schermi su cui proiettare il proprio vissuto, le tendenze del proprio inconscio e la percezione
di sé.
I reattivi proiettivi precedentemente presentati e descritti sono soltanto una parte, ma ne esistono
numerosi altri classificabili a partire dalle tecniche impiegate per la loro strutturazione (in una
rielaborazione della suddivisione di L. K. Frank):
• ludiche, non utilizzate per il trattamento terapeutico del bambino, il famoso trattamento attraverso
il gioco, ma per l'analisi della personalità; • rifrattive, basate sull’impiego di un mezzo convenzionale
di comunicazione (ad esempio la scrittura) per rivelare la personalità del soggetto analizzando le
distorsioni che quest’ultimo provoca sull’attività di comunicazione stessa; ù
• costruttive, che accomunano i reattivi caratterizzati dall’azione del soggetto che costruisce strutture
più ampie partendo da un materiale predefinito (ad esempio il test del mosaico di Lowenfeld e il test
del villaggio di Arthus);
• costitutive, in cui partendo da elementi non strutturati il soggetto stesso definisce la struttura.
1. I REATTIVI PSICOLOGICI DA CONOSCERE
"In quali circostanze i pattern cognitivi, affettivi, motivazionali, comportamentali del paziente e le
loro interazioni si attivano in modo tale da produrre stress per lui/lei o per le persone che gli/le sono
vicine?” Westen (1998, pp. 119-120). “Ogni mezzo diagnostico deve essere elaborato in base ad una
chiara concezione teorica delle dimensioni o dei costrutti psicologici che intende rilevare. Solo cosi
può essere considerato uno strumento scientifico e può essere utile nella pratica. Infatti la chiarezza
teorica facilita notevolmente l'interpretazione dei risultati ottenuti dallo strumento, consentendo di
valutarli in un contesto e in un tessuto psicosociale più ampio e più sicuro”. (Holland, 1993 p. 1) “Un
esame psicologico è ben condotto soltanto se il clinico si orienta costantemente attraverso la
formulazione di ipotesi relative a questo o a quell'aspetto del funzionamento del paziente” Perron
(1997, p. 52). “I test psicologici non sono altro che un tipo di strumento ideato per facilitarela
conoscenza interpersonale e renderla più valida, meno soggetta a differenze individuali e a distorsioni.
L’allestimento e l’utilizzazione dei test comportano il riferimento a teorie complesse e l’uso di
tecnologie sofisticate” (Boncori, 1993 p.7) Queste tre riflessioni di studiosi esperti del funzionamento
dei reattivi psicologici riassume abbastanza fedelmente (e brevemente) il percorso formativo dei
moduli precedenti. In questo ultima sezione del corso analizzeremo più nel dettaglio alcuni dei test
già introdotti sommariamente nella classificazione dei test, e poi richiamati qui e là nelle dispense
nell’ambito dei vari esempi e casi specifici, dato che la numerosità degli strumenti testistici
attualmente disponibile è da considerarsi troppo elevata per una trattazione completa sia per lo
studente che per lo psicologo non specialista. L’obiettivo della trattazione di questa nona parte non è
quello di generare fisiologiche reazioni di confusione ed incertezza per l'accumulo di letteratura
manualistica relativa a test sia “storici” che “moderni”, ma al contrario veicolare quelle indicazioni
operative generali necessarie ed valide per autonome future scelte dei test da somministrare o dei
corsi di formazione per reattivi specifici. Lang (2008) sostiene che i test da conoscere assolutamente
per lo psicologo sono dieci (è evidente che una trattazione di 300 pagine in questo caso sia
improponibile), ma a partire da questa selezione, inquadrandola nelle necessità del corso, ridurremo
il numero dei reattivi approfonditi a tre integrando poi con cenni a due ulteriori accezioni all’interno
delle lezioni video e delle slides. Questa scelta tiene conto dei reattivi più affidabili, senza distinguere
tra quelli di passata o recente costruzione, e riguarda: le Scale Wechsler nell’ambito dei test cognitivi,
il Big Five Questionnaire (BFQ) nell’ambito dei test obiettivi di personalità, e il Test di appercezione
tematica (TAT) nell’ambito dei test proiettivi. Forniremo comunque molte indicazioni sui test
Minnesota Multiphasic Personality lnventory (MMPI), Test, il dell'Ansia e Depressione nell'infanzia
e adolescenza (TAD) (Depression and Anxiety in Youth Scale) e il Test delle macchie di Rorschach,
e il BenderGestalt test. In generale i reattivi psicologici devono essere adattati prima di essere
somministrati a soggetti rappresentati da una popolazione diversa da quella per la quale il test è stato
originariamente validato, ed infatti i manuali riportano quando questa verifica di validità è stata
effettuata. Controllare che la validità del test per un determinato obiettivo e che l’uso deciso sia
compatibile con l’adattamento (italiano nel nostro caso) è di estrema importanza perché i risultati dei
test possono comportare danni o benefici ai soggetti cui vengono somministrati. Questa è anche la
ragione per cui è poco conveniente ricercare su canali stranieri (riviste e case editrici) test per scopi
professionali da somministrare poi su soggetti italiani, perché difficilmente rispetteranno questi
requisiti. In ogni caso per gli scopi di questo corso si presenteranno i reattivi in modo generale, cioè
con le indicazioni psicometriche originarie, per poi approfondire la versione italiana, non tanto per
mettere semplicemente in luce le differenze, ma per dimostrare quali sono i requisiti e le procedure
per adottare un reattivo ad una differente popolazione (può risultare particolarmente utile anche in
fase di ricerca per la tesi di laurea, dato che spesso i test innovativi sono costruiti in altri paesi).
2. I QUESTIONARI DI PERSONALITÀ
Il costrutto della personalità è definito dal Cambridge Dictionary of Psychology come
l’organizzazione dinamica all’interno dell’individuo di tratti comuni, schemi di comportamento,
valori, interessi, progetti e motivazioni, comprensione di sé e visione del mondo, abilità e modelli
emozionali che determinano specifici comportamenti e pensieri. Tutti i sistemi all’interno
dell’individuo che sviluppano e interagiscono per creare le caratteristiche peculiari e condivise
della persona. Quindi questa disposizione dinamica che contraddistingue però in modo stabile un
soggetto è essenziale per renderlo conoscibile alle persone del mondo esterno, e gli psicologi sono
particolarmente interessati a misurare, attraverso la metodologia psicometrica, questi elementi
costanti definiti tratti di personalità. Per tratto si intende un'invariabile predisposizione a
comportarsi in un determinato modo. Esso può essere definito come un continuum, lungo il quale
si collocano i soggetti, che se ne differenziano per il grado e non per la presenza o assenza del
tratto. Vi sono due tipi di tratti: quelli superficiali, inferiti dai comportamenti, e quelli originari,
inferiti dalla correlazione dei vari tratti superficiali (Cerniglia, 2009 p.83). Per raggiungere questo
scopo è necessario costruire un sistema di classificazione e di descrizione della personalità
fondato su basi scientifiche, in grado di supportare gli strumenti utilizzati dalla psicologia in
ambito clinico, per la selezione del personale (organizzazioni e lavoro), nel counseling, nella
pianificazione educativo-didattica, sia di corroborare la rigorosità ed oggettività delle indagini
scientifiche. Ad oggi non vi è una teoria della personalità che è assurta a paradigma all’interno
delle molteplici concezioni che sono proliferate nel tempo, probabilmente mancanza dovuta anche
all’assenza per un lungo periodo di un linguaggio condiviso per la valutazione della personalità.
Il modello dei Big Five o dei Cinque Grandi Fattori è più assimilabile ad un movimento o ad una
tradizione in cui rientrano e vengono indicate diverse misure, tra cui anche il reattivo italiano del
Big Five Questionnaire a cura di Caprara, Barbaranelli e Bargagni (1993), che si pone in posizione
intermedia rispetto ai modelli precedenti rispetto al numero di fattori (dimensione) cui si riduce
la personalità come tratto stabile. Le differenze individuali così come sono state studiate
attraverso l’analisi fattoriale dopo la Seconda Guerra Mondiale ha portato alla definizione di
reattivi non integrati, ma neanche coordinati tra loro: la tassonomia di Cattell (Cattell et al., 1970)
che prevedeva 16 fattori, quella di Eysenck (Eysenck e Eysenck, 1964) fondata su tre "superfattori
" (Estroversione, Psicoticismo e Nevroticismo), quella di Guilford (Guilford e Zimmerman, 1949)
con dieci dimensioni principali, e quella di Comrey (1970; 1980) strutturata su otto fattori
principali. Evidentemente non è facile confrontare i punti di forza e debolezza di questi reattivi,
fondamentalmente contrapposti l’uno all’altro, poiché le differenze erano sia teoriche che
metodologiche, e l’unico altro punto in comune, oltre all’analisi fattoriale da cui deriva il nome
di questa tradizione di ricerca fattorialista per l’appunto, era l’adozione del questionario di
autovalutazione come dispositivo di raccolta dati. L’altra corrente di ricerca cui si attinge per la
definizione dei Cinque Fattori è quella lessicografica che parte dall’ipotesi della "sedimentazione"
linguistica di Cattell (1943), secondo la quale il linguaggio quotidiano diviene il ricettacolo che
raccoglie definisce e formalizza le differenze soggettive più salienti e socialmente rilevanti. La
terminologia del vocabolario diviene la sorgente essenziale per la selezione dei “descrittori” di
personalità in modo da poter realizzare liste di termini ammissibili. Infatti gli strumenti
originariamente impiegati per la misura dei Cinque Grandi Fattori erano liste di aggettivi
(unipolari o bipolari) selezionate attraverso sommari "scandagliamenti" del dizionario, per
pervenire all'individuazione, per ogni dimensione, dei marker più caratteristici. Questa scelta del
fondamento sulle liste di aggettivi costituì la motivazione principale per l’efficienza (rapidità) ed
efficacia di questo modello di assessment. Permaneva in ogni caso una incapacità di rilevare tutti
i molteplici aspetti e le articolazioni di una teoria che si poneva l’obiettivo di ricomprendere le
varie caratteristiche di personalità. Per la numerosità dei fattori, ma non solo, il modello generale
dei Big Five (Digman, 1990; John et al., 1988; John, 1990) tenta di raggiungere una mediazione
tra i vari approcci ed integrare, dove possibile, i differenti orientamenti. Il "Big Five" italiano
esiste infatti in almeno tre versioni diverse, che si richiamano circa allo stesso nome, ma che si
somigliano solo in parte e sono: Big Five Questionnaire, Big Five Observer e Big Five
Questionnaire for Children. Il manuale del test (1993), infatti, riporta a pagina quattro come
“L'esame delle relazioni tra i differenti "descrittori" della personalità ha quindi ripetutamente
evidenziato l'emergenza di cinque grandi fattori, indipendentemente dalle tecniche di
fattorializzazione, dalla natura e dalle procedure di valutazione (auto o etero-valutazione), dalle
caratteristiche (sesso/età) delle popolazioni, dai contesti linguistici e culturali (Stati Uniti,
Germania, Olanda, Italia, Giappone, Filippine, Taiwan) (per una rassegna si veda john, Angleitner
e Ostendorf, 1988; Digman, 1990; John, 1990; Caprara e Perugini, 1991a) […] I Big Five
sembrano dunque configurarsi come struttura canonica per la descrizione della personalità nel
linguaggio "naturale", e nel contesto dei questionari di personalità. In questo senso essi
rappresentano anche un asse di convergenza tra teorie implicite della personalità basate sulle
conoscenze/credenze della "gente comune" quali si sono sedimentate nel lessico della personalità,
e teorie esplicite della personalità, basate sulle conoscenze accumulate in sede di ricerca
scientifica”. (Vedere sulla dispensa 1.2 il prospetto a pagina 7 riportante “I 5 fattori in
rapporto alle dimensioni dei principali modelli fattoriali della personalità e ai loro strumenti
di misura)
IL BIG FIVE QUESTIONNAIRE: CARATTERIZZAZIONI
Il BFQ consta di 132 item, 24 per ognuno dei cinque fattori: Energia, Amicalità, Coscienziosità,
Stabilità emotiva e Apertura mentale. In pratica vi sono 12 item per ciascuna coppia di
sottodimensioni identificata per i cinque fattori, di cui sei sono formulati in modo positivo e sei
formulati in modo negativo con lo scopo di accertare eventuali fenomeni di response set; a questi
si aggiungono i 12 item della scala Lie. Nella sottodimensione Dinamismo un esempio di item
formulato positivamente è "Affronto ogni mia esperienza con grande entusiasmo'', mentre un
esempio di item controscalare o formulato negativamente è "Non mi piace fare più attività
contemporaneamente" (dal manuale p. 11) A partire dalle concezioni di Estroversione di MacCrae
e Costa (1987) e della Sorgenza di Gordberg (1990) viene definito il fattore ENERGIA (E) in
grado di mettere in luce se il soggetto è dinamico, loquace, socievole, energico, attivo, estroverso,
persuasivo e vitale. Le due sottodimensioni in cui si suddivide tale fattore sono: dinamismo (Di)
e dominanza (Do). La prima valuta aspetti che riguardano comportamenti energici e dinamici, la
facilità di parola e l'entusiasmo, caratteristiche che a livello interpersonale giocano un ruolo
importante. La seconda misura caratteristiche di personalità come la voglia di prevalere sull'altro,
di eccellere, di emergere sugli altri, mettendo in evidenza più l'aspetto negativo dell'essere attivi
(Picone, Ribaudo, Pezzuti, 2006, p.159). Esempi di item delle sottoscale del fattore energia: 1.
Dinamismo: “Mi sembra di essere una persona attiva e vigorosa” 2. Dominanza: “Generalmente
tendo ad impormi piuttosto che accondiscendere” Con il fattore AMICALITÀ (A) si è fatto
riferimento alla dimensione comunemente indicata come Gradevolezza (McCrae e Costa, 1987)
o Amicalità vs Ostilità (Digman, 1990). Le persone che ottengono punteggi alti in tale dimensione
tendono a descriversi come molto cooperative, cordiali, altruiste, amichevoli, generose,
empatiche. Al contrario le persone che ottengono punteggi bassi tendono a descriversi come poco
cooperative, poco cordiali, poco altruiste, poco amichevoli, poco generose e poco empatiche (dal
manuale p.9). In questo caso le corrispondenti sottodimensioni sono: Cooperarività/empatia (Cp)
che misura la capacità di collaborazione e al saper venire incontro alle necessità e agli stati di
bisogno altrui e la seconda Cordialità/atteggiamento amichevole (Co) che misura l'essere
amichevoli nei confronti degli altri, l'espansività e l'ottimismo. Esempi di item delle sottoscale
del fattore amicalità: 1. Cordialità/atteggiamento: “Se necessario non mi tiro indietro dal dare un
aiuto a sconosciuti”. 2. Cordialità/atteggiamento amichevole: “Ho fiducia negli altri”. Terzo
fattore: COSCIENZIOSITÀ (C). Il fattore coscienziosità fa riferimento alla capacità di
autoregolazione/autocontrollo, sia per quanto concerne la "chiusura", sia per quanto concerne
"l'apertura" verso gli altri. Le caratteristiche di questo fattore sono la precisione, l'accuratezza, la
responsabilità e il saper perseverare di fronte agli eventi della vita, il saper andare avanti di fronte
agli ostacoli. Le persone che ottengono punteggi alti si descrivono come molto attente, scrupolose,
ordinate, pignole, perseveranti. Con qualità opposte sono descritte le persone con bassi punteggi
(Picone, Ribaudo, Pezzuti, 2006, p.160). Si suddivide in Scrupolosità (Se) che valuta l'essere
meticolosi la cura di ogni cosa nei minimi particolari, e l'amore dell'ordine, e Perseveranza (Pe)
che valuta la costanza nell’impegno, e la persistenza. Esempi di item delle sottoscale del fattore
coscienziosità: 1. Scrupolosità: "Tendo a essere molto razionale". 2. Perseveranza: "Difficilmente
interrompo un'attività intrapresa". La STABILITÀ EMOTIVA (S) (Questo fattore fa riferimento
si è fatto riferimento a caratteristiche che rimandano sostanzialmente all'opposto dell’”affetto
negativo" [Watson e Tellegen, 1985; McCrae e Costa, 1987]) quarto fattore, mette in rilievo il
controllo delle reazioni emotive, dell'impulsività e dell'ansia. Le due sottodimensioni sono:
Controllo delle emozioni (Ce) che esamina la capacità di controllare la tensione e Controllo degli
impulsi (Ci) che esamina la capacità di mantenere il controllo del proprio comportamento (cfr.
Miragliotta, Catalano, Cerniglia, 2009 p.87). Le persone che ottengono alti punteggi in tale
dimensione tendono a descriversi come poco ansiose, vulnerabili, emotive, impulsive, impazienti,
irritabili. Al contrario le persone che ottengono punteggi bassi tendono a descriversi come molto
ansiose, vulnerabili, emotive, impulsive, impazienti, irritabili (dal manuale p.10). Esempi di item
delle sottoscale del fattore coscienziosità: 1. Controllo dell'emozione: "Non mi capita spesso di
irrigidirmi"; 2. Controllo degli impulsi: “Di solito non perdo la calma” Con il fattore APERTURA
MENTALE (M) si è fatto riferimento alla dimensione che altri autori hanno definito Cultura
(Norman, 1963), Intelletto (Goldberg, 1990) e Apertura all'esperienza (Costa e McCrae, 1985),
prestando particolare attenzione alle caratteristiche che nel nostro contesto linguistico risultano
associarsi a queste differenti denominazioni (Caprara e Perugini, 1990) (dal manuale p. 10). Il
punteggio su questo fattore evidenzia se il soggetto è attratto dalle novità, da culture e stili di vita
diversi, se si tiene informato, se è creativo e fantasioso e se trova soluzioni alternative e originali
ai problemi. Le due sottodimensioni di questo fattore sono l'apertura alla cultura (Ac) e l'apertura
all'esperienza (Ae). La prima misura la voglia di sapere, l'interesse per la letteratura, l'arte, l'amore
per la conoscenza. La seconda indaga la predisposizione degli individui verso la novità, al
considerare le cose attraverso sfaccettature diverse, a essere aperti nei confronti di valori,
espressioni, modi di vita e culture diverse (Picone, Ribaudo, Pezzuti, 2006, p.161). Esempi di
item delle sottoscale del fattore coscienziosità: 1. Apertura alla cultura: “Le scienze mi sono
sempre piaciute”. 2. Apertura all'esperienza: “Cerco di vedere le cose da prospettive diverse”. La
scala Lie (L) è predisposta al fine di fornire una misura della tendenza del soggetto a fornire un
profilo di sé falsatamente "positivo" o "negativo" in modo volontario o involontario. La scala è
formata da item che fanno riferimento a comportamenti socialmente molto desiderabili. Gli item
sono elaborati in modo che la risposta di completo accordo o di completo disaccordo risulti come
altamente inverosimile. Punteggi molto elevati in tale scala quindi sono considerati indicativi di
una tendenza più o meno intenzionale a fornire una rappresentazione di sé artificiosamente
"positiva"; punteggi molto bassi invece sono considerati sintomatici di una propensione più o
meno intenzionale a fornire una rappresentazione di sé artificiosamente negativa. Esempi degli
item: Sono sempre andato completamente d'accordo con tutti Non ho mai detto una bugia.
PROPRIETÀ PSICOMETRICHE DEL BFQ
Il manuale riporta con chiarezza le caratteristiche di rappresentatività dei diversi campioni di
soggetti selezionati per esaminare le proprietà psicometriche del Big Five Questionnaire, che può
essere somministrato a persone di normale intelligenza e cultura ed è stato standardizzato su 2035
individui di entrambi i sessi. In particolare, per l'esame delle proprietà strutturali e descrittive del
questionarionella versione italiana sono stati utilizzati (dal manuale 1993): • gruppo a.1: 420
soggetti, di cui 225 femmine e 195 maschi, di età compresa tra i 19 e i 63 anni (età media = 36.66,
ds = 11.08), di differenti professioni, appartenenti al cosiddetto "ceto medio", dotati di diploma
di scuola media superiore o di laurea; • gruppo a.2: 242 studenti universitari afferenti ai vari corsi
dell'Università di Roma "La Sapienza", di cui 145 femmine e 97 maschi, di età compresa tra i 18
e i 29 anni (età media= 21.30, ds = 2.31); • gruppo a.3: 215 ragazzi frequentanti le ultime tre classi
di quattro scuole medie superiori (rispettivamente Liceo Classico, Liceo Scientifico, Ragioneria,
Istituto Professionale), di cui 127 femmine e 88 maschi, di età compresa tra i 16 e i 21 anni (età
media= 17.66, ds = 1.02); • gruppo a.4: 126 soggetti reclutati in colloqui di selezione o in
assessment center, di cui 12 femmine e 114 maschi, di età compresa tra i 19 e i 32 anni (età media
= 24.52, ds = 2.26), dotati di diploma di scuola media superiore. Per l'esame della stabilità
temporale del questionario (tramite il metodo del test-retest che ha evidenziato un coefficiente di
correlazione che oscilla tra 0,74 e 0,87) è stato utilizzato: • gruppo b: 133 studenti universitari di
cui 115 di sesso femminile e 18 di sesso maschile ai quali il questionario è stato somministrato in
due sedute a distanza di due settimane circa. Le analisi della varianza, condotte sulle cinque scale
e sulla scala di controllo, hanno riscontrato, prendendo in considerazione la variabile sesso, che i
maschi ottengono punteggi più alti nei fattori di energia, coscienziosità, stabilità emotiva, mentre
nelle scale di amicalità e apertura mentale non emergono differenze statisticamente significative.
In ultimo è stata, valutata la coerenza interna del test attraverso l'alfa di Cronbach, la misura più
usata rispetto alla coerenza interna dei diversi item che compongono uno strumento, che ha dato
buoni risultati per i cinque fattori principali (tra 0,73 e 0,90), ma meno buoni per le
sottodimensioni e in particolare per la cooperatività (0,60), la cordialità (0,63), l'apertura
all'esperienza (0,64) e l'apertura alla cultura (0,67). Il manuale del BFQ fornisce indicazioni a
supporto della struttura fattoriale considerata come indicatore della validità interna. La matrice
dei coefficienti di correlazione tra le dieci sottodimensioni è stata sottoposta ad analisi fattoriale
mediante la tecnica dei fattori principali implementata nei programmi per l'analisi fattoriale
sviluppati da A.L. Comrey_ (1973, Comrey e Lee, 1992). Come stima iniziale della comunalità
per ogni variabile è stato utilizzato il coefficiente di correlazione più elevato mostrato con le
rimanenti nove variabili. La soluzione fattoriale è stata successivamente iterata tre volte per
stabilizzare parzialmente la stima finale delle comunalità sono stati estratti cinque fattori
principali prima che il processo convergesse, md1cando che nessun altro fattore poteva essere
estratto. La matrice non ruotata è stata sottoposta ad una rotazione ortogonale utilizzando il
metodo Tandem Criteria (Comrey, 1967). Tale metodo consente di ruotare ortogonalmente una
matrice di saturazioni sulla base delle informazioni contenute nella matrice delle correlazioni tra
le variabili analizzate. In particolare esso si articola in due fasi: la prima fase (Criterio I) consente
di distribuire la varianza estratta sul minor numero di fattori possibile con il vincolo che variabili
che saturano su uno stesso fattore debbano essere correlate. La seconda fase (Criterio II) si applica
di solito alla matrice delle saturazioni ottenuta tramite il Criterio I e consente di distribuire la
varianza estratta in modo da approssimare una soluzione di tipo "struttura semplice", con il
vincolo che variabili che non sono correlate non debbano apparire su uno stesso fattore. Rispetto
ad altri criteri di variazione (come il criterio Varimax) il Tandem Criteria consente di avere
soluzioni fattoriali più pulite e più rappresentative delle relazioni esistenti tra le variabili misurate
(Lee e Comrey, 1979) (dal manuale p.14).

3. SPUNTI DI RIFLESSIONE
Indicare due esempi di test obiettivi di personalità e due di test di personalità proiettivi e le relative
caratteristiche anche in riferimento agli ambiti di applicazione. Quali sono le caratterizzazioni
principali dei test psicologici? Confronta le caratteristiche generali dei test di rendimento e dei test di
personalità