Sei sulla pagina 1di 11

MISURARE LA MENTE

CAP. 1 – L’ambizione di misurare la mente


il test è considerato lo strumento diagnostico per eccellenza per valutare gli aspetti della psiche, esso
presenta un aspetto fondamentale che lo distingue da tutti gli altri: la possibilità di misurare questi aspetti,
si parla infatti di test psicometrici.
Misurare significa attribuire numeri a oggetti ed eventi secondo determinate regole, inoltre alle relazioni tra
gli oggetti devono corrispondere relazioni tra i numeri. Questa definizione è applicabile anche all’oggetto-
mente, secondo chi ha inventato i test psicometrici.

1.1 La nascita dei test in psicologia


Innanzitutto, possiamo considerare precursori della psicometria le equazioni della psicofisica, le quali
quantificano mediante una formula l’incremento minimo di peso che consente al soggetto di percepire una
variazione. Questo è il primo caso in cui è stata valutata con una formula una funzione mentale: la
percezione.
L'idea di test come reattivo diagnostico nasce con i tentativi di misurare le differenze tra le persone in
risposta a stimoli uguali, a partire da ciò:
- 1883  Galton misura caratteristiche fisiche e psichiche, quali tempi di reazione a stimoli visivi e uditivi, di
oltre 17mila persone;
- 1890  Cattèll formula la prima definizione di “test mentali”, che venivano applicati ai bambini e coloro
che rispondevano più rapidamente si pensava fossero più bravi a livello scolastico;
- 1901  prima critica nei confronti di questi tentativi di misurare la psiche: i test mentali non risultavano
predittivi del profitto scolastico. Capirono che i test mentali in realtà misuravano solo una parte delle abilità
psichiche, ad esempio i tempi di reazione, bisognava quindi ricercare caratteristiche più cognitive come
oggetto di misurazione (memoria, attenzione…);
- 1905  Binet e Simòn misero a punto il primo test di intelligenza. Essi furono incaricati dal Ministero
dell’Istruzione francese di individuare i bambini che avevano bisogno di un’educazione speciale, attraverso
l’uso di uno strumento psicometrico;
- 1908  sulla base di questi test fu formulato il concetto di “età mentale”: età rilevabile dal test e relativa
alle capacità medie dei soggetti di pari età, abbiamo quindi bisogno di sapere qual è la media della
popolazione con cui confrontare il singolo soggetto (nei test psicometrici è fondamentale avere questo
metro di paragone);
- 1916  Terman, alla Stanford University introduce la versione americana del test e ed la prima forma di
Quoziente Intellettivo, egli era convinto che si potesse misurare con un numero la differenza di intelligenza
tra le persone, la formula presentata era costituita dal rapporto tra età mentale ed età cronologia
moltiplicato per 100  (età mentale / età cronologica) x 100.
Si tratta di una misurazione quantitativa dell’intelligenza, una formula che permette di trasformare il
concetto di età mentale in un indice psicometrico.
- I test si diffondono nella società statunitense, in cui Yerkes riprende il test di Terman e lo utilizza per la
valutazione dei soldati da arruolare per la Prima guerra mondiale, nascono così i test Army Alpha (o Beta
nella versione per analfabeti o non esperti nella lingua inglese), vennero valutate quasi 2 milioni di persone.
- Sempre negli Stati Uniti le aziende e le scuole iniziano ad usare strumenti per la misurazione delle
attitudini e delle capacità sia cognitive che di adattamento (a scuola venivano selezionati i bambini meno
bravi -basso QI- per metterli in classi speciali; in azienda i dipendenti venivano selezionati in base alle
caratteristiche di personalità e alla capacità di adattamento).
I rischi di un’impropria misurazione della mente:
- logica del “uomo giusto al posto giusto” nelle fabbriche
- selezione di bambini ipodotati per le classi differenziali
- si rischiava di conferire una presunta scientificità a procedure di selezione/esclusione, di conseguenza:
- alla fine degli anni ’60 viene segnalata la pericolosità sociale degli “scrutatori di cervelli” (Brainwatchers)
- l’American Psychological Association (APA) mette a punto specifiche norme su come costruire e usare i
test. Tali norme, seppur rivisitate, sono tuttora in vigore.

1.2 Che cos’è un test psicometrico


1. Insieme di stimoli (items) rigorosamente standardizzati (cioè uguali per tutti)
2. Modalità di somministrazione deve essere rigorosamente standardizzata:
- la sequenza delle prove, i tempi per ciascuna devono essere sempre uguali
- le istruzioni da dare al soggetto non possono essere modificate
- l’ambiente in cui il test è applicato (setting) deve essere privo di elementi di distrazione o di variabilità
La standardizzazione degli stimoli e della somministrazione è il fondamento dell’attendibilità del test,
ovvero la sua ripetibilità alle stesse condizioni in tempi e luoghi diversi e con soggetti diversi.
3. Gli stimoli sono rappresentativi di una certa funzione cognitiva o area della personalità  il test è valido
se rileva tutto e solo ciò che tramite esso si intende rilevare (validità = lo strumento misura esattamente ciò
che si propone di misurare).
4. Le risposte devono essere codificate ricavandone dei punteggi (scores)  per l’assegnazione dei
punteggi ci si avvale di griglie e schemi prefissati che accompagnano il manuale del test.
5. I punteggi sono convertibili in valori standard (serve per omogeneizzare i punteggi, trasformandoli da
grezzi a standardizzati).
6. Questi valori sono riferiti ad un campione normativo rappresentativo della popolazione da cui è tratto il
soggetto sottoposto ad esame.
7. Il lavoro preliminare compiuto dagli autori del test per garantire le caratteristiche psicometriche del test
è definito standardizzazione.
8. Sulla base dei punteggi standard è possibile quantificare le differenze tra soggetti nelle prestazioni
al test  il processo che assicura questa possibilità è definito taratura.

1.1.2 Aspetti critici


1. Comprensione degli stimoli  gli stimoli presentati, soprattutto quelli in forma verbale, devono essere
comprensibili dal soggetto che deve capire ciò che gli viene chiesto.
2. Interazione somministratore del test e soggetto che lo esegue:
- se la relazione è troppo asettica può non essere motivante
- se è troppo intensa (immedesimazione) influenza la prestazione del soggetto
- il somministratore deve comportarsi in modo neutrale, ma non al pari di una macchina.
3. Soggetti problematici (disabili sensoriali o psichici):
- assicurarsi che il soggetto comprenda le richieste
- programmare sedute brevi in modo da consentire l’attenzione per tutto il tempo
- dare più rinforzi e incoraggiamenti
- non forzare la persona a rispondere
- tenere conto nella valutazione di elementi come ansia o affaticamento eccessivo.
CAP. 2 – La psicometria
Lo scopo nella costruzione degli item è evitare che la risposta del soggetto risenta di un errore che può
inficiare la valutazione, in quanto non permette di stimare in maniera adeguata alle competenze vere del
soggetto stesso. In termini psicometrici questo si traduce con una formula che permette di distinguere nella
risposta del soggetto:
- una componente di variazione vera (relativa cioè a quello che si intende misurare)
- una componente di errore.
La variabilità vera dipende dalla maggiore o minore capacità del soggetto di rispondere effettuando la
prestazione richiesta, o di riferire dei suoi stati interni.
La formula dice che: vx = vv + ve
vx = variabilità del punteggio osservato (quello che si ottiene al test) ed è composto dal punteggio vero più
la componente di errore (che è imprescindibile)
vv = variabilità reale o vera (il punteggio reale del soggetto senza la componente di errore)
ve = variabilità dovuta all’errore
L’errore può dipendere da varie cause, relative:
1. alla fase di costruzione del test (stimoli non ben graduati o ambigui)
2. alla fase di somministrazione:
- non comprensione degli stimoli presentati
- non comprensione delle istruzioni
- distrazione al momento della risposta
- scarsa motivazione a dare la risposta migliore
- incapacità di riferire ciò che si pensa o si prova
- deliberata tendenza all’inganno.
Per garantire l’attendibilità del test bisogna controllare queste variabili, in quanto i test presentano già di
per sé una componente di errore, di conseguenza è importante non aggiungere altri elementi che possono
alterare l’attendibilità di un test durante l’esecuzione.

2.2 Quando un test è affidabile?


Quando è elevata la sua attendibilità (reliability, tradotta come fedeltà), ovvero l'accuratezza e la
precisione con cui la variabile è misurata riducendo per quanto possibile gli errori di misurazione.
Non c’è la possibilità di eliminare del tutto la percentuale di errore.
L’attendibilità (rxx) può essere definita come: la proporzione di variazione vera rispetto a quella totale, che
include anche quella di errore  rxx = vv / (vv + ve) rxx = vv / vx
Essendo la varianza vera (vv) ciò che resta togliendo dalla varianza totale (vx) quella di errore (ve),
l’attendibilità può essere stimata a partire dalla varianza di errore.
Reciprocamente, l’errore di misura può essere dedotto conoscendo l’attendibilità del test (dal manuale o
ricalcolandola con appositi metodi).
ESEMPIO  se il test che stiamo utilizzando ha un’attendibilità = .80 (zero ottanta) e deviazione standard =
12, l’errore standard sarà calcolato con un’apposita formula, dalla quale può risultare che il margine di
errore corrisponda a 5 punti -o in più o in meno- quindi al punteggio ottenuto al test dal soggetto bisognerà
sempre togliere o aggiungere 5 punti, per capire in quale range si collocherà il punteggio reale.
2.2.1 Modi per stimare l’attendibilità (se non specificata nel manuale)
1. Attendibilità fra i valutatori (interscores reliability):
- consiste nel far valutare lo stesso test da professionisti diversi e correlare i punteggi ottenuti: più alta è la
correlazione più il test è affidabile;
2. Ripetizione (test-retest):
- serve a verificare la stabilità temporale dei risultati
- lo stesso test viene somministrato agli stessi soggetti a distanza di breve tempo
- si correla la prima alla seconda somministrazione e ci si aspetta una correlazione alta che indica un’alta
attendibilità del test;
3. Forme parallele:
- si usa quando non è possibile la ripetizione a distanza dello stesso test
- si producono due forme analoghe (parallele) dello stesso test (stessa lunghezza, contenuti e difficoltà)
- si somministrano le forme parallele agli stessi soggetti
- si valuta quanto le due forme correlano tra loro, cioè se misurano la stessa cosa;
4. Divisione a metà (split-half):
- è un metodo che richiede un’unica somministrazione
- consiste nel dividere un test a metà, dividendo gli item e sopponendone una metà a dei soggetti e un’altra
metà agli altri e valutare se i risultati correlano tra loro
- è importante che gli item siano selezionati in modo da garantire un uguale livello di difficoltà (separando
gli item tra pari e dispari)
- la somma dei punteggi degli item pari viene confrontata con la somma dei punteggi degli item dispari, si
ottiene così un coefficiente di correlazione che avviene definito coefficiente di equivalenza
- visto che il coefficiente è calcolato su metà degli item è necessario apportare una correzione che metta in
rapporto il valore ottenuto con l'effettiva lunghezza del test
- la correzione è fatta mediante la formula di Spearman-Brown che stima il coefficiente che si otterrebbe
con un test di diversa lunghezza (se la lunghezza va raddoppiata, n=2).
-la formula di Spearman-Brown si usa perché serve a stimare quanto sarebbe l’attendibilità se fosse
valutata per il test nella sua versione completa.
4. Consistenza interna (internal consistency):
- serve per valutare la coerenza interna del test
- calcolando quanto i diversi item che compongono il test siano omogenei tra loro e con il punteggio totale
- l’errore corrisponde all’incoerenza tra le parti del test, cioè al fatto che alcuni item non corrispondono a
quello che misurano gli altri item del test
- si tratta di un indicatore per dimostrare che il test è omogeneo
- si utilizza l’Alpha di Cronbach che è un indice di omogeneità
- esso confronta la somma delle varianze dei singoli item con quella totale del test
- il presupposto è che la varianza del test corrisponderebbe alla somma delle varianze degli item che lo
compongono se non ci fosse correlazione tra di essi, ovvero se essi misurassero cose diverse
- questo dimostrerebbe, di conseguenza, che il test non è omogeneo
- la soglia di accettabilità è compresa tra 0.70 e 0.60
- quando l’alpha di Cronbach è basso si deve aumentare il numero degli items.
- Formule di Kuder-Richardson  servono come alternativa all’alpha di Cronbach, cioè si utilizzano quando
non si può utilizzare quest’ultima perché gli item non hanno la caratteristica richiesta nel Cronbach, ovvero
di essere parametrici (non vi è un punteggio ma un’alternativa: si/no), mentre lo è il totale.
Tali formule sono diverse a seconda che gli item che compongono il test siano:
1. a risposta dicotomica (si/no, vero/falso, superato/non superato)
2. con punteggio quantitativo
- se gli item che compongono il test sono a risposta dicotomica la formula somma le proporzioni di
superamento e non superamento dei singoli item
- nel caso di punteggi quantitativi la formula si può utilizzare anche senza i valori dei singoli item (come
invece accade nell’alpha di Cronbach) ma solo avendo la media del test.

Le diverse tecniche di valutazione dell’attendibilità rispondono a scopi differenti:


- se si devono fare più somministrazioni nel tempo è più importante che il test garantisca un’elevata
stabilità
- in altri casi è più importante la coerenza interna
- l’attendibilità tra valutatori è sempre importante quando il test ha una modalità di scoring non
automatica, ma prevede certe opzioni tra cui chi valuta deve scegliere
- in altri ancora interessa sapere quali item sono più importanti di altri nel contribuire al punteggio del test.

2.2.2 Analisi degli item (item-analysis)


Si utilizza per valutare il contributo di ciascun item al totale del test, quindi se un test presenta una bassa
attendibilità si verifica se essa sia causata da determinati item che non sono funzionali al test (e abbassando
l’alpha di Cronbach).
Possiamo individuare diversi metodi per svolgere tale analisi:
1. Calcolare la correlazione tra ciascun item e il totale del test, da esso viene di volta in volta sottratto l’item
stesso, per evitare che la sua presenza nel totale possa aumentare la correlazione.
ES.  se vi sono item che hanno una correlazione bassa col totale, si eliminano e si ricalcola l’alpha di
Cronbach (indice della coerenza complessiva del test) che dovrebbe essere quindi aumentata e di
conseguenza aumenta la coerenza del test.
L’item analysis serve quindi ad ottimizzare l'attendibilità, lasciando solo quegli item che contribuiscono
meglio al punteggio totale e alla coerenza complessiva del test.
2. Valutare quanto ciascun item sia discriminante, basandosi sulla variabilità e sulla media, che devono
essere diverse dagli altri item. Se la variabilità è troppo bassa indica che tutti i soggetti tendono a
rispondere allo stesso modo e dunque che l’item in questione è poco utile per la capacità discriminativa del
test, Se la media è troppo elevata o troppo bassa indica che l’item è toppo facile o troppo difficile.
3. Metodo di analisi della risposta all’item (Item Response Theory o Modello di Rasch), la quale si basa
sull’dea che la probabilità di produrre una certa risposta all’item di un test (es. la soluzione giusta, l’accordo
con una certa affermazione) dipende da due parametri:
1. legato alla persona  abilità o caratteristiche della personalità
2. legato all’item  difficoltà, capacità discriminativa, possibilità di risposta casuale o di tirare a indovinare
(guessing).
I parametri della persona e dell’item vengono collocati su un continuum che costituisce il tratto latente
della risposta, a cui è possibile risalire a partire dalle risposte effettive.
Per quanto riguarda il parametro relativo alla capacità del soggetto, può essere definito come  il
rapporto tra numero di risposte corrette e numero di risposte errate fornite dal soggetto a tutti gli item.
Per quanto riguarda la difficoltà dell’item, essa è definita come  il rapporto tra numero di risposte errate
e numero di risposte corrette date allo stesso item da tutti i soggetti del campione.
Vanno esclusi dall'analisi i soggetti che hanno risposto correttamente a tutti gli item, quelli che li hanno
sbagliati tutti e gli item che hanno avuto sempre la stessa risposta.
Una volta misurata la capacità dei soggetti e la difficoltà degli item, la probabilità di risposta corretta può
essere definita confrontando i due valori: se la capacità del soggetto è maggiore della difficoltà dell’item la
probabilità di rispondere correttamente all’item è maggiore di 0.5 (zero cinque).
La risposta corretta è più probabile rispetto a quella sbagliata quando il parametro della capacità del
soggetto supera quello di difficoltà dell’item.
Il concetto di attendibilità è interpretato da tale teoria come “capacità di informazione” dell’item:
l’informazione aumenta quando la difficoltà dell’item corrisponde alla capacità del soggetto e diminuisce
quando questi due parametri sono distanti; inoltre aumenta anche quando la discriminazione è alta e
quando la casualità di risposta all’item (guessing) si riduce.

2.3 Quando un test è valido?


La validità è la precisione con cui il test misura ciò che ha lo scopo di misurare; mentre l'attendibilità si
riferisce a come lo strumento misura, la validità si riferisce a cosa lo strumento misura.
Possiamo individuare diversi tipi di validità:
1. Validità di facciata (face validity)  riguarda il fatto che la struttura del test e gli item che lo
compongono devono apparire motivanti e significativi sia nella forma che nel contenuto, ad esempio far
eseguire dei disegni ad una persona adulta può farla sentire considerata alla pari di un bambino e quindi ciò
può demotivare il paziente. Va ricercata durante la costruzione del test per renderlo gradevole,
comprensibile e pertinente all'oggetto di valutazione (valuta esattamente ciò che si propone, in base agli
item utilizzati).
2. Validità di contenuto  riguarda la pertinenza con l’argomento da valutare (abilità del soggetto,
caratteristiche di personalità). Anche essa si ottiene nel corso della costruzione del test, il quale viene prima
sottoposto ad un gruppo di giudici esperti che possono essere persone competenti o che rappresentano la
popolazione di riferimento, o dei potenziali esperti sull’argomento del test; essi devono essere almeno due
viene loro chiesto di valutare per ciascuna item: comprensibilità, gradevolezza e pertinenza.
I giudici valutano queste tre dimensioni su scale dicotomiche (comprensibile/non comprensibile…) o su
scale a livelli (da 0 a 10) assegnando un voto a ciascun item per ogni dimensione.
Gli item che ottengono valutazioni positive al di sotto del 75% oppure che ottengono medie di valutazione
particolarmente basse vengono riformulati (se il problema riguarda comprensibilità e gradevolezza) oppure
vengono sostituiti (se il problema riguarda la pertinenza).
Lo stesso criterio di giudizio si usa quando il test deve essere tradotto da una lingua diversa: gli item
vengono prima tradotti, poi fatti ritradurre in lingua originale partendo dalla traduzione in italiano da parte
di un madrelingua; il giudizio degli esperti riguarderà anche la comprensibilità della traduzione definitiva.
3. Validità di costrutto  ogni test misura un costrutto teorico, quindi i vari item devono corrispondere alla
teoria di riferimento e il punteggio ottenuto deve essere un indicatore di questo costrutto; se non vi è una
corrispondenza tra punteggi ottenuti e costrutto teorico i punteggi non sarebbero interpretabili.
Il costrutto è una variabile latente che viene ricostruita attraverso vari indicatori: la validazione di un test ha
quindi il compito di verificare se davvero gli indicatori prescelti rappresentano la variabile latente che
costituisce il costrutto.
Vi sono diversi modi per verificare la validità di costrutto:
a. facendo riferimento all’omogeneità del test (accertarsi che esso abbia un alpha di Cronbach alto), infatti
se l’omogeneità risulta bassa, difficilmente il test può rappresentare un unico costrutto.
b. valutando la composizione del test e la sua struttura interna, attraverso l’analisi fattoriale  essa si
utilizza quando l’analisi degli item evidenzia un Cronbach non molto alto (es. 0.60) e ciò provoca una
disomogeneità del test; essa quindi serve quando non c’è una coerenza interna.
Possiamo individuare due tipi di analisi fattoriale:
a. Esplorativa  permettevi chiarire se il test misura un unico fattore o se possono essere interpretati più
fattori.
b. Confermativa  parte da una struttura ipotizzata e valuta il fit, cioè la corrispondenza tra questa
struttura ipotetica e i dati realmente ottenuti.
Solitamente si utilizza parallelamente all’analisi fattoriale una item analysis per individuare quegli item che
non saturano con il fattore misurato dal test (cioè non correlano con esso), dunque vanno eliminati.
Oppure è possibile riconoscere la presenza di una struttura multifattoriale e di conseguenza si avranno dei
punteggi separati per ciascun fattore.
4. Validità esterna  consiste nella relazione che è i punteggi ottenuti dal test hanno con altre variabili che
fungono da criterio; essa mette in relazione il costrutto da misurare con costrutti paralleli che si suppone
debbano covariare con ciò che il test misura.
ESEMPIO: se un test valuta delle funzioni che si modificano con lo sviluppo come percezione visiva o
memoria, il criterio esterno è l'età e i punteggi devono crescere progressivamente con essa.
La validazione di un criterio può avvenire in diversi modi:
a. Concorrente  il test viene correlato con una misura di un'altra variabile utilizzata
contemporaneamente nello stesso gruppo di soggetti.
ESEMPIO: un test di ansia viene validato correlando i punteggi ottenuti dal gruppo sperimentale con un
altro test di ansia già sperimentato o con un giudizio clinico da parte di un esperto.
b. Predittivo  il test viene correlato con un criterio che sarà valutabile in un secondo momento.
ESEMPIO: un test di prerequisiti della lettura, somministrato prima che e inizi l'apprendimento, e validato
con una misura della capacità effettiva di lettura dopo tale apprendimento; ci si aspetta che chi aveva
ottenuto punteggi più elevati al test sviluppi migliori abilità di lettura.
c. Discriminante  il test viene utilizzato in gruppi diversi di soggetti in uno solo dei quali è presente la
variabile che il test misura, si può valutare se questo gruppo può essere differenziato significativamente
rispetto agli altri, in base al punteggio del test.
ESEMPIO: somministrando un test di depressione a gruppi di pazienti psicotici, ansiosi, depressi, si dimostra
la validità del test se esso discrimina fra i tre gruppi e ha punteggi significativamente più elevati proprio nel
gruppo dei depressi.

2.4 La taratura del test: punti standard e metodi interpretativi


Il test è considerato uno strumento psicometrico se è possibile fare riferimento ad una taratura, cioè ad
una norma stabilita a priori da chi ha costruito il test, basandosi su un campione della popolazione
differenziato per genere, età e livello di istruzione. Questo riferimento permette di collocare i punteggi
ottenuti dai soggetti in esame su un metro corrispondente alle sue caratteristiche e dunque di valutare la
prestazione (o la caratteristica manifestata) in termini di scala standard.
Dunque, la taratura serve a dare significato ai punteggi che una persona ottiene ad un test, confrontando la
sua prestazione con le caratteristiche del gruppo di riferimento.
Il primo passo da compiere è quello di trasformare i punteggi grezzi in punti standard; i punti z
costituiscono la modalità più semplice di trasformazione: il punteggio è trasformato in base al punteggio
medio e alla variabilità di un campione omogeneo di cui il soggetto valutato fa parte, o si presume possa far
parte, per le sue caratteristiche.
Un punto standard z adatta il punteggio grezzo su una scala standard che ha media pari a 0 (coincidente
con la media del gruppo) e deviazione standard (equivalente a quella del gruppo di riferimento) pari a 1.
Nella formula il punto z rappresenta lo scarto tra il punteggio grezzo del soggetto rispetto alla media, cioè
quanto tale punteggio si discosta dalla media z = (xi – X) / s
ESEMPIO  ottenere un punteggio = 25 al test di lettura, con media del gruppo di riferimento per età = 45
e deviazione standard = 8; il punteggio standard del soggetto sarà: z = (25 – 45) / 8 = - 2.5 collocando il
soggetto due deviazioni standard e mezza al di sotto della media del gruppo, richiedendo quindi un
intervento di immediato recupero.
Un inconveniente è rappresentato dai punti z negativi, quando il punteggio si colloca al di sotto della media
del gruppo; la soluzione è rappresentata dai punti T che hanno per convenzione media 50 e deviazione
standard 10, in modo da eliminare i segni negativi T = 50 + (10z).
Il punto z dell’esempio precedente pari a – 2.5 diventa: T = 50 + (-2.5 X 10) = 25
I punti T si usano prevalentemente nei test di personalità, la trasformazione da punti z a punti T è detta
monotonica.

2.2.4 Scale centiliche


Esse permettono di collocare i punteggi grezzi in una scala ordinale a cento gradi (scala ordinale significa
che essa non ha intervalli tutti uguali tra loro).
Lo scopo è lo stesso dei punti standard: collocare un soggetto che ottiene un certo punteggio in una scala
standard, valutandone la posizione (il rango) rispetto agli altri dello stesso gruppo di riferimento e
confrontando soggetti diversi o lo stesso soggetto in test diversi sempre su questa scala standard.
La posizione di rango dipende dalla numerosità del campione effettivo (un rango di 15 su 30 casi colloca il
soggetto in una posizione diversa rispetto a un rango di 15 su 60 casi), quindi per rendere omogenea
l'attribuzione del rango si calcola il percentile con l’apposita formula. Si valuta cioè la percentuale di
soggetti che si collocano al sotto o alla pari del soggetto in esame nella distribuzione dei punteggi.
A livello intuitivo, la distribuzione centilica viene divisa in quattro quartili, con punto centrale equivalente al
50° centile (pari alla mediana) e due cut-off al 25° e al 75° centile, che separano rispettivamente:
- il primo quartile: in cui si colloca il 25% di punteggi inferiori alla norma;
- il quarto quartile: in cui si colloca il 25% di punteggi superiori alla norma;
Si considera nella norma la rimanente gamma compresa fra il 25° e il 75° centile.

CAP. 3 – La misurazione dell’intelligenza

3.1 Cosa misurano i test di intelligenza


Non è facile fornire una definizione univoca di intelligenza.
Ci si domanda innanzitutto se esiste un’intelligenza unica o se ve ne sono tante, ovvero ci si chiede se
quando si misura l’intelligenza si fa riferimento ad una singola cosa o ad aspetti diversi riuniti sotto la
denominazione di “intelligenza”.
- Spearman (1904)  introdusse il concetto di intelligenza generale, determinata e misurata
oggettivamente. Egli sosteneva l’esistenza di un fattore generale (fattore g) di intelligenza, pur ammettendo
l’esistenza di abilità specifiche all’interno di questo fattore generale.
- Thorndike  si chiese se esistesse veramente questo fattore di intelligenza generale (fattore g) o se
invece esistano tante abilità separate e poco correlate tra loro.
- Cattèll  distingue tra intelligenza fluida e cristallizzata: la prima consiste nella capacità di risolvere
problemi nuovi indipendentemente dagli apprendimenti pregressi, la seconda riguarda invece le
conoscenze e le competenze acquisite con l'esperienza.
- Thurstone  parlava di abilità mentali primarie, intesa come abilità diversamente sviluppate nelle
persone (comprensione verbale, ragionamento numerico, velocità percettiva, memoria associativa).
- Guilford  propose una struttura dell’intelligenza intesa come una complessa combinazione di contenuti,
prodotti e operazioni diverse (concezione non unitaria).
- Gardner  parla di intelligenze multiple.
- Sternberg  teoria triarchica, secondo cui con l'età si passa da un'intelligenza più generale a una più
articolata nelle diverse funzioni
- Goleman  importanza della componente emotiva dell’intelligenza (intelligenza emotiva).

3.2. Teoria e pratica del QI


Il test di Binet e Simon (utilizzato per misurare l'intelligenza nei bambini) non prevedeva un QI ma
un’età mentale: gli autori selezionarono per ciascun livello di età (dai 3 agli 11 anni) degli item che alle
somministrazioni preliminari venivano risolti da circa il 50% dei bambini di quell’età.
Il bambino iniziava il test con le prove corrispondenti alla sua età cronologica, se queste venivano superate
gli venivano proposte quelle di età immediatamente superiore, se invece non venivano superate gli
venivano sottoposte le prove di età inferiore.
Il test continuava fino a determinare:
- un livello base  l'età in corrispondenza della quale tutte le prove venivano superate
- un livello tetto  l'età in corrispondenza della quale nessuna prova veniva superata
La proporzione delle prove risolte ai livelli superiori a quello di base permetteva di individuare la specifica
età mentale, che veniva espressa in mesi.
Nella versione americana del test di Binet-Simon (denominata Stanford-Binet) il quoziente intellettivo
veniva calcolato con la formula: (età mentale / età cronologica) x 100.
L’età mentale corrisponde  all’età rilevabile dal test confrontata con le capacità medie dei bambini di
quell’età, queste capacità medie vengono fissate a priori su base empirica da Binet e Simon, al momento
della costruzione taratura del test.
Il QI calcolato con la precedente formula (definito QI di rapporto) presentava dei limiti tra cui:
- il diverso peso del denominatore nella formula
- l’arbitrarietà di stabilire per gli adulti un’età mentale base di 16 anni, come se lo sviluppo si fermasse a
quell’età.
Si ritenne necessario quindi procedere diversamente nel calcolo del quoziente intellettivo, questo compito
fu assunto da David Wechsler.

3.3 Le scale di intelligenza di David Wechsler


Nel test messo a punto da Wechsler il QI viene calcolato col metodo della deviazione dalla media
(si parla di QI di deviazione):
- si fissa come punteggio medio per ogni livello di età 100, con deviazione standard 15
- ogni soggetto sottoposto al test viene confrontato con i valori normativi della sua età, cioè con le
prestazioni dei soggetti del campione di standardizzazione del test che avevano la sua stessa età.
Quindi, il test non prevede (come la scala di Binet-Simon) prove diverse per le varie età, ma prove uguali
per tutti graduate per difficoltà e valutate su un metro diverso in base all'età.
Per costruire questa scala, Wechsler parte da una definizione dell’intelligenza come una capacità globale di
agire in modo finalizzato, pensare razionalmente e trattare efficacemente con il proprio ambiente.
Ogni componente dell'intelligenza è misurata separatamente da un subtest, per cui ciascun soggetto
otterrà un profilo che sarà costituito dai punti standard nei singoli subtest; questo permette di ottenere:
- il confronto di ciascun subtest con il campione di riferimento per età, definito confronto normativo;
- il confronto fra le prestazioni dello stesso soggetto nei diversi subtest, per evidenziare punti di forza e di
debolezza, definito confronto ipsativo o profilo (il confronto avviene con sé stesso).
Le scale Wechsler valutano l’intelligenza sfaccettata e multidimensionale ma anche la competenza globale
che mette il soggetto in condizione di comprendere la realtà e farvi fronte in modo efficace.
Le scale Wechsler originarie prevedevano la suddivisione dei subtest in due macro-aree (scala verbale e di
performance), dalla cui somma vengono ricavati tre quozienti intellettivi:
1. QI verbale  capacità di comprendere e apprendere materiale verbale e utilizzare tale capacità nella
risoluzione dei problemi;
2. QI di performance  abilità di elaborare materiale visivo virgola di utilizzare immagini visive nel pensiero
e di ragionare su basi non verbali;
3. QI totale  riassume in maniera globale la misurazione effettuata.
A partire dalla WISC IV non vi è più la suddivisone nelle due scale ma la valutazione viene suddivisa sulla
base di 4 fattori: verbale, analitico, attenzione-concentrazione, aggiungendo nelle versioni più recenti della
scala anche il fattore velocità di elaborazione. Quindi, i punteggi fattoriali sono:
- comprensione verbale
- organizzazione percettiva
- memoria di lavoro
- velocità di elaborazione
Nella III versione della scala per adulti (WAIS III) convivono entrambi i modelli: scala verbale e di
performance e i 4 fattori:

 Scala verbale
- Comprensione verbale (vocabolario, similitudini, informazioni, comprensione)
- Memoria di lavoro (aritmetica, span numerico, sequenze lettere-numeri)
 Scala di performance
- Organizzazione percettiva (completamento di figure, disegni con i cubi, ragionamento con matrici)
- Velocità di elaborazione (associazione simboli-numeri, ricerca di simboli)

La WISC IV è costituita da 10 subtest principali (e 5 supplementari per una valutazione più completa o in
sostituzione di altri) che sono suddivisi in quattro indici:
- tre subtest per l’Indice di Comprensione verbale (ICV)
- tre subtest per l’Indice di Ragionamento visuo-percettivo (IRP)
- due subtest per l’Indice di Memoria di lavoro (IML)
- due subtest per l’Indice di Velocità di elaborazione (IVE)

ICV + IRP = GAI (Indice di abilità generale)


IML + IVE = CPI (Indice di efficienza cognitiva)

Da cosa sono costituiti i 4 indici:


ICV  somiglianze, vocabolario, comprensione, informazione, ragionamento
IRP  disegno con cubi, concetti illustrati, ragionamento con le matrici, completamento di figure
IML  memoria di cifre, riordinamento di lettere e numeri, ragionamento aritmetico
IVE  cifrario, ricerca di simboli, cancellazione

Potrebbero piacerti anche