Le tre rivoluzioni scientifiche delle scienze naturali del '900 non hanno influenzato la ricerca
psicologica che si occupa delle persone. Falso. Giusto, perchè determinano l'introduzione della
teoria della probabilità nelle scienze del comportamento
Uno psicologo clinico e uno psicologo ricercatore adottano fondamenti metodologici diversi: falso
Non è mai opportuno prendere in considerazioni esigenze pratiche nella scelta di un reattivo
psicologico
Falso
Giusto, anche riflessioni pragmatiche sono ammesse
test di atteggiamento fanno parte della categoria dei test di performance massima: falso
Giusto, perchè sono test non cognitivi
Programma SPSS
Psicometria e teoria e tecnica di analisi dei dati spesso sono insegnati attraverso l’uso del software
SPSS dell’IBM, utilizzato per dimostrazioni pratiche corrispondenti alle varie fasi della ricerca in
psicologia ed è strutturato con un’interfaccia grafica (GUI - Graphic User Interface) basata su una
serie di menu a tendina attraverso i quali operare manipolazione e analisi dei dati standard e
successive rappresentazioni grafiche. E’ di semplice uso, ma è molto costoso ed è molto difficile da
programmare per eventuali "nuove" analisi (non previste in quelle automatiche). Per quanto il
programma SPSS possa rendere semplice la gestione delle analisi dei dati attraverso menù lo
studente dovrà rendersi conto che è lui il responsabile ultimo dell'appropriatezza di tale analisi,
perché un software non sarà mai in grado di comprendere il significato dei risultati e gli obiettivi
dello studio.
Nella Psicologia (e Psicometria in particolare) e tutte le scienze sociali che si basano sulla statistica,
l'ordine naturale del processo di analisi dei dati è il seguente:
1) Individuazione della variabilità - Raccolta attenta dei dati
2) Descrizione della variabilità dei dati - Statistica descrittiva
3) La probabilità supporta l'inferenza (nferenza statistica, procedimento di generalizzazione dei
risultati ottenuti attraverso una rilevazione parziale per campioni all'intera popolazione da cui è
stato estratto il campione)
4) Stesura delle conclusioni in modo da distinguere la variabilità dei dati
1
Sebbene le diagnosi siano il prodotto che viene stabilito da un colloquio diagnostico, un buon clinico
diagnostico deve generare più ipotesi che diagnosi,perché un clinico indaga sulla natura del disagio
di una persona (Feinstein,).
Il processo clinico decisionale si sviluppa nel momento in cui riusciamo a mettere ordine in quello
che Kendler chiama "natura a macchie", cioè le numerose e interrelate cause dei disturbi mentali.
Caratteristiche di un test:
Standardizzazione
2.Attendibilità
3.Validità
4.Sensibilità
5.Universalità
6.Praticità ed economia
Succede spesso di applicare un test a soggetti con problemi specifici (ad esempio disabili sensoriali
o psichici) che possono renderne difficile la somministrazione adeguata. In
questi casi bisogna:
§ assicurarsi che il soggetto comprenda le richieste;
2
§ aumentare il numero di esempi e di eventuali esercizi di pratica;
§ programmare sedute brevi in modo da assicurare l'attenzione per tutto
il tempo;
§ dare più rinforzi e incoraggiamenti, anche se di tipo aspecifico;
§ non forzare il soggetto se manifesta rifiuti a certi item;
§ tenere conto nella valutazione di elementi di ansia o affaticamento
eccessivo.
Un test psicologico è una misurazione obiettiva e standardizzata di un campione di
comportamento. (Anastasi)
I test (o reattivi) psicologici che rispettano questa definizione assumono un riferimento esplicito ad
una teoria psicologica, o almeno ad un modello elaborato secondo criteri scientifici.
3
La TEORIA DELLA PROBABILITA’ ci permette di studiare e descrivere gli eventi aleatori, ossia quando
non si può prevedere con certezza se si avvererà o meno.
Nella concezione classica la probabilità è stabilita A PRIORI, prima di guardare i dati. Nella
concezione frequentista la probabilità è ricavata A POSTERIORI, dall’esame dei dati.
La teoria della probabilità sperimentale a posteriori per individuare la probabilità di un evento di
accadere se non è disponibile la probabilità matematica a priori, si può utilizzare solo in esperimenti
aleatori che possono essere ripetuti molte volte e sempre nelle stesse condizioni o per quei casi in
cui si abbiano a disposizione una notevole massa di dati storici . In una serie di prove, ripetute un
gran numero di volte ed eseguite tutte nelle stesse condizioni, la frequenza relativa tende ad
assumere valori prossimi alla probabilità dell’evento stesso e l’approssimazione è tanto maggiore
quanto più numerose sono le prove eseguite.
I test psicologici devono essere scelti con la massima attenzione perché vi è una limitata possibilità
i selezione del campione di comportamento.
LEZIONE 2
Costrutti, Modelli , Reattivi, Item (validità, attendibilità).
I tratti di personalità devono essere rilevati con l’intensità, la frequenza ecc.
Il costrutto non è dato dalla somma di tutte le dimensioni scelte, che si pongono però ad un livello
meno astratto del costrutto, che ci permettono di legare , attraverso un processo di Indicazione, gli
indicatori (studiati per ottenere una risposta dal soggetto per potere misurare le sue risposte.alle
dimensioni.
Un costrutto è un concetto astratto che riguarda una proprietà riferita ad un soggetto, che nasce
dalla sua esperienza empirica, ma va oltre, perché viene applicata anche a concetti diversi (grazie al
concetto di tavolo, riconosciamo anche tavoli diversi). L’ansia, come costrutto, ossia una proprietà
direttamente osservabile di un soggetto, deriva dall’osservazione di comportamenti simili nella
nostra esperienza, ma va aldilà. Il costrutto (Crocker e Algina) è il prodotto di una fondata riflessione
scientifica, un’idea sviluppata per permettere la categorizzazione e la descrizione di alcuni
comportamenti direttamente osservabili. I costrutti sono, per definizione, non accessibili
all’osservazione diretta, ma vengono inferiti o postulati sulla base dell’osservazione di opportuni
indicatori.
Costrutto (nella slide) di intelligenza: Stemberg: pensiero analitico, creativo e pratico, diverso da
quello di Spearman, col fattore G. Il fattore di intelligenza monodimensionale è meno complessa di
quella tridimensionale.
Vedere Stemberg.
Vedere Intelligenza multidimensionale
Il processo di operalizzazione Lazasfel
I modelli sono una rappresentazione grafica, sintetica ed efficiente della realtà in oggetto.
4
Il modello metacognitivo- motivazionale (test di Amos) ha elementi al suo interno, che sono i fattori
principali della realtà che si sta studiando e che vengono ritenuti fondamentali all’interno di una
teoria esplicativa.
Il modello si pone tra la teoria, che non ha un’immediata contestualizzazione empirica, con la realtà
di esperienza, con convinzioni, autoregolazione, apprendimento, e le variabili sono legate tra loro
da relazioni.
I modelli sintetizzano gli elementi principali della realtà sotto esame e le loro relazioni.
Modelli statistici, matematici (media), computerizzati, logici (modelli il cui tutte le variabili sono
concatenate con causa ed effetto), mappe concettuali.
In base al modello bisogna analizzare se i risultati della ricerca supportano le relazioni indicate.
Ci sono variabili manifeste,(x) latenti (Y), elementi costanti, covarianza. Relazioni tra loro.
Modello dell’analisi fattoriale: legato al tipo di analisi fattoriale in cui l’obiettivo è ridisporre la
varianza totale di un insieme di variabili osservate, all’interno di alcune scale ed individuare fattori
che ne spieghino la varianza.
Altro modello serve a spiegare il processo di operalizzazione, ossia come l’indicatore attraverso
regole di corrispondenza, tra gli indicatori e le dimensioni del costrutto , come individuiamo un
modello teorico.
I TEST
Tassonomia, ossia tipologia di test
I test che rispettano questa definizione sono sviluppati rispetto ad una teoria psicologica e hanno
modelli elaborati con criteri scientifici.
.
La distinzione fondamentale da tenere presente è quella fra le tipologie di test per la misurazione
del
rendimento o della prestazione, ovvero dell’efficacia, e quelle dei test di personalità, tra i quali si
contraddistinguono i test obiettivi e i test proiettivi.
Cognitivi: intelligenza, attitudine, profitto, clinici (Test di prestazione massima, detti anche cognitivi
o di livello, che valutano il livello di "competenze", prevalentemente di tipo cognitivo od esecutivo)
(maximum performance test)
Non cognitivi: personalità, (obiettivi e proiettivi), Atteggiamento (Unidimensionali e
multidimensionali) Test di prestazione tipica, detti anche non cognitivi, che si occupano di
valutazioni personologiche e degli atteggiamenti. (tipical performance test)
Nell'ambito della Teoria Classica dei Test, il punteggio nel costrutto viene comunemente
determinato in base o al conteggio delle risposte corrette (test di prestazione massima) o
come somma delle valutazion
Test di personalità : test che misurano caratteristiche emotive, atteggiamenti ed interessi, o anche
comportamento interpersonale, atteggiamenti e dispositivi proiettivi, in cui ricadono tutti i caratteri
latenti non intellettivi della personalità
test obiettivi: MMPI,( Metodo della correlazione per lo stile di risposta ), Cattel test 16 PF, ( Metodo
dell’Analisi Fattoriale ) EPI, (Metodo del modello teorico), EPPS,( Metodo della correlazione per lo
stile di risposta ) Big 5(FFM)
5
test proiettivi: Rorschach, TAT, CAT, ORT, Blacky pictures Test, Metodo delle piccole favole, Test
proiettivi grafici.
Test clinico diagnostici: Test di Goldstein, Visual Motor Bender Gestal, Test memoria visiva di
Benton. I reattivi utilizzati in questo campo sono i test psicofisiologici che derivano
dalle ricerche per la classificazione delle complesse interazioni tra i fattori
organici, e quindi le modificazioni biologiche, e i disturbi a livello
intellettuale o comportamentale, in particolare nel corso degli eventi
psichici (conseguenza diretta o indiretta), sia nel soggetto normale che in
quello che presenta una patologia.
Molti test neuropsicologici sono stati strutturati come strumenti clinici per la
valutazione della compromissione delle funzioni mentali e che quindi misurano
con accuratezza e affidabilità aspetti come la velocità di risposta, la percezione
spaziale, l’astrazione, il livello di comprensione, la formazione dei concetti e il
linguaggio, la memoria visiva, l’abilità psicomotoria sempre in riferimento al
presupposto di una deficienza differenziale nelle varie funzioni.
Test di livello intellettuale generale, (aptitudinal test) noti come test di intelligenza, individuali e
collettivi: Test mentale di Binet, Guilford Test, Reattivo delle matrici progressive, Thurstone Test
,GCT, Differential Attitude Test, Test di Orientamento Motivazionale, Il Reattivo di Ragionamento.
Nei test di intelligenza generale abbiamo misure generali, mentre se abbiamo specifici fattori singoli
sono attitudinali
Test per la misurazione di singole abilità, noti come test attitudinali, test di profitto e competenze,
batterie attitudinali multiple test di sviluppo.
Spesso queste due tipologie di test vengono considerate insieme perché i Test di funzionamento
cognitivo generale e i Test di sviluppo possono rientrare in un continuum di test di abilità, sono
utilizzati all’interno della pratica clinica dell’età evolutiva a fini diagnostici, e sono in grado di offrire
misurazioni simili, specie in soggetti con ritardi rilevanti rispetto all’età. Ma ci sono tanti elementi di
differenza.
I test di sviluppo hanno un obiettivo comune: intendono misurare se e quanto un bambino è in
grado di affrontare e superare compiti adeguati alla sua età anagrafica. Questo avviene
essenzialmente osservando la risposta del bambino di fronte a stimoli e situazioni che riproducono
le difficoltà che egli potrebbe incontrare in situazioni della vita quotidiana.
Un test di sviluppo fornisce un quoziente di sviluppo, rapporto tra età di sviluppo ed età anagrafica.
QS= ES (per) 100
EA
Vedi bene da qualche parte la differenza tra queste due tipi di test
Vi sono delle criticità nel quoziente di sviluppo, tra cui il rischio della Rigidità dello schema di
valutazione del bambino (Piaget) che non permettono di cogliere le strategie individuali che
compensano le aree critiche di fragilità del soggetto. Questo è rilevante in sede di interpretazione
del risultato ed esiste una differenza tra l’attribuzione di punteggi solo con criteri matematici e la
valutazione del significato all’interno di un contesto di sviluppo.
Questo è un contrasto tra approccio psicometrico ed un approccio clinico (che ha un
atteggiamento più interpretativo ed empatico)
Non-test factors (dare valore ai dati ottenuti al di fuori della consegna dei test)
6
il testista ha sempre un ruolo facilitante o inibente rispetto al bambino: questo avviene anche
quando sono rispettate tutte le regole previste dal manuale del test, in conseguenza di piccoli
messaggi verbali che continuamente vengono scambiati tra bambino e operatore (a livello di mimica
attivazione motoria globale, tono della voce, sguardo e sue caratteristiche e via dicendo). (Chiappedi
)
Ogni performance deve ... essere criticamente esaminata e interpretata con giudizio da uno che
abbia insight, percezione ed esperienza sufficienti per dare all'interpretazione una obiettività. I
risultati dell'osservazione, del test e della misura sono il problema della diagnosi clinica. Il giudizio
del diagnosta in psicologia clinica comincia a operare laddove psicometristi e testisti di gruppo
smettono la loro funzione
TEST DI INTELLIGENZA
TEST DI RENDIMENTO
In questa categoria si trovano i reattivi strutturati in base a serie di item standardizzati e scelti
secondo una difficoltà crescente all'interno di un campione rappresentativo, per valutare certe
funzioni psichiche o attitudini. Sono anche chiamati test di efficacia o di prestazione.
Test di funzionamento cognitivo generale vs Test di sviluppo
I test di sviluppo hanno un obiettivo comune: intendono misurare se e quanto un bambino è in
grado di affrontare e superare compiti adeguati alla sua età anagrafica. Questo avviene
essenzialmente osservando la risposta del bambino di fronte a stimoli e situazioni che riproducono
ledifficoltà che egli potrebbe incontrare in situazioni della vita quotidiana
Non-test factors
il testista ha sempre un ruolo facilitante o inibente rispetto al bambino: questo avviene anche
quando sono rispettate tutte le regole previste dal manuale del test, in conseguenza di piccoli
messaggi verbali che continuamente vengono scambiati tra bambino e operatore (a livello di mimica
attivazione motoria globale, tono della voce, sguardo e sue caratteristiche e via dicendo)
7
Thurstone (1931) ritiene l'intelligenza un costrutto multidimensionale, quindi un insieme di
eterogenee abilità primarie indipendenti fra loro. Pur avendo individuato con i sui studi l’esistenza
di 12 di queste abilità, soltanto 7 sono state confermate da studi successivi e, attualmente, vengono
denominate Primary Mental Abilities (PMAs): Comprensione verbale Fluenza verbale, Capacità
numerica, Capacità spaziale, Memoria associativa, Velocità percettiva, Ragionamento induttivo
Secondo questo schema Thurstone progettò il primo test di Abilità mentali primarie, costituito da
7 subtest, ciascuno dei quali consentiva di misurare una particolare capacità.
Secondo Piaget la componente fondamentale del costrutto di intelligenza sono degli schemi, definiti
come pattern comportamentali o strutture mentali organizzate che consentono di individuare la
modalità più efficace per eseguire un compito con successo.
Queste strutture mentali si evolvono nella direzione di una crescente maturità, mediante il processo
di equilibrazione.
La teoria delle intelligenze multiple proposta da Gardner è di tipo multifattoriale ed è costruita
partendo dallo studio delle relazioni cervello/comportamento.In questa prospettiva coesistono
diverse forme di intelligenza, tra loro relativamente indipendenti, ma non è possibile affermarne in
maniera definitiva la natura e il numero. Quelle meglio definite, e per questo più autonome anche
ontologicamente, sono: linguistica, logico-matematica e spaziale (le tre più note), musicale,
corporeo-cinestesica, interpersonale e intrapersonale (le quattro più innovative proposte
dall'autore)
8
abilità cognitive ristrette trascurando la valutazione di altre abilità importanti, come ad esempio la
memoria.
I test multidimensionali sono formati da più subtest, diversamente combinati tra loro e permettono
di ottenere diversi punteggi: di solito portano ad un punteggio globale, definito "scala totale", "scala
generale" o "abilità ampia misurata". Hanno buone proprietà psicometriche e sono spesso utilizzati
per pianificare interventi educativi.
Svantaggi dei reattivi non verbali per la valutazione dell’intelligenza:
Permanenza di un minimo di istruzione orale, anche se l’esaminando può rispondere in modo non
verbale.
Livello scarso di rappresentatività del costrutto misurato, considerati come o stime attendibili del
costrutto generale di Spearman o come competenze cognitive non mediate dal linguaggio.(diatriba
che non meramente semantica, ma teorico concettuale). Che i processi cognitivi sia in gran parte
indipendente dal linguaggio è stato supportato da studi recenti.
CTONI - Comprehensive Test Of Non-verbal lntelligence (D.D. Hammill, N.A. Pearson, J.L.
Wiederholt, 1996)
I principi che hanno guidato la costruzione dello strumento sono:
• le istruzioni per il test dovrebbero essere date oralmente o tramite pantomima, in base a quello
che l'esaminatore ritiene sia il metodo più appropriato;
• il test dovrebbe valutare 3 tipi di abilità intellettive: il pensiero analogico,la formulazione delle
categorie e il ragionamento sequenziale;
• le abilità dovrebbero essere misurate in contesti aventi sia illustrazioni di oggetti sia figure
geometriche.
E’ una batteria di 6 subtest che misurano diverse abilità intellettive non verbali in correlazione tra
loro. Dai 6 ai 90 anni di età.
Scoring e lettura dei risultati:
Il CTONI prevede il calcolo di 3 quozienti, che si ottengono sommando i punteggi ottenuti ai subtest:
Quoziente di Intelligenza Non Verbale (QINV).
Quoziente di Intelligenza Non Verbale con Illustrazioni di Oggetti (QINV-IO).
Quoziente di Intelligenza Non Verbale con Figure Geometriche (QINVFG).
CTONI è composto da 6 subtest che devono essere presentati nel seguente ordine:
1. Analogie di illustrazioni (subtest 1) e Analogie di figure geometriche (subtest 2); senza fare
un uso manifesto di parole, si richiede che il soggetto sia in grado di capire la relazione
"Questo sta a quello (le due caselle superiori della matrice) come questo sta a ... cosa (le due
caselle inferiori)?". L'esaminando risponde indicando uno degli item da scegliere (alternative a
risposta multipla) e da inserire nella casella vuota.
2. Categorie di illustrazioni (subtest 3) e Categorie di figure geometriche (subtest 4); senza
usare il linguaggio, !'esaminando deve intuire il nesso esistente tra le due figure-stimolo
superiori e scegliere, tra gli item proposti, quello che appartiene alla stessa categoria. L'
esaminando deve stabilire quale, tra questi, sia connesso a quelli.
3. Sequenze di illustrazioni (subtest 5) e Sequenze di figure geometriche (subtest 6); il clinico
mostra una serie di caselle ognuna delle quali contiene illustrazioni diverse, ma legate tra loro
da un nesso sequenziale; l'ultima casella è vuota. Il soggetto indica tra una serie di item
(scelta multipla) quello corretto per completare la serie progressiva. Senza usare parole, l'
esaminando deve decidere quale sia la regola alla base della progressività delle illustrazioni.
Ogni subtest prevede 25 item. La sola modalità di risposta accettata è quella per cui
!'esaminando sceglie all'interno di alternative proposte la risposta corretta e la indica. Non
9
sono richieste né ammesse risposte verbali, scritte o che prevedono una qualche forma di
manipolazione del materiale più complessa e articolata.
Il tempo previsto per la somministrazione dell'intera batteria varia tra i 40 e i 60 minuti. Non
esiste un limite di durata obbligatorio, ma i singoli subtest richiedono raramente più di 5-10
minuti di tempo per essere somministrati.
È prevista una somministrazione soltanto individuale.
CTONI mostra un buon livello di attendibilità, che si mantiene considerevolmente alto nei confronti
delle 3 fonti di errore considerate:
1. campionatura del contenuto del test sia rispetto alla popolazione generale che per sottogruppi e
minoranze etniche.
2. campionatura dei tempi (coefficienti del test-retest superiori a .80)
3. concordanza tra esaminatori (indici di concordanza variabili tra .95 e .99).
La validità di costrutto è stata valutata secondo la procedura proposta da N.E. Gronlund e R.L. Linn
(1990), che prevede la formulazione di ipotesi teoriche accertate tramite metodi logici o empirici
Validità di criterio: Gli studi che hanno messo in correlazione lo strumento con altri test criteriali
forniscono solo un moderato supporto rispetto alla validità concorrente del test: paradossalmente,
i tre punteggi del CTONI sembrano correlare di più con i QI verbali della WISC-III che con i QI di
performance
Scoring e lettura dei risultati
Quoziente di Intelligenza Non Verbale (QINV). Si ottiene sommando i punteggi standard di tutti e 6
i subtest. Rappresenta la miglior valutazione del fattore globale g descritto da Spearman (1923), in
quanto rileva la situazione attuale basandosi sulla più vasta gamma di abilità non verbali, questo
perché rappresenta la combinazione di tre diverse abilità cognitive (ragionamento analogico,
classificazione per categorie, ragionamento sequenziale), tutte valutate in due contesti diversi.
2) Quoziente di Intelligenza Non Verbale con Illustrazioni di Oggetti (QINV-IO). Si
ottiene sommando i punteggi standard dei 3 subtest che misurano le abilità non
verbali in un contesto che si serve di illustrazioni di oggetti. Il QINV-IO è l'indice
delle abilità di soluzione di problemi e di ragionamento e si ottiene servendosi di
disegni di oggetti familiari.
3) Quoziente di Intelligenza Non Verbale con Figure Geometriche (QINVFG). Si
ottiene sommando i punteggi standard dei 3 subtest che misurano le abilità non
verbali in un contesto che usa figure geometriche. Il QINV-FG è l'indice
dell'abilità di soluzione di problemi e di ragionamento e si ottiene basandosi su
disegni di figure non familiari di cui gli esaminandi non conoscono il nome. Per
questa ragione, la probabilità dell'uso di forme verbali è alquanto limitata
Effetto Flynn è legato alle norme del test, definisce l’aumentare, nel corso degli anni, del valore
del quoziente intellettivo medio della popolazione è più marcato nei test che misurano l’intelligenza
fluida piuttosto che cristallizzata. Questo cambiamento rilevato da James R. Flynn in svariati paesi è
stato considerato come indipendente dalla cultura di appartenenza, ed il QI si osservò che
aumentasse in modo progressivo (5 punti per ogni decennio). Flynn penso che fosse un risultato
interculturale. Tra le varie ipotesi, quella di tipologia di alimentazione, la crescita degli anni si
scolarizzazione e la maggiore capacità di risolvere problemi logico-astratti, molto più frequente oggi.
Ipotesi non confermate però dai dati. Oggi invece ci sono valori di QI minori degli anni precedenti.
Il Guilford-test basato sulla Teoria della Struttura dell’Intelletto che comprende fino a 150 abilità
differenti classificate su tre fattori Operazioni, Contenuti e Prodotti ognuno con sotto dimensioni
Il reattivo delle Matrici Progressive o Test di Raven. è un test cognitivo approntato per la
valutazione globale dell’intelligenza, intesa come ampiezza delle abilità mentali indipendenti dal
livello culturale. Dato che i risultati di questo reattivo dipendono, in misura minore rispetto altri test,
dal fattore educativo, è divenuto lo strumento principe per la misura dell’efficienza intellettiva, in
tutti i settori in cui essa è utile (in ambito clinico o per la valutazione del personale)
Il Thurstone-test. batterie di test per l’uso applicativo denominate Abilità Mentali Primarie (PMA),
fondate sull’analisi fattoriale per la loro costruzione (sulla elevata validità fattoriale dei reattivi) e
differenziate per livelli di età. Presenta delle criticità per l’assenza di variabili rilevanti per l’ambito
educativo e l’orientamento (memoria e abilità percettiva su tutte).
Test di Orientamento Motivazionale è per la comprensione dei fattori principali che spingono una
persona a mettere in atto un'azione, una meta, mantenere un impegno nel tempo, facilitando in tal
modo l’impostazione di programmi di gestione e di sviluppo delle risorse.
Il TOM misura motivi o inclinazioni che orientano il comportamento organizzativo o le preferenze
nel lavoro in quattro diversi orientamenti: obiettivo, innovazione, leadership e relazione.
Si sviluppa a partire da una disamina delle principali teorie connesse alla motivazione: le teorie
dei bisogni (Maslow,) che fanno riferimento a specifici bisogni (fisici o psicologici), il soddisfacimento
dei quali è fondamentale per il benessere e la sopravvivenza; le teorie del valore (Atkinson, 1958;
Adams, 1965; McClelland, 1973) che prendono in considerazione ciò che l’individuo vuole o desidera
piuttosto che ciò che è necessario per sopravvivere; le teorie dell’obiettivo per le quali gli obiettivi
rappresentano qualcosa di importante per la persona ma sono più specifici nel contenuto rispetto
ai valori perché circoscrivono la meta ed indirizza più finemente il comportamento
Viene impiegato con successo nella selezione per valutare il profilo motivazionale del candidato, nei
programmi di sviluppo per favorire l’inserimento o lo spostamento del personale in più appropriati
percorsi futuri di crescita professionale o per comprendere e quindi anticipare potenziali conflitti o
disarmonie, o nella valutazione del potenziale.
Il Reattivo di Ragionamento (P. Rennes) il cui obiettivo è la rilevazione della capacità
di ragionamento attraverso l'abilità a trovare delle relazioni. L’ambito di impiego di
questo test è principalmente la selezione del personale, per valutare se i candidati
possiedano un'adeguata elasticità mentale. Per saggiare l’abilità di adattamento veloce
dei soggetti a nuovi problemi e situazioni (anche imprevisti) che possono verificarsi in
un ambiente di lavoro si basa su diversi tipi di prove: serie di lettere, serie di numeri,
analogie verbali, prove di vocabolario.
.
Test clinico-diagnostici
La psicologia clinica usa quasi tutti i test citati, poiché gli psicologi che operano in questo contesto
necessitano distabilire se il disordine di un individuo è di tipo funzionale o di tipo organico, e per
questo necessitano di informazioni derivanti da fonti diverse e non solo quelle ricavate dai colloqui
o dalle anamnesi.
L'applicazione dei test in modo coordinato e complementare agli altri approcci ha due ricadute
importanti:
1. Possono essere usati anche reattivi con capacità psicometriche non accertate o insufficienti, e
contribuire alla definizione del caso e all’indicazione all’esperto clinico del giusto percorso
per lo studio del soggetto.
2. anche reattivi con un alto grado di attendibilità e validità accertata non possono autonomamente
dare risultati sufficientemente precisi per diagnosi individuali in modo autosufficiente.
I reattivi usati in questo campo sono i test psicofisiologici.
Molti test neuropsicologici sono stati strutturati come strumenti clinici per la valutazione della
compromissione delle funzioni mentali e che quindi misurano con accuratezza e affidabilità
aspetti come la velocità di risposta, la percezione spaziale, l’astrazione, il livello di
comprensione, la formazione dei concetti e il linguaggio, la memoria visiva, l’abilità psicomotoria
sempre in riferimento al presupposto di una deficienza differenziale nelle varie
12
funzioni.
Tra questi:
il test Visual Motor Bender Gestalt, noto come Bender-Gestalt test, è sostanzialmente un test di
riproduzione a memoria di disegni ideato per la misurazione delle funzioni visuo-percettive e visuo-
costruttive.
Il test di Goldstein, applicato ai cerebrolesi. nella versione Goldstein-Scheerer (test dei cubi, o il
test dei bastoncini) è usato per la valutazione del pensiero astratto
Il test di memoria visiva di Benton è utile per la valutazione dello stato di compromissione delle
funzioni psichiche dei bambini e degli adolescenti, basato su items relativi alla percezione spaziale,
memoria immediata eriproduzione visomotrice e utile per la valutazione dellostato di
compromissione delle funzioni psichiche dei bambini e degli adolescenti.
TEST DI PERSONALITÀ
Questa categoria di test (denominati anche test di prestazione tipica o test non cognitivi) esplorano
la personalità o nella sua globalità o in qualche sua dimensione, come i test di dominanza–
sottomissione o quelli di introversione–estroversione, per riferirla ad una classificazione o ad una
tipologia. L’interpretazione dei dati, a differenza di quanto avviene nei test di rendimento, è
quantitativa e qualitativa. Si distinguono due grandi categorie:
i test obiettivi costruiti su principi omologhi ai test di rendimento, quindi con prove o domande
le cui risposte vengono dapprima quantitativamente conteggiate e poi qualitativamente valutate,
i test proiettivi idonei all’indagine dei processi inconsci, ma non facilmente assoggettabili ad una
generalizzazione delle risposte entro schemi prefissati e quindi conteggiabili: l’ambiguità dello
stimolo fornito, la molteplicità delle risposte possibili, non sottoposte al giudizio vero/falso,
giusto/sbagliato; l’interpretazione della prova che, a differenza delle tecniche psicometriche, non
esclude un rapporto interpersonale con l’esaminatore
I test obiettivi
sono costruiti su principi omologhi ai test di rendimento, quindi con prove o domande le cui risposte
vengono dapprima quantitativamente conteggiate e poi qualitativamente valutate e che sono
costituiti da item con risposta chiusa.
La distinzione fondamentale è quella tra tipologie di test per la misurazione della personalità
globale o in qualche sua dimensione, per classificarla.
A questa categoria fanno riferimento diversi metodi studiati per trattare le difficoltà collegate
alla costruzione degli invarianti di personalità, incluse le rating scales che, differentemente dai
questionari di personalità, non puntano a individuare le caratteristiche costitutive di una
personalità, ma a valutare la sintomatologia clinica, anche rispetto alla definizione nosografica ed
alle trasformazioni nel corso del tempo.
Per questo ci sono metodi diversi per la costruzione di un test:
1) il primo metodo della “costruzione empirica”, ovvero validazione empirica, del reattivo si
serve delle (frequenze di) risposte di gruppi di riferimento formati da individui che
presentano le caratteristiche (sintomi) che si intendono analizzare. Il test diviene strumento
13
discriminatorio tra gruppi normali e gruppi diagnosticati come patologici e la
standardizzazione ottenuta dal campione di popolazione di riferimento permette di
trasformare i punteggi grezzi ottenuti dal campione esaminato in punteggi ponderati molto
utili in ottica di predittività del reattivo
L’Inventario Multifasico di Personalità del Minnesota - MMPI (Minnesota Multiphasic Personality
Inventory), inventario in questo caso indica un questionario descrittivo, rientra in questa categoria
e prende in esame i tratti patologici della personalità mediante il confronto tra le risposte dei
soggetti esaminati e quelle dei pazienti affetti da diversi tipi di disturbi mentali tenendo presente
tre obiettivi principali: il raggiungimento di una campionatura di comportamenti significativa per lo
psichiatra; massimizzare la facilità di presentazione attraverso la semplificazione linguistica;
creazione di un repertorio di items molto ampio per estendere il ventaglio di descrizioni di
personalità valide (più di mille nella versione originale)
E’ il più diffuso test obiettivo di personalità. e forse più abusato nella pratica clinica è, per esempio,
una scala a "banda larga" che pone l'enfasi sulla valutazione di sintomi e comportamenti patologici
che si articolano in un profilo su 10 dimensioni cliniche e su tre indici di controllo del bias di risposta
(si compone di 13 scale che valutano (tra l' altro), la Depressione, la mascolinità-femminilità. la
Schizofrenia e la tendenza a dare un'immagine favorevole di se scala Lie).
Il MMPI e successive revisioni (MMPI-2 con nuove scale e aggiornamento dei contenuti) controlla la
presenza di distorsioni attraverso una serie di items (raggruppabili in una scala a se L = lie,
menzogna) in grado di intercettare e mettere in luce le tendenze dei partecipanti a esagerare gli
aspetti positivi della propria personalità o viceversa quelli negativi.
Diversamente in altre versioni sono previsti items cosiddetti “ovvi”, perché connessi
semanticamente in modo ovvio alle variabili di interesse, e quesiti più “sottili” di controllo.(il
questionario di Cattel adotta questa tipologia di intercettazione della menzogna)
Il MMP2 è un questionario di personalità autosomministrato composto da 567 item dal contenuto
eterogeneo, che prevede risposte dicotomiche del tipo Vero/Falso. Esso costituisce la revisione
aggiornata e ristandardizzata di uno dei questionari di personalità più diffusi e utilizzati nell'
assessment clinico e psichiatrico, il Minnesota Multiphasic Personality lnventory (MMPI; MMPl-2: i
motivi della revisione: usato per le minoranze creava una distorsione e per ottenere dati normativi
più recenti.
1. Adeguatezza del campione di standardizzazione originale
2. Linguaggio e i riferimenti contenuti negli item non di facile comprensione per coloro che non
appartenevano alla cultura di riferimento.
3. Esigua numerosità del set originale degli item, che non permettevano una diagnosi valida in tutti
i casi.
14
3)I metodi per la costruzione dei reattivi su un modello teorico con validazione sperimentale si
riferiscono a poche dimensioni molto generali, come per es. l'EPI, che è strutturato sulla base della
teoria della personalità di Eysenck.
4) L’ EPPS (Fondato sulla teoria dei bisogni psicologici di Murray)è fondato sul metodo della
correlazione per lo stile di risposta per ridurre gli effetti della desiderabilità sociale
5) il Big five question Five-Factor Model (FFM), con fondamenti teorici su differenti concezioni come
l'approccio fattoriale elaborato da Hans Eysenck e la teoria della sedimentazione linguistica
sviluppata da Cattel. Il primo identifica le dimensioni caratterizzanti e le
differenze individuali attraverso analisi statistiche di tipo fattoriale, due fattori Nevroticismo ed
Estroversione sono quelle già utilizzate dallo studioso nel 1983; il secondo, nei sui studi, considera
il vocabolario della lingua quotidiana come un serbatoio di descrittori delle differenze individuali. Il
reattivo propone una crasi dei due approcci.
Questi diversi approcci di ricerca confluiscono in questo test formulato da Costa e McCrae (1988) i
cui vantaggi principali comprendono l’economicità e la praticità, ed infatti quando fu somministrato
per la prima volta in Inghilterra nel 1990 i partecipanti restarono sorpresi e anche un po’ scettici
rispetto alla velocità della profilazione della personalità (solo circa 10 minuti)
termini dal significato non sempre inequivocabile.
Altri punti di forza di tale modello sono sia l’ampia generalizzabilità, riscontrata attraverso
l’applicazione in contesti con lingue e culture diverse, sia la possibilità di individuare altre
dimensione derivanti dall’integrazione con ulteriori paradigmi.
Si pone come tentativo di mediazione ed unificazione tra diversi punti di vista: individua 5
dimensioni fondamentali per descrivere la personalità, che si pongono ad un livello di generabilità
ad un livello intermedio rispetto ai modelli che fanno riferimento a poche dimensioni generali o a
quelli con poche dimensioni.
Le 5 dimensioni rappresentano strutture latenti a cui poter ricondurre ogni spiegazione e
descrizione dell'individuo in quanto si riferiscono ai modi stabili usati dall’individuo per interagire
con gli altri e con l'ambiente, alla regolazione dell'umore e alla attività conoscitiva.
L’Acronimo in lingua inglese utilizzato per ricordare i fattori principali è OCEAN:
Nevroticismo: stabilità emotiva
estroversione (energia)
apertura. Mentale e all’esperienza
gradevolezza, scrupolosità
coscienziosità
In totale il BFQ consta di 132 item e le 10 sottodimensioni ed è anche presente test una scala L = Lie,
inserita per apprezzare la misura della tendenza del partecipante a restituire un profilo personale
falsamente "positivo" o "negativo": n presenza di elevati punteggi rilevati su di essa si possono
attuare due differenti strategie: ponderare i risultati, apportando delle correzioni ai punteggi
ottenuti, oppure, nel caso in cui la simulazione superi un determinato punto critico, procedendo
all’eliminazione "d’ufficio" del soggetto, perché manifestamente inattendibile. La risposta agli item
del BFQ avviene selezionando la risposta ai quesiti all’interno di “scala Likert” a 5 punti (da
"assolutamente vero per me" ad "assolutamente falso per me")
I test proiettivi
In questi test, il soggetto, risponde più liberamente in quanto non sono strutturati in maniera rigida,
con la possibilità di essere più personali nelle risposte, permettendo di scorgere aspetti inconsci
della personalità in esame. Si definisce proiettivo per il meccanismo della proiezione illustrato dalla
15
psicoanalisi: il soggetto espelle da sé e localizza nell'altro, persona o cosa, qualità, sentimenti,
desideri che non riconosce o rifiuta in sé.
I test proiettivi sono idonei all’indagine dei processi inconsci,ma non facilmente assoggettabili ad
una generalizzazione delle risposte entro schemi prefissati e quindi conteggiabili. A volte ci possono
essere delle distorsioni perché i test non sono strutturati perché la risposta non è chiusa, e
predeterminate, ma c’è una creazione. Sono standardizzate, ma c’è un rapporto con il clinico.
Fa appello alla produzione immaginativa, con cose di cui è inconsapevole.
Si presenta a plurime interpretazioni.
Le caratteristiche principali di questo tipo di test sono:
l’ambiguità dello stimolo fornito, la molteplicità delle risposte possibili, non sottoposte al giudizio
vero/falso, giusto/sbagliato; l’interpretazione della prova che, a differenza delle tecniche
psicometriche, non esclude un rapporto interpersonale con l’esaminatore.
Rientrano in questo gruppo:
1. il test di Rorschach, non strutturato, il più utilizzato, parte dall'ipotesi che le risposte verbali del
soggetto su dieci macchie accidentali e simmetriche suggestive, diano un quadro della struttura di
personalità di colui che risponde, generate da riflessioni sulle proprie modalità cognitivo-affettive.
Questo test permette un'analisi approfondita della struttura di personalità, di elaborare ipotesi
diagnostiche e non è stato congegnato in riferimento ad una determinata teoria della personalità,
ma si è sviluppato ed è stato promosso come metodo esplorativo per studiare la relazione tra
percezione e personalità a partire dall'osservazione empirica che i pazienti schizofrenici apparivano
percepire le macchie in modo molto differente dai soggetti non clinici.
E’ ritenuto il metodo più rilevante nel campo delle tecniche proiettive. Riguardo alla valutazione
della personalità con il Rorschach, le informazioni fornite dal devono essere integrate ad altre
informazioni ricavate con altri strumenti. Sembra più funzionale in alcuni casi e meno in altri.
I tratti di personalità che possono essere colti in un reattivo di Rorschach possono essere classificati
in base a tre dimensioni: aspetti cognitivi o intellettuali; aspetti affettivi o emotivi; aspetti del
funzionamento dell'Ego
2. Il Test di appercezione tematica, TAT dopo il Rorschach, è il test proiettivo più impiegato per
l'analisi globale della personalità. attraverso la rilevazione delle tematiche basilari intese come
emozioni, sentimenti, vissuti affettivi profondi e processi cognitivi complessi e conflitti di personalità
che ricorrono nelle elaborazioni immaginative dell’individuo La valutazione delle reazioni a stimoli
interpersonali ambigui è alla base della stesura della prima versione del manuale del 1935 e viene
definita da Murray col termine di appercezione, per evidenziare il fatto che i soggetti interpretano
attivamente lo stimolo in base ai loro tratti di personalità e alle loro esperienze di vita. La personalità
in questo caso viene intesa come la conoscenza dell’assortimento dei bisogni che in modi eterogenei
incidono sul suo sviluppo
Il reattivo è composto da trenta tavole in bianco e nero (più una tavola bianca) che introducono
personaggi diversi per genere ed età rappresentati all'interno di varie situazioni di vita.
(originariamente 20 cui vennero aggiunte le specifiche “serie” per bambini e donne).
Il grado di strutturazione delle tavole è eterogeneo, infatti alcune sono appropriate per i soggetti di
ogni età, altre differenti per bambini o adulti, e i soggetti inseriti nella situazione possono essere un
numero variabile (da uno a più personaggi), ovvero contenere soltanto rappresentazioni di paesaggi.
La somministrazione del test può avvenire anche in modo collettivo con differenze di risultato
modeste e quindi valide anche a livello di ricerche psicologiche, anche se il metodo di analisi richiede
la padronanza della teoria psicodinamica di Murray per essere somministrato e conduce ad una
descrizione qualitativa (non quantificata) delle caratteristiche di personalità individuali. Per quel che
16
riguarda l'attendibilità, occorre innanzi tutto prendere in considerazione la confrontabilità di
risposte stimolate da esaminatori diversi.
Permangono dubbi sulla confrontabilità di risposte stimolate da somministratori diversi poiché
diversi studi hanno messo in evidenza che anche la sola presenza del somministratore produce
variazioni fino ad inibire la produzione di contenuti ad alto valore emotivo. L'attendibilità del TAT
inoltre non può essere verificata attraverso i criteri si omogeneità interna, dato che è possibile
utilizzare modalità di somministrazione diverse (serie di tavole diverse o ripartite in più sedute) e
interpretazioni/analisi diverse. La stabilità delle caratteristiche personali evidenziabili con il TAT non
è un’assicurazione di affidabilità robusta. leproblematiche derivanti dalle fantasie espresse nei
racconti possono non essere collegate al comportamento dell’individuo, e per di più anche il
rapporto tra la quantificazione dell'intensità delle fantasie dei soggetti rispetto al loro
comportamento non risulta chiaramente definita: in generale è considerata positivamente
correlata, ma variabile in base a caratteristiche come l’età, il genere, il tipo di scoring utilizzato e le
variabili considerate.
La personalità viene intesa come assortimento dei bisogni che incidono sul suo sviluppo
4. la Tecnica delle relazioni oggettuali, ORT, è un test proiettivo i cui presupposti teorici fanno
riferimento agli elementi alla base della relazione oggettuale del soggetto, cioè i processi dinamici
con cui il soggetto esprime le forze consce e inconsce che caratterizzano l'interazione con
l’ambiente. Queste forze si dispiegano a partire dalle relazioni con i primi oggetti da cui il soggetto
dipende per la soddisfazione dei bisogni primari e il test dell’ORT rileva se e quanto l’esperienza di
adattamento è convalidata socialmente o, al contrario, non sia opportunamente gestita con
manifestazioni inconsce e come la relazione oggettuale influenzi il modo successivo di entrare in
rapporto con il mondo.
5. Il Blacky Pictures test (Blum)è per valutare le diverse componenti di competenza psicoanalitica
e per convalidare in modo sperimentale i concetti principali della teoria freudiana classica, cioè i
conflitti psichici, meccanismi di difesa, sviluppo psicosessuale.
Cosa misura: sviluppo psicosessuale del soggetto, meccanismi di difesa e relazioni oggettuali
•Ambiti di utilizzo : Assessment clinico
•Destinatari: bambini con età compresa tra 6-11 anni, ma a volte anche adulti
le figure umane potrebbero essere inibitorie, in quanto ricordano le figure di riferimento.
Racconto spontaneo. Breve consegna iniziale. Inchiesta con domande strutturate a scelta multipla
per indicare gli stati d’animo dati . gradimento delle tavole.
Vedi qualcosa in più su google
6. Il metodo Duss delle piccole favole o storie è stato elaborato come rapido metodo di indagine
sostitutivo dell'interrogatorio psicoanalitico diretto del bambino. Un protagonista si trova in una
determinata situazione che rimanda ad uno dei diversi stadi dello sviluppo psicosessuale (stadio
17
orale, anale, edipico, ecc.): il modo in cui il bambino conclude una favola iniziata dallo
sperimentatore permette di valutare le reazioni normali, patologiche e sintomatiche. L'analisi delle
risposte date dal soggetto richiede agli esaminatori una conoscenza profonda del modello
psicoanalitico, in particolare riguardo alla struttura della personalità e alla comprensione delle
situazioni simboliche rappresentanti determinati stati dell'evoluzione affettiva del bambino, ma
anche una certa padronanza della tecnica dell'interrogatorio psicoanalitico.
Vanno segnalati anche i reattivi basati sulla produzione di disegni come meccanismo per facilitare
l’espressione di contenuti altamente emotivi da parte del soggetto all’interno del colloquio e per
attenuare l’eventuale ansia derivata. Questa ampia tipologia fa riferimento alle tecniche cosiddette
“produttive” (G.W. Allport, 1965) che favoriscono le risposte non verbali.
Questi test (sebbene il termine in questo caso sia quasi improprio dato il basso grado di validità e
affidabilità), oltre alla produzione “libera” del disegno, prevedono il disegno della figura umana,
della famiglia, di oggetti di familiari, e il completamento di disegni come schermi su cui proiettare il
proprio vissuto, le tendenze del proprio inconscio e la percezione di sé.
Esistono altri reattivi proiettivi classificabili a partire dalle tecniche impiegate per la loro
strutturazione:
• ludiche, non utilizzate per il trattamento terapeutico del bambino, trattamento attraverso il gioco,
ma per l'analisi della personalità;
• rifrattive, basate sull’impiego di un mezzo convenzionale di comunicazione (ad esempio la
scrittura) per rivelare la personalità del soggetto analizzando le distorsioni che quest’ultimo provoca
sull’attività di comunicazione stessa;
• costruttive, che accomunano i reattivi caratterizzati dall’azione del soggetto che costruisce
strutture più ampie partendo da un materiale predefinito (ad esempio il test del mosaico di
Lowenfeld e il test del villaggio di Arthus);
• costitutive, in cui partendo da elementi non strutturati il soggetto stesso definisce la struttura.
Lezione 3 scorm
Elementi fondamentali per la misura di una caratteristica attraverso un test
La validità a priori del test
La validità a posteriori del test
Corrispondenza del test alle esigenze pratiche. Per valutare la misura effettuata da un test rispetto
alla caratteristica: decidiamo quale caratteristica si propone di misurare e il metodo con cui
quantifichiamo il risultato, bisogna scegliere gli stimoli e fissare le modalità di risposta, che devono
essere appropriati (per la creatività le risposte dovranno essere aperte, per il problem solving sono
più vantaggiose alternative chiuse con una sola risposta; per un tratto di personalità, il modello più
adatto sono le risposte alternative chiuse, disposte lungo una scale che rispecchia il continuum
soggiacente alla differenza individuale, (quindi abbiamo scale Likert ecc. ). La scelta del tipo di
risposta è connessa con la risposta del test alle esigenze pratiche e gli stimoli devono essere scelti
in modo che attivino solo risposte attinenti alla caratteristica da misurare, per es, se abbiamo un
questionario psicopatologico, ci sono domande che contengono vocaboli difficili e le persone meno
colte potrebbero dare una risposta alfa non adeguata, che non corrisponde allo stimolo che si stava
ricercando, sembrando psicopatologici anche quando non lo sono, se l’itam non è di buona qualità.
Allo stesso modo se lo stimolo è una figura ambigua, bisogna essere sicuri che il dettaglio non
presenti problemi di tipo percettivo, sennò il soggetto non risponde in modo corretto non perché
non abbia il tratto latente o l’abilità, ma perché non percepisce l’elemento che dovrebbe
giustificarne la risposta.
18
Di solito vengono esaminati dal gruppo di esperti che costruisce un test, facendo un pool degli item
che devono essere valutati. L’insieme di questi controlli riguarda la validità di contenuto del test o
la validità di facciata : se il test sembra valido e percepito in modo corretto dai soggetti (Validità
esaminata a priori, quando ancora non si conoscono le risposte dei soggetti agli stimoli del test.
Una volta preparati gli stimoli del test si avrà una validità a posteriori, con la raccolta delle risposte
potremo dire se il test è una buona misura del costrutto da misurare.
Questi procedimenti sono molto lunghi, (più di un anno) e continuati anche dopo la pubblicazione
del test, per tararlo in modo corretto. Vengono fatti dopo la somministrazione del test e sono
controlli a posteriori. I campioni sono più ampi e la maggior parte dei test standardizzata
attualmente viene validata su campioni stocastici, casuali, ma nella ricerca molti test non sono
testati su campioni probabilistici, grave difetto, dovuto al fatto che per la ricerca un anno è troppo
per un campione. Un test validato trent’anni fa, non è detto che sia utile oggi, anche in luoghi
diversi.
E’ importante che gli stimoli siano omogenei tra loro.
Una volta accerteta la misura valida, possiamo scegliere il test anche in base a proprietà legate al
vantaggio pratico( tempo, economia, costo, tratti studiati, quali disturbi intercetta, appropriato
ai soggetti, scritto in linguaggio semplice o che gli stimoli siano attraenti per le persone).non deve
porre problemi etici e deontologici (che portano a problemi legali)e contenere quesiti religiosi e
politici, per dare garanzie di risultati equi, senza discriminazione legate al genere o alle minoranze.
Per massimizzare i vantaggi alla scelta di un test, bisogna considerare se sia appropriato
Esempio di alternativa di tipologia dei test
• test di profitto;
• test attitudinali;
• inventari di personalità;
• inventari degli interessi
Vedi immagini cartella 1 per come scegliere un test. (Boncori) con coscienza e conoscenza.
Non ci può essere un reattivo che possa fornire le informazioni necessarie al clinico per fare una
diagnosi, e test diversi forniscono informazioni differenti, che è riconducibile alle caratteristiche
dello stimolo e al modello teorico sotteso a quel test e al soggetto che si sottopone ad esso. La
teoria della misurazione dovrebbe tenere in considerazione la dimensione dello stimolo, la
risposta, la persona analizzata. La scelta del test per la diagnosi testologica è importante e diversa
da sintomo a sintomo.
Spesso i test vengono scelti secondo il modello teorico o esigenze personali (editore e varie)del
clinico, cosa che porta ad un uso improprio dello strumento ed a una scorretta valutazione dei
dati, dato che il test rileva alcune informazioni.
La risposta è correlata con lo stimolo, per cui se non vengono fatti errori nella somministrazioni e
se c’è un’alleanza terapeutica, si effettua una misurazione valida.
Una mancata alleanza è causa di protocolli non validi o muti, e se lo strumento determina una
risposta diversa da qualla attesa, bisogna evidenziarne le cause, tenendo in considerazione che
alcuni risultati sono dovuti ad una scorretta somministrazione.
Il lavoro di costruzione e taratura è essenziale per definire un buon test e che questo lavoro va svolto
preliminarmente da chi costruisce il test e intende metterlo in circolazione proponendolo ai colleghi
e ai possibili utilizzatori. (Validità )
19
Gli item vanno scelti con cura, magari con prove preliminari, perché rappresentino l'area psicologica
da valutare e siano graduati in modo opportuno: per livello di difficoltà se si tratta di prove di
efficienza, per grado di accettabilità se le domande riguardano aspetti delicati della
personalità o della patologia. È opportuno iniziare dalle prove più facili nei test cognitivi e da quelle
più accettabili e meno 'scabrose' nei test di personalità.
Lo scopo nella costruzione degli item è evitare che la risposta del soggetto risenta di un 'errore'
che inficia la valutazione in quanto non consente di stimare adeguatamente competenze o
condizioni 'vere' del soggetto stesso.
in tutte le concezioni vi è una quantità di errori, ma questo è un errore sistematico dovuto a norme
o procedure errate, che non permette un utilizzo adeguato dello strumento.
Corrispondenza tra percentili empirici, scale di misurazione e punteggi standardizzati.
Fasi: scelta del costrutto, elaborazione di item ampi, esame critico degli item, analisi formale (’item
analysis) degli item (dimensionalità, difficoltà. Discriminatività), selezione item del test, studio delle
caratteristiche del test, standardizzazione
Metodi: analisi razionale del costrutto, operazionalizzazione, selezione di un gruppo di esperti,
scelta di un campione, uso di tecniche di analisi statistica, calcolo degli indici di attendibilità,validità
ed informazione; selezione di un campione normativo; calcolo di statistiche campionarie ed
inferenziali
Risultati: definizione del costrutto, insieme di item, versione preliminare del test, insieme scelto di
item, parametri che consentono di descrivere le proprietà metriche degli item, versione finale del
test.
Modulo 2
Domande video
Domande di ricerca specifiche sono adatte a strategie di analisi esplorative? Falso
(Giusto, sono più adatte a temi già studiati e questioni circoscritte).
E' auspicabile poter utilizzare i dati dei social media per condurre analisi psicologiche tous court:
falso
perchè i big data sono soggetti a distorsioni esattamente come le altre fonti di dati
Il rapporto di ricerca non prevede anche l'analisi descrittiva dei dati: vero
Giusto, siamo ancora in una fase progettuale
l'assessment psicologico (traducibile in italiano con valutazione e
accertamento) è sostanzialmente un processo di valutazione (inteso come espressione di un
giudizio) nel quale un ampio spettro di informazioni, tra cui anche spesso risultati di test, è
integrato in una significativa descrizione e spiegazione della condizione psicologica di un
20
soggetto.
Video scorm 1
Il contenuto di questo corso riguarda principalmente due insiemi di argomenti: da un lato la teoria
intesa come l’evoluzione storica degli eterogenei temi psicometrici (test, esperimenti, studi etc.) e
dei metodi intesi come processo di ricerca, cioè un atto volontario e consapevole spinto da un
obiettivo conoscitivo e proiettato alla definizione e perfezionamento approfondimento delle
procedure di indagine; dall’altro i metodi e le tecniche statistiche utilizzate in ambito psicologico in
relazione agli strumenti implementati per la misurazione di fenomeni e/o costrutti individuali.
La disciplina psicometrica intercetta ed è influenzata da diversi ambiti di studio tra i quali i paradigmi
fondamentali della psicologia, la psicofisica, la psicobiologia, la statistica e l’informatica.
Le qualità o caratteristiche fondamentali che si richiedono a un test, o altra tecnica metrica,
perché possa essere considerato un accettabile strumento di misura, sono: la validità, che riguarda
la capacità sostanziale del test di misurare realmente quello che esso presume di misurare;
l’attendibilità o fedeltà o costanza, che esprime l’accuratezza della misura ottenuta, ovvero il grado
di confidenza con il quale lo strumento può essere usato; la discriminatività o selettività di una
misura, cioè la capacità del test, o di una qualsiasi altra scala, di discriminare valori anche prossimi
tra loro della caratteristica o funzione che viene valutata
Duplice consegna della disciplina psicometrica:da un lato l’indagine sperimentale a conferma delle
ipotesi sulla natura quantitativa di una proprietà o di un costrutto, dall’altro disposizione di
procedure, metodi,di misurazione delle grandezze dell’attributo psicologico, ossia qualsiasi stato,
tratto, atteggiamento , abilità che consideriamo come quantificabile. Questo per modificare e
ricostituire un modello di analisi più robusto.
Questo spiega perché non sia possibile sviluppare una conoscenza delle teorie e dei concetti
fondamentali della psicometria o applicare la metodologia alle situazioni concrete senza capire le
basi matematiche su cui si fonda la teoria dei test nelle sue diverse articolazioni, non tanto i calcoli,
ma la struttura della procedura matematica.
Quanto deriva fattori noti e quanto è casuale? quanto è probabile che il risultato osservato, s vera
l’ipotesi che desidero rifiutare? L’innovazione e lo sviluppo della disciplina dipendono dalla capacità
di valutare il valore di tale probabilità, e quindi della corrispondente accettazione o rigetto
dell’ipotesi in base ai risultati (il cosiddetto “test delle ipotesi statistiche"
La metodologia psicometrica mantiene gli stessi fondamenti degli esperimenti che sono cruciali
nella fisica teorica, e le misure che derivano dalla psicologia sperimentale o dalla somministrazione
di reattivi psicologici, è necessario sapere che i numeri che otteniamo sono importanti per la
valutazione ed hanno un peso.
Essere consapevoli delle fonti dei dati, ci permette di sfuggire al fenomeno del disturbo del pensiero
metodologico (Michell) ossia l’ incapacità di prendere atto di evidenze metodologiche
relativamente chiare.
La critica principale è riconducibile alle questioni legate all’adeguatezza della valutazione sulla
situazione clinica di un soggetto, e quindi sulla scelta dei cut-off, la definizione del criterio soglia di
ogni categoria del DSM, che determinerebbero una diagnosi di disturbo mentale anche in persone
con tre delle caratteristiche richieste, al pari di soggetti su cui se ne rilevano sei
Problematica legata alla definizione dei cut-off, i criteri soglia di ogni categoria del dsm.
La spiegazione nosografica, cioè la descrizione della malattia psichiatrica a partire da una
classificazione (etichettamento) non necessariamente corrispondente alla realtà, risulta troppo
lineare e semplificata, e la differenza tra soggetti con due o tre caratteristiche tipiche di un disturbo
mentale non sufficientemente giustificata. In pratica il DSM sembra rispondere più a esigenze
di epidemiologiche e di ricerca che ai bisogni dei clinici, poiché la configurazione propone
categorie patologiche ideali, senza rendere conto della complessità dei disturbi.
Il disegno di ricerca.
L’analisi e la costruzione dei costrutti è importante per le fasi della parte della scoperta e il contesto
della giustificazione, in cui si suddividono le due parti del disegno di ricerca.
La scelta del problema è la più rilevante, perché determina il corso degli studi, la scelta del progetto
giusto.
In generale con disegno di ricerca si intende l'organizzazione temporale e spaziale di una ricerca al
fine di aumentare i controlli e la sua validità. Esso costituisce perciò la struttura di una ricerca, cioè
la sua pianificazione e la progettazione, in particolare per ciò che attiene alla somministrazione del
trattamento e alla manipolazione della variabile indipendente, nonché alla rilevazione dei suoi effetti
sulla variabile dipendente, incluse l' organizzazione temporale, l'estrazione dalla popolazione, la
costituzione dei gruppi e delle condizioni, al fine di esercitare il massimo controllo ed escludere il più
possibile l'intervento di altre possibili variabili di disturbo [Pedon 1995; Brewer 2000; E.R. Smith
2000]. (Pedon, Gnisci, 2004, p.228)
22
EDA 1 (concezione pre-corso di psicomentria) EDA 2 ( post corso, in cui le domande di ricerca
possono portare a modelli di analisi diversi,e diverse misure per ottenere dati più rappresentativi)
Le domande di ricerca devono essere lineari e sono il primo punto in questo processo.
Il processo di pianificazione della ricerca è molto faticoso, logorante e spesso provoca ansia, è una
sfida, perché inventarsi unìipotesi diversa della spiegazione della realtà non è semplice, ma molto
creativo. Lo sforzo maggiore profuso in questa fase di solito ripaga nelle fasi seguenti.
• Le domande di ricerca possono essere sia esplorative (pilota, descrittive/conoscitive, aperte,
open-ended) che di conferma (test di ipotesi o di modelli teorici se siano predittive e confermino
quanto previsto dal modello).
• Per individuare la letteratura pertinente è possibile utilizzare diversi database.
• Il processo di pianificazione è iterativo: il feedback da parte dei colleghi, brainstorming,
• In generale, la ricerca dovrebbe essere orientata alle domande piuttosto che ai metodi. L'
essenza della pianificazione di una buona ricerca è quella di rendere le procedure adatte alle
domande, piuttosto che il contrario.
Domande di ricerca
Le domande aperte e orientate alle scoperte sono in genere le più appropriate quando:
• un'area di ricerca è relativamente nuova o poco conosciuta, rendendo difficile o prematuro porre
domande più specifiche.
• un' area di ricerca è confusa, contraddittoria o non sta producendo progressi significativi. Questo
può essere dovuto a una concettualizzazione troppo ristretta o a una quantificazione prematura
antecedente alla progettazione adeguata del lavoro descrittivo esplorativo.
• Quando l'argomento è un evento, processo o esperienza umana molto complesso, che richiede
una definizione o descrizione accurata.
Lo psicologo spera di dimostrare che ci sia una relazione tra due misure dalle domande di ricerca
possono derivare le strutture dei costrutti, da cui si individuano i comportamenti osservabili.
La relazione teorica rende conto di tutto, va aldilà delle singole variabili.
Video scorm n 2
23
Il valore della ricerca documentale
Una ricerca documentale è di aiuto per la domanda di ricerca, nella fase in cui bisogna produrre un
rapporto di fattibilità di una ricerca in cui si raccolgono gli elementi della letteratura su uno specifico
argomento e ci dà chiarezza sull’opportunità di condurre uno studio, facendo un progetto.
Per svolgere la fase documentale bisogna conoscere le fonti ed è importante per due ragioni:
1) Il ricercatore raccoglie le idee degli altri studiosi interessati ad una particolare domanda di ricerca.
2) Ci Si informa sui risultati di altre ricerche similari o collegate a quella progettata.
Il Pericolo da evitare è la info-alluvione, ossia con l’avvento di internet , troppe informazioni che
non si sanno gestire. Per evitarla bisogna conoscere le migliori fonti e saperle gestire.
Indicizzatori online
VIDEO SCORM 3
Rapporto sulla ricerca in letteratura
Si costruisce alla fine della consultazioni delle tre fonti e ci dirà la fattibilità.
Introduzione: breve descrizione della natura del problema di ricerca
Il corpo del rapporto: breve disamina delle risultanze dell’analisi delle opinioni di altri ricercatori sul
problema di ricerca. Fonti primarie di informazioni: Ricerche simili sono trattate di solito insieme e
raggruppate in sottotitoli, usando le parole chiave, o un approccio più tassonomico, l’importante è
fare una griglia degli studi individuati.
Il sommario del rapporto: lega insieme i maggiori elementi messi in evidenza dalla revisione della
letteratura che si conosce fino a un dato momento proponendo una visione composita e più
personale, critica, revisione sistematica dei contenuti selezionati,
Teoria e Ipotesi: (dedicate tutto lo spazio necessario per questa sezione, ma cercate sempre di
essere parsimoniosi). Ha una ricaduta successiva più rilevante sullo studio della fattibilità studio più
ridotto, che deve riportare:
Riassumere in breve il modello concettuale di riferimento e rappresentarlo con le ipotesi prescelte
(se possibile). Postulati da cui si è partiti e come la teoria supporti le ipotesi scelte.
Iniziare supportando l’ipotesi alternativa (H1o H a), che è di tipo testuale, definendola formalmente.
L’ipotesi H1 o Ha è di tipo statistico quando si fanno confronti.
La proposta deve includere una logica causale forte e basata sulla letteratura. La relazione causale
è di tipo teorico, l’idea deve essere già presente in questa fase, anche se non adotteremo una
modalità di verifica che implichi la possibilità di definire in modo sperimentale questo rapporto
causale, però la logica deve essere stabilita.
Conclusione:questo rapporto tra la ricerca e la letteratura ci deve motivare dla punto di vista del
sentire, la scelta del problema di ricerca dello studioso si giustifica sulla base delle risultanze dello
stato dell’arte della conoscenza su quel problema/argomento e gli elementi che potrebbero guidare
la ricerca secondo quanto trovato in letteratura
25
Bibliografia: di tutte le fonti menzionate, sarebbe importante negli articoli scientifici-quantitativi,
laurea ecc, in modo da dimostrare di avere approcciato il problema da tutti i punti di vista.
A questo punto bisogna andare sulla pratica, creando il rapporto della fattibilità della ricerca che
riprende delle parti del rapporto della ricerca in letteratura, ma è più sintetico, in una pagina o
meno, utilizzando solo uno schema per punti, rispondete alle domande seguenti (o compilate questa
bozza
di schema). Poi condividetelo con un referente esperto di vostra fiducia (non con me, a meno che
non sia il vostro consulente) per ottenere un feedback tempestivo su questo rapporto sulla
fattibilità. In questo modo non vi saranno perdite di tempo su un'idea sbagliata o raffazzonata.
Vi consiglierei anche di andare a leggere l'editoriale di ArunRai su MISQ intitolato:"Avoiding Type III
Errors: Formulating Research Problems that Matter." ("Evitare errori di tipo III: Formulare problemi
di ricerca che contano".) L'impostazione è diretta al campo dei sistemi informativi, ma è
generalizzabile a tutti i settori della ricerca
Se le domande di ricerca non sono sviluppate in modo significativo, si ricade in un errore di tipo 3,
ossia un errore teorico che influenza la causalità dei risultati della ricerca.
Domande da porsi
Qual è il problema che state cercando di risolvere? (Se non c'è nessun problema, di solito non c'è
bisogno di ricerca).
Perché si tratta di un problema importante (e non solo interessante) che ha ricadute dal punto di
vista formativo, sociale e psicologico; attuale o imminente? (cioè, i vecchi problemi non devono
essere riaffrontati se non sono più una fonte di criticità).
Chi altro ha affrontato questo problema? (Molto raramente la risposta è: "nessuno". Siate creativi.
Qualcuno avrà studiato qualcosa in relazione a questo problema, anche se non è esattamente lo
stesso. Questo richiede una revisione ragionata.)
In che modo gli sforzi compiuti in precedenza da altri sono incompleti? (cioè, se altri hanno già
affrontato il problema, cosa resta da studiare - quali sono le "lacune"?)
Come intendete colmare queste lacune nelle ricerche precedenti? (cioè, disegno della ricerca,
metodologia etc.) Se è un problema di metodologia, di disegno della ricerca
a) Perché si tratta di un approccio adeguato? (Se applicabile)
Qual è la vostra popolazione target per lo studio di questo problema? (Dove e quando raccoglierai
i dati?), se c’è un tempo e un luogo in cui raccogliere i dati, definire le variabili dipendenti e come
sono state studiate nel contesto di riferimento. Se si basa la ricerca su un modello, spiegare come
le variabili dipendenti si possono relazionare a quelle indipendenti e come sono state studiate le
domande di ricerca.
1. Come raccoglierai i dati che desideri? (quantità e qualità)
26
Spiegare quali altri costrutti si sospetta parteciperanno a prevedere le vostre VDi (variabili
dipendenti) e perché ed elaborare questa parte senza ripetere ciò che si è detto in precedenza, nella
parte teorica, andando più sul punto di vista comportamentale ed osservativo, nella logica che porta
a risultati. L'inclusione di un costrutto dovrebbe avere un buon supporto logico-teorico e/o di
letteratura. Per esempio, "stiamo includendo il costrutto XYZ perché la teoria su cui stiamo basando
il nostro modello lo include". Oppure, "includiamo il costrutto XYZ perché la logica seguente (abc) ci
costringe a includere questa variabile per non essere imprudenti".
Video scorm 3
E’ importante studiarlo perché è uno standard all’interno delle pubblicazioni quantitative in ambito
psicologico. Capire quali sono gli articoli ben scritti, se manca qualcosa.
Title/Titolo (qualcosa di accattivante, sintetico ed accurato), ordine degli autori, secondo la loro
rilevanza nella scrittura dell’articolo.)l’ultimo nome può essere il più rilevante perché può essere
quello che coordina tutto)
Attenzione all’Abstract (conciso – 150-250 parole – per spiegare l’articolo): breve riassunto che deve
contenere tutte le successive fasi ed aree dell’articolo. Sintetizzare la problematica, l’impatto
pratico della soluzione, il metodo, i risultati ottenuti. (8 o 9 righe che siano capibili per una futura
consultazione sul web, dato che in modo gratuito sarà presentato al lettore solo questo
Più o meno una frase per ciascuno dei punti seguenti:
Qual è il problema?
Perché è rilevante?
Come si è affrontato il problema?
Quali sono stati i risultati?
Come questo può avere un impatto pratico (rispetto a quanto fatto a livello professionale) e/o come
modifica la metodologia di ricerca o il livello teorico (esistente o futuro)?
Parole chiave/Keywords (4-10 parole chiave che catturino il contenuto dello studio)
Focus sul Metodo (brevemente indicare la metodologia, vi sono molti approcci e il seguente e solo
uno schema di massima), in cui va chiarito cosa è stato fatto nello studio, per poter dare la possibilità
di replicare anche l’esperimento ad altri.
I sottoparagrafi sono: soggetti, misurazioni, apparato sperimentale, procedure, analisi dei dati
• Operazionalizzazione del costrutto (da dove e come si sono ottenute le misure? Da questionari e
varie) Sviluppo dello strumento (se avete creato le vostre misure)
• Spiegazione del disegno dello studio (es., pretest-posttest, progetto pilota, sondaggio online etc.)
•Campionamento (alcune statistiche descrittive demografiche (genere, età, istruzione, status
economico, ecc.), dimensione del campione; discutere il tasso di risposta significativo (numero di
risposte in percentuale del numero di persone invitate a fare lo studio) e come sono state
selezionate le persone, se per diagnosi su un disturbo, il criterio (DSM 4 o 5 ecc)
Ricordare se è stato concesso il nulla osta dal Consiglio di revisione istituzionale (IRB) e se sono stati
seguiti i protocolli, se opportuno dal punto di vista etico ed ontologico. ),
Verifica delle procedure, come sono state manipolate le variabili indipendenti ecc
Metodo per la verifica delle ipotesi (es., modello di equazioni strutturali in AMOS, confronti tra
medie ecc)
Se avete condotto confronti multi-gruppo, mediazione e/o interazione, spiegate chiaramente come
li avete tenuti e come si sono svolte le analisi. Per esempio, se si è svolta una mediazione, quale
approccio avete adottato (bootstrapping, metodo più conservativo, con cui si possono rendere più
robusti dal punto di vista statistico i risultati )? Sono stati testati più modelli o avete mantenuto tutte
le variabili per tutte le analisi dei dati, come sono stati ripuliti (data-screening) specificando il livello
finale dell’analisi.
Se avete fatto delle interazioni, chiarire se sono state aggiunte dopo o se erano previste fin
dall'inizio?
Analisi dei dati (1-3 pagine; talvolta in combinazione con la sezione metodi)
• Pulizia dei dati (Data Screening)
• EFA (riportare la cosiddetta matrice pattern o dei profili e l'alfa di Cronbach in
appendice) - indicare se degli items sono stati eliminati.
• CFA (basta menzionare che è stata svolta e sollevare eventuali problemi che avete
trovato) - citare tutti gli elementi eliminati durante la CFA. Riferire il modello adatto
per il modello di misurazione finale. Se necessario, il materiale di supporto può
essere inserito nelle appendici.
• Menzionare l’approccio del Common Method Bias (CMB - inteso come lo
scostamento tra la relazione vera e quella osservata tra due costrutti dovuto
alla Common Method Variance) e i risultati ottenuti, e le azioni prese (es., se
abbiamo trovato CMB e abbiamo dovuto tenere il modello CLF).
28
Discussione (2-5 pagine) Riassumere brevemente lo studio, il suo intento e i risultati, concentrandosi
principalmente sulle domande di ricerca iniziale (un paragrafo breve) con i risulati attesi
Risultati (1-2 pagine) Riportare i risultati coefficienti ed indici ottenuti con l’elaborazione statistica)
e se supportano le ipotesi (supportata o meno, con prove).
Evidenziare eventuali ipotesi non supportate o controprove (significative in senso opposto).Fornire
una tabella che riassuma sinteticamente i risultati ottenuti.
Nella fase di discussione definire le intuizioni tratte dallo studio, come le informazioni ottenuto
cambiano il lavoro degli altri e come i risultati si collegano con la letteratura precedente e come la
ricerca futura viene rimodellata in base a questa ricerca.
Conclusioni (1-2 paragrafi) Riassumere le conoscenze acquisite
da questo studio e il modo in cui affrontano le lacune o i problemi
esistenti. Spiegare il contributo principale dello studio. Esprimere le
direzioni di ricerca futura e come questo lavoro influenzerà il mondo
reale (pratiche professionali e/o di ricerca).
Bibliografia/References (si prega di utilizzare un gestore di riferimenti bibliografici come Zotero o
EndNote)
Appendice (qualsiasi informazione aggiuntiva, come lo strumento completo e il modello di
misurazione, necessaria per convalidare o comprendere o chiarire il contenuto del testo del corpo
principale. NON imbottire le appendici con tabelle statistiche non necessarie e modelli statistici
illeggibili. Tutto ciò che è contenuto nell'appendice dovrebbe aggiungere valore al manoscritto.
Se non aggiunge valore, rimuoverlo.
Gli obiettivi dei diversi ambiti possono cambiare la finalità e quindi i reattivi cambiano a seconda le
loro caratteristiche.(scolastico diverso come attendibilità e validità da clinico o forense). Possono
avere forme differenziate per intercettare anche altri tipi di variabili, più sociologiche, (come
ledership, devianza minorile), oppure psicobioloche (sudorazione delle mani o risposta galvanica
cutanea, in momento di forte stimolo emozionale), successo scolastico,
Diverse necessità di misurazione determinano anche diverse forme dei test,che possono essere
questionari, test di profitto, test che richiedono completamento di compito, puzzle , storie, disegni
utilizzare i lego ecc.
Le molteplici prestazioni di uno psicologo sono anche gli ambiti in cui utilizzare i test e come, in base
al proprio profilo dei professionisti. Il codice deontologico regolamenta anche il comportamento nei
confronti degli utenti e de i colleghi e della società. E’ responsabile dei rsulatati delle valutazioni che
ottiene. L’art 5 recita che deve aggiornarsi nel settore in cui opera, riconoscendo i limiti della propria
competenza , usando solo strumenti teorico pratici che conosce; impiega metodologie per i quali sa
indicare le fonti e i riferimenti scientifici e non suscita aspettative infondate nel cliente. Deve
conoscere le teorie di riferimento degli strumenti che usa e i possibili interventi.
Numerose sentenze di tribunale hanno definito come riservate agli psicologi le attività connesse
all’uso dei test.
Vedi dispensa 2 fino a pag 4
Differenza tra assessment e test psicologico.
L'ORIENTAMENTO E IL "COUNSELLING"
L'ORIENTAMENTO E IL "COUNSELING"
Nel counseling scolastico il professionista coinvolto aiuta gli studenti a divenire consapevoli delle
proprie problematiche e delle strategie e opportunità disponibile per raggiungere una soluzione
efficace.
Orientando come fulcro dell’intervento
CONTESTO SANITARIO E PSICOLOGIA DELLA SALUTE
In psicologia della salute i professionisti possono aiutare gli individui nel fronteggiare (cope) e
superare un’ampia selezione di problematiche in collaborazione o con l’istituzione ospedaliera o con
le comunità di supporto.
NEUROPSICOLOGIA CLINICA
Diagnosi dei danni celebrali derivanti da incidenti, ischemia o demenza e per aiutare i soggetti che
soffrono di epilessia
PSICO LO GIA DEL LAVORO E SELEZIONE DEL PERSONALE
Assessment delle abilità, attitudini e personalità per la selezione, promozione, coaching, sviluppo e
formazione professionale e consulenza sulla progressione della carriera.
video scorm 4
Cenni storici
Duplice consegna: indagine sperimentale a conferma delle ipotesi sulla natura quantitativa di una
proprietà,
La disciplina psicometrica intercetta ed è influenzata da diversi ambiti di studio tra i quali i
paradigmi fondamentali della psicologia, la psicofisica, la psicobiologia, la statistica e l’informatica
Il primo problema da risolvere, non solo in psicologia, non è tanto quello della misurazione in sé
e per sé, ma quello della misurabilità delle unità di analisi, ed infatti in altre discipline sono
attualissimi e molteplici i contributi e le ricadute della psicologia sperimentale e cognitiva.
Allo stesso tempo, a seguito delle principali rivoluzioni scientifiche del XX secolo (Principio di
indeterminazione di Heisenberg, teoria della Relatività teoria del Caos), a conoscenza del mondo
avviene sempre mediante approssimazioni ma, ora, si è consapevoli che la natura di ogni
acquisizione è essa stessa aleatoria
Molteplici classificazioni:
• Beck:due ere diverse (classica e moderna);
• filoni di ricerca (scuole): la tradizione clinica francese, (Pinel, Esquirol, che distinse operata
tra malattia mentale e ritardo/deficit mentale, e la proposta di impiegare la capacità di
linguaggio del paziente come discriminante del grado di deficit mentale del soggetto ), quella
nomotetica tedesca, quella
ideografica britannica e in ultimo la tradizione empirica/applicata americana
ORIGINI:
Antica Grecia
• Cina Imperiale
I principali pionieri della disciplina psicometria sono G. T. Fechner, W. Wundt e F. Galton, figure
che attraverso la propria attività hanno generato la frattura col passato
Fechner deriva la legge della psicofisica a partire da una relazione scoperta nel 1834 dal fisiologo e
anatomista Ernst H. Weber. Psicofisica intesa come punto di incontro fra la psicologia quantitativa
e la fisica quantitativa, cioè come “an exact science of the fundamental relations of dependency
between body and mind”. Con la formulazione di questa legge egli apriva un capitolo di notevole
rilievo della scienza moderna, quello della psicofisica, che avrebbe dato luogo poi a un numero
rilevantissimo di applicazioni, dal campo industriale a quello medico ecc. Questa è una delle prime
applicazioni della scala logaritmica. La psicofisica si propone di determinare le modalità sensoriale
e vedere se la costante di Weber potesse individuare valori minime e massimi di intensità dello
stimolo, per essere percepiti. Queste determinazioni vennero chiamate valori-soglia, soglia
differenziale ed assoluta (oltre le quali non possono essere percepite). l'errore di Fechner fu quindi
il considerare che gli attributi psicologici siano quantitativi.
Wundt
due rilevanti elementi di frattura con il passato:
distacco dalla filosofia come ambito disciplinare, superando l’importanza della teoria kantiana
secondo cui è impossibile misurare le manifestazioni della mente allo stesso modo di un oggetto
fisico
concezione della psicofisica come base per un approccio “sistematico” alla sperimentazione, ovvero
la possibilità di descrivere il fenomeno psicologico studiando l’inferenza che il soggetto effettua circa
la natura di un oggetto e sulle relazioni tra oggetti attraverso le percezioni sensoriali.
32
Passaggio dall’approccio speculative-filosoficoa quello empirico basato sulla quantificazione
2. Enfasi posta sulla misurazione delle funzioni sensoriali
3. Sottovalutazione dell’importanza della standardizzazione delle procedure e delle condizioni
sperimentali
4. Concentrazione dell’attività di ricerca nell’ambito accademico
Galton
Sostiene lo sviluppo della psicometria legato all’interesse per l’eugenetica ed integra, nel suo
laboratorio fondato a Londra nel 1882, la tradizione clinica francese, lo spirito sperimentale tedesco
e l’attenzione anglosassone per la variabilità della popolazione.
1. Osservazione che la distribuzione dei dati di una larga parte delle misure fisiologiche e delle abilità
assume la forma classica campanulare detta “curva normale”
2. Ideazione del diagramma di dispersione come rappresentazione grafica dei dati
(nuvola di punti)
Spearman usò per primo una complessa tecnica matematica, l’analisi fattoriale, per
l’interpretazione di dati psicologici. Queste tecniche statistiche furono applicate al campo di
interesse specifico di Spearman, cioè l’intelligenza e la costruzione di strumenti di rilevazione per la
sua rilevazione (in particolare per gli studenti della scuola primaria), il quale divenne il
rappresentante più autorevole del filone teorico legato all’unidimensionalità o per meglio dire al
fattore unico generale (chiamato fattore g) che determina la prestazione in tutti i compiti
intellettuali.
Spearman era già consapevole della presenza di ulteriori dimensioni (definite anche
fattori s) valide per la risoluzione di compiti peculiari.
Nella fase storica caratterizzata dalle due Guerre Mondiali e dall’intermezzo di pace relativa,
soprattutto gli studiosi afferenti all’approccio di psicologia applicata statunitense contribuirono in
massima parte alla costruzione e alla diffusione di test psicologici per la misura dell’intelligenza ma
anche di abilità ed attitudini specifiche.
La conseguenza psicometria dell’adozione dell`analisi fattoriale è costituita dalla
costruzione di «batterie attitudinali multiple» o «batterie multifattoriali». che permettono di
valutare la posizione di un soggetto in rapporto a diversi tratti o fattori. Questi strumenti hanno
permesso di fare delle diagnosi differenziali. cioè analisi strutturali di un individuo che gli psicologi
clinici cercavano di inferire dai normali test di intelligenza attraverso una comparazione interna fra
i vari sub-test con risultati incerti e, spesso, inattendibili. Le batterie multifattoriali sono apparse di
recente nel campo dei test; sono tutte posteriori alla fine della II guerra mondiale e si ispirano
fondamentalmente alla concezione teorica di Thurstone delle abilità mentali primarie.
Il dualismo teorico per cui in ambito britannico il concetto di intelligenza era considerato
33
monofattoriale (fattore g di Spearman) mentre nel contesto di ricerca americano era più apprezzata
la teoria multifattoriale si riflette evidentemente sulla predisposizione dei reattivi.
Tuttavia l’approccio dei test finalizzati alla distinzione e misurazione delle “abilità mentali primarie”
(metodo dei fattori multipli) deve considerarsi come complementare a quello dell’“intelligenza
globale” (il fattore g di Spearman in particolare)
Eysenk
ponendosi come obiettivo primario la valutazione della validità dei test
psicologici utilizzati nella psichiatria clinica negli anni ’40, che presentavano delle difficoltà
evidenti al tempo. Shafer riassume in modo non critico che se i risultati di un test psicologico
divergono dalla diagnosi effettuata dallo psicologo, ciò non significa necessariamente che il
test è incorretto.
Attraverso questi
strumenti di raccolta dati Eysenck era convinto della possibilità di eliminare l’influenza
dell’esaminatore sul comportamento in esame, e che l’analisi fattoriale assicurasse che
l’interpretazione dei questionari non fosse influenzata dal singolo psicologo che assegnasse in
modo distorto le risposte rispetto a profili a disposizione
MODULO 3
La scala di misurazione della variabile stile percettivo è nominale, dicotomica: vero, vi sono solo
due categorie od etichette
VIDEOSCORM N1
La validità interna del disegno della ricerca, ossia la capacità di uno studio di rilevare in modo reale,
statisticamente significativo il nesso causale tra variabile dipendente ( atcam, risultato all’interno
dello studio clinico) ed indipendente, (chiamato fattore all’interno del disegno sperimentale clinico,
o predittore,)
Quali sono le rappresentazioni specifiche delle relazioni tra variabili e come le relazioni tra loro
possono essere rappresentate, variabili empiriche o teoriche(latenti)-
La relazione tra le variabili può essere un metodo col quale si scompone la VaRIANZA di un
punteggio, secondo la teoria classica dei test o secondo altri metodi.
Oltre al problema della Misurazione, il ricercatore nell’ambito delle scienze sociali, (del
comportamento)c’è il problema della
CAUSALITA’ influenza la finalità con cui si predispone il disegno della ricerca
Il nostro primo pensiero è dimostrare quali sono le cause del disturbo, dal punto di vista clinico, di
psicologia delle organizzazione e del lavoro, i fattori di rischio che creano strss, burnout ecc.
34
Il concetto di causalità è intrinseco al pensiero scientifico ( la causa fisica (scienze naturali), e la causa
come possa essere intesa nel senso di cambiamento di una variabile ed effetto prodotto sul
cambiamento di un’altra variabile. (variabilità di un fenomeno)
La causa non è direttamente osservabile, ma questa concezione è stata messa in discussione dai
filosofi soprattutto nell’ultimo secolo, in cui si è sostenuto che la ricerca emprica può al massimo
constatare come avvenga una variazione simultanea di due fenomeni o una successione
temporale di accadimenti in tempi ristretti e come non si possa dimostrare l’esistenza di una
relazione causale. Questo è importante perché una legge causale non può essere provata
empiricamente, ma può essere saggiata su alcuni risultati ipotizzati
Se il metodo induttivo non ci permette di verificare un’ipotesi empiricamente, possiamo adottare il
metodo della falsificazione (se il sole oggi sorge, domani sorgerà?). quando si raccolgono prove a
supporto delle osservazioni a supporto dell’ipotesi, quella è una legge empirica, anche se questo
approccio è limitato, perché basta un solo caso in cui la regolarità non si verifichi e ci troviamo con
una teoria scientifica falsificata.
Se volessi dimostrare che ci sono ricadute del contesto familiare su un soggetto con comportamento
criminale (rischio maggiore con genitori in carcere), per metodo induttivo non si può escludere
qualcosa, perché basta una famiglia in cui non si verifica questa situazione, per mettere in crisi la
mia teoria dell’influenza sociale sul comportamento. Si fa invece una raccolta dati , testando l’ipotesi
che non vi sia influenza tra un contesto critico e una maggiore devianza degli appartenenti a quella
famiglia e se riesco a rigettare l’ipotesi nulla (non vi è una relazione) , posso accettare l’ipotesi
alternativa ed affermare che c’è una relazione tra contesto negativo, a rischio e comportamento
deviante corrispondente del soggetto.
Le tre rivoluzioni scientifiche riguardanti l a Teoria del caos, dell’indeterminatezza e della relatività
hanno messo in crisi la capacità delle Scienze naturali di far un ragionamento causale. Nelle Scienze
sociali,invece, in cui non è mai stato possibile osservare in modo oggettivo alcune relazioni ed
isolare la variabile indipendente, osservando poi quella dipendente, manipolandola, questa
problematica è stata più chiara.
Il metodo che segue la scienza è di formulare delle ipotesi e confrontare quanto i risultati previsti
dalla teoria siano in accordo con quelli osservati.
35
Il soggetto è misurato, quindi, contemporaneamente o in modo immediatamente successivo sulla
sua auto-efficacia e sulla sua prestazione e si vorrebbe dimostrare che l’auto-efficacia causi la
prestazione. in realtà noi osserviamo contemporaneamente che a diversi livelli di auto-efficacia
corrispondono diversi livelli di prestazione (performance)
Questo costrutto dell’auto-efficacia causa il livello di performance
Nella causazione esiste una causa e un effetto; il variare di una variabile precede il variare dell’altra
mentre nella covariazione esiste solo la concomitanza di variazione;
il legame diretto tra le due variabili, nel senso che il variare dell’una è dovuto (e non
solamente associato) al variare dell’altra.
La causalità non è direttamente osservabile: una penna cade sulla scrivania. Qual è la
causa?diremmo la forza di gravità, ma noi abbiamo visto contemporaneamente solo che lui ha
lasciato andare la penna che cade sulla scrivania. Non vediamo però la forza di gravità , (la
conosciamo a livello teorico) quindi la causa spesso non si vede. Questa difficoltà è ancora maggiore
rispetto alle scienze naturali, in quelle del comportamento.
Video scorm 2
Il modello è una rappresentazione grafica, efficace, visibile, sintetica rispetto alla realtà, in cui si
tengono in considerazione delle variabili.
I 5 modelli di relazione tra le variabili sono in grado di dare la possibilità al ricercatore di impostare
una ricerca che dia risultati validi nel nesso causale alla base della relazione tra variabili
Relazione causale diretta: la relazione causale è tale se in aggiunta alla covarianza, vi è una
asimmetria della relazione (un antecedente ed un conseguente) ed una esclusività della relazione,
cioè come questo effetto rilevato sia delle due variabili prese in considerazione. (variabili di tipo
osservato). E’ il tipo di relazione di maggior interesse da parte dell’osservatore . due variabili sono
causate da una relazione di tipo diretto quando un mutamento della variabile causa, produce un
36
corrispondente mutamento nella variabile effetto. In Questo modello logico o griglia concettuale
o modello causale, l’unico modello previsto è quello causale
Relazione causale reciproca: prevede la presenza di due variabili, più complessa da studiare, ma
dato che il soggetto non compie solo una operazione, ma la vita è un continuum, viene meno la
differenziazione tra variabile causa ed effetto, perché si influenzano reciprocamente. (relazione tra
domanda e prezzo)
Relazione causale spuria: relazione tra tre variabili, è l’incubo del ricercatore, perché si parte dal
presupposto che c’è una relazione tra due variabili, ma in realtà la covariazione di questi elementi è
spiegata da una terza variabile, che se non l’abbiamo prevista, affermeremmo che X determina Y.
Questo postulato potrebbe essere messo in crisi da un’altra ricerca in cui c’è una variabile Z, che
agisce contemporaneamente sulle altre due. (es dei pompieri e delle cicogne)
In una relazione causale spuria l'introduzione della terza variabile cancella la relazione tra le prime
due.
Video scorm 3
Relazione causale condizionata (moderata): Variabile Moderatore – In termini generali, un
moderatore è una variabile qualitativa (es.sesso, razza, classe) o quantitativa (es. livello di
ricompensao l’età) che influenza la direzione e/o la forza della relazione tra una variabile
indipendente , antecedente(o predittore) e una variabile dipendente, conseguente o criterio (o
outcome).
La variabile moderatore è un elemento della relazione causale indiretta : falso
In particolare,(Baron e Kenny) all' interno di un quadro di analisi correlazionale, ossia in uno studio
osservazionale in cui non potremmo fare affermazioni di tipo causale, un moderatore è una terza
variabile che influenza la correlazione di ordine zero tra altre due altre variabili.(zero è relazione tra
due elementi : variabile indipendente o fattore quando influenza una variabile dipendente c’è una
relazione principale tra le due)
Nella terminologia più familiare agli psicologi dell'analisi della varianza (ANOVA), nasce per spiegare
un effetto della variabile moderatore di base può essere rappresentato come interazione tra una
variabile indipendente e un fattore che specifica le condizioni appropriate per il suo funzionamento.
La relazione tra le due variabile cambia a seconda del valore della terza (sono tutte e tre variabili
osservate).Ricerca sull’ascolto della radio, con assenza di relazione tra l’età dei soggetti e l’ascolto
della musica classica, che aldilà di ogni sospetto era ascoltata dai giovani. Con la terza variabile
37
emerse la relazione tra età e livello di istruzione degli ascoltatori. La spiegazione data dai ricercatori
è che le persone meno istruite di allontanano dalla fruizione di interessi culturali e col progredire
dell’età questo solco si approfondisce. Senza questa variabile Z (istruzione) non emerge la
covarianza tra le altre due. (età ed ascolto).
Se abbiamo una variabile dipendente che è il fattore di trattamento, poi un intervento di
psicoterapia individuale, di tipo comportamentale che porterà una media di soggetti al
miglioramento, poi un’altra modalità del fattore trattamento di psicoterapia di gruppo, che
porterà un’altra media di soggetti a miglioramento e poi un terzo trattamento, detto placebo:
queste tre medie di miglioramento , in base alla varianza, ci sarà una differenza significativa.
Mediazione: la relazione tra curiosità ed apprendimento è spiegata dal desiderio di scoperta (Z) e ci
dice come avviene questa relazione tra X e Y, che può scomparire o rimanere parzialmente presente.
Moderazione: ci dice il quando la relazione tra curiosità ed apprendimento avviene : quando il livello
di distrazione (Z) è basso, la curiosità determina l’apprendimento, quando è alto la relazione non è
presente.
Ci sono ulteriori variabili in alcuni modelli rappresentate da cerchi o ellissi ossia quelle latenti, non
direttamente osservabili, che causano entrambe la altre due.
Oppure c’è un errore di misurazione (sempre col cerchio)
Video scorm 4
Il taglio diverso è dato dalle finalità della ricerca: descrivere, predire, comprendere e in base alla
misura della VD si definiscono due tipologie di disegno della ricerca:
1)dove la misurazione della variabile dipendente sia eseguita sia prima che dopo il trattamento (un
pre test ed un post test), avremo variabili che variano all’interno dei soggetti. Gli stessi soggetti
prima misurati sulla VD (ansia), vengono rimisurati sulla stessa VD e la variabile indipendente
trattamento agisce all’interno dello stesso soggetto, entro il soggetto o i gruppi e c’è un
cambiamento. (disegno sperimentale
2) dove invece abbiamo due gruppi diversi messi a confronto su modalità diverse della stessa VD, (il
trattamento individuale per i soggetti del gruppo sperimentale e il placebo per il gruppo di
controllo, ossia un esperimento casuale controllato) abbiamo soggetti e gruppi diversi e il disegno
è tra e entro i gruppi.
I modi di sottoporre ad un trattamento quindi sono:
Ogni gruppo sottoposto ad un solo livello della V.I., si ha un disegno sperimentale Beetwen (con un
solo effetto principale)
Ogni gruppo sottoposto a tutte le condizioni del trattamento: entro i gruppi (whitin design).
Abbiamo anche una suddivisione che deriva dal numero delle variabili indipendenti che si decide di
considerare:
se cè solo una, abbiamo un solo effetto principale,
se ne abbiamo due o più abbiamo disegni fattoriali, (diverso dall’analisi fattoriale) età ed ansia per
es., abbiamo due effetti principali che corrispondono alle V I, ed un numero di effetti di interazione
che corrisponde alle combinazioni delle V. I. Oltre ad analizzare per es, l’effetto dell’età sull’ansia, si
analizza l’effetto di età, per genere (maschi o femmine)
Semisperimentale
I disegni con un solo fattore tra i gruppi o intergruppi e quelli fattoriali non sono considerati
sperimentali, lo sono se si prevede al loro interso, a seconda del disegno scelto, il metodo casuale
nell’estrazione della selezione del campione, oppure quello casuale nell’assegnazione dei soggetti
alle condizioni, ai gruppi o nell’ordine delle prove. Se non cè il fattore della causalità randomizzato
che lega il disegno di ricerca alla teoria della probabilità, il disegno diviene quasi sperimentale,
ma continua ad avere la dizione tra o entro i gruppi.
Il controllo delle variabili estranee in questi casi viene eseguito mediante il pareggiamento o il
metodo dei blocchi.
I differenti piani sperimentali vengono presentati secondo un certo schema:
prima i disegni di una sola V. I,
poi con più (fattoriali)
Uno studio che si pone la finalità di descrivere (legata al disegno correlazionale o osservazionale)
mira a rilevare la presenza di un fenomeno e dei
suoi diversi aspetti e/o componenti o indagare l'associazione fra due o più costrutti/variabili.
• Uno studio che si pone la finalità di predire (legato al disegno quasi sperimentali) ipotizza un
legame di causa effetto fra le variabili.
• Uno studio che si pone come finalità spiegare ( ricerca per esperimento)e comprendere ipotizza
un legame di causa effetto
39
fra le variabili e, attraverso la manipolazione della/e variabile/i indipendente/i, produce la
misurazione della/e variabile/i dipendente/i.
1) Uno psicologo dello sviluppo vuole indagare se le abilità di comprensione numerica aumentano
in funzione dell’età del bambino. Per questo sottopone bambini di 3, 5 e 7 anni a test che misurano
la comprensione numerica dei bambini. (descrivere)
2. Uno psicologo vuole indagare la motivazione degli studenti a intraprendere lo studio della
psicologia . Per raggiungere tale obiettivo intervista 200 studenti delle facoltà di Psicologia di 4
università Italiane chiedendo loro di spiegare perché hanno scelto di iscriversi a Psicologia.
( predire, abbiamo un ordine gerarchico della possibilità di avere un adeguata validità interna)
3. Un ricercatore di psicologia sociale vuole verificare che il numero totale di componenti del gru
ppo influenzi l'adesione del singolo all'opinione della maggioranza. Per questo assegna
casualmente i 90 soggeF del campione a gruppi di numerosità diversa, composE da collaboratori del
ricercatore. 30 soggeF sono assegnaE a gruppi composE da 5 persone, 30 soggeF a gruppi composE
da 10 persone e 30 soggeF sono assegnaE a gruppi composE da 15 persone. Dopo una discussione
di gruppo, nella quale viene chiaramente espressa da parte dei collaboratori del ricercatore
un'opinione di maggioranza, si calcola quanE soggeF sperimentali aderiscono all'opinione espressa
dalla maggioranza. (spiegare).
Il modello regressivo:
gli indicatori devono essere formativi (e quindi) non devono correlare tra di loro.
Il modello regressivo è composto da un insieme di metodi con la comune finalità di predire la
variabilità di una variabile dipendente usando le informazioni disponibili di una o più variabili
indipendenti (cioè variabili che predicono e che coincidono con gli indicatori formativi). A differenza
dei metodi di correlazione, come del resto tutte le consimili misure simmetriche di associazione tra
X ed Y che non consentono alcuna affermazione di causalità, i metodi di regressione, essendo misure
di dipendenza, permettono di verificare le ipotesi causali.
L'analisi di regressione rende possibile, quindi, la predizione di valori sconosciuti della variabile
dipendente (Y) mediante la conoscenza dei corrispondenti valori della variabile indipendente (X
IL METODO
Permettetemi di iniziare caratterizzando la natura del metodo. Un metodo consiste in una serie
ordinata di procedure il cui impiego produrrà un tipo speciale di prodotto che chiamiamo dati. L'
organizzazione delle procedure è basato su regole identificabili, che possono essere esplicite o
40
implicite; in altre parole, un metodo è un insieme specificamente strutturato di operazioni. Esiste
una relazione necessaria tra la struttura delle procedure e la struttura di ciò che esse producono.
Tipicamente, una certa struttura metodologica produrrà dati che visualizzeranno una particolare
struttura e non sarà in grado di produrre dati diversamente strutturata
Esperimenti
Metodi e disegni di ricerca valutativa e diagnostica: tipologia
Maggiore è il controllo sulle condizioni e sui metodi osservativi, maggiore sarà la rigidità delle regole,
e sarà possibile garantire un’alta fedeltà della relazione tra le variabili oggetto di studio.
I metodi descrittivi di ricerca comprendono procedure e tecniche validi per l’identificazione e
descrizione di un fenomeno (comportamento/azione/attitudine/tratto etc.) o relazioni tra diverse
di questi.
Il fulcro èl’individuazione delle variabili che sono più utili per le analisi preliminari di un’indagine,
ovvero nel controllo e valutazione dell’evidenza delle soluzioni implementate.
Infatti, tramite modalità standardizzate si effettua un controllo sulle variabili che agiscono sui
costrutti psicologici per calcolare l'influenza che tali variabili esercitano su di essi.
I disegni sperimentali all’opposto sono indagini in cui vengono attivati efficacemente tutte le
possibili fonti di controllo, soprattutto per quello che riguarda l’estrazione e l'assegnazione casuale
dei soggetti e la manipolazione della variabile indipendente L’assenza di forme di controllo1 è la
41
caratteristica fondamentale che determina l’ultima categoria di metodi di ricerca, i quasi
esperimenti nei quali la variabile indipendente non è direttamente manipolabile.
Le ipotesi teoriche devono sempre essere espresse e considerate come verificabili e falsificabili,
poiché solo in tale maniera è possibile apportare un progresso reale nella conoscenza disciplinare,
ovvero giungere ad una maggiore conoscenza dell'oggetto di studio.
Il disegno della ricerca è principalmente costituito dall’esposizione delle teorie e delle ipotesi che
riguardano queste relazioni causali, per questo nelle indagini completamente descrittive un
disegno di ricerca vero e proprio è essenzialmente assente, mentre quest’ultimo per i veri
esperimenti (e anche quasi esperimenti) è sempre presente e necessario.
Mentre nella ricerca standard e nella ricerca interpretativa il successo della ricerca dipende dal fatto
che l’operazione di rilevazione dei dati non modifica la realtà sotto esame e tenga conto del maggior
numero possibile di aspetti di essa, all’opposto nella sperimentazione si cerca di controllare al
massimo l’effetto di tutti i fattori, operando in modo da escludere l’effetto dei fattori di disturbo e
mettere in evidenza l’effetto del fattore indipendente.
• La ricerca d’archivio riguarda l’ambito della psicologia che potremmo definire più
“teorico”, opposto in questo senso alla ricerca sul campo. Ci si occupa in questo caso al
42
massimo di dati ecologici di secondo livello, consistenti in osservazioni o misurazioni
già effettuate e disponibili (compresi gli archivi pubblici e gli opendata). I vantaggi di
un’indagine di questo tipo sono diverse, a partire da una riduzione dei costi e dei tempi
di attuazione delle ricerche (oppure per far fronte a difficoltà logistiche insuperabili).
Discutibile è invece la convinzione che con questo approccio si possa evitare l’effetto
distorsivo della desiderabilità sociale,5 poiché i dati sono già archiviati, ma il rischio è
sempre presente perché i dati possono non essere stati collezionati e registrati in modo
affidabile ed accurato e perché spesso non vi sono indicazioni dettagliate delle modalità
di raccolta e quindi. Dunque vi è sempre una bisogna confidare nel fatto che tali dati si
riferiscano a fonti attendibili. Si preferisce questo tipo di indagine anche e soprattutto
quando un esperimento sulle variabili che interessano non è fattibile per ragioni etiche
• Lo studio dei singoli casi (case report, resoconto di casi singoli) consiste essenzialmente
in veri e propri "esperimenti naturali", in cui si attua uno studio intensivo ed
essenzialmente qualitativo di un singolo soggetto (o più di uno nel caso delle serie di
casi clinici, case series reports) basato su una raccolta di evidenze aneddotiche
(principalmente mediante colloqui e test psicologici e valutazioni funzionali del
paziente) al fine di definire, a grandi linee, un intervento sul comportamento del
soggetto. Non vi è uno schema fisso (manca il disegno di ricerca inteso come definizione
delle ipotesi di ricerca, analisi standardizzata dei dati, ed impossibilità di
generalizzazione dei dati) e conseguentemente vengono meno gli elementi base della
sperimentazione: la misurazione delle variabili, le tecniche di controllo, la
generalizzabilità delle conclusioni. Il bassissimo livello di costrizione viene compensato
da un alto valore euristico, poiché l’eterogeneità dei dati e la profondità della
descrizione, facilitano l’elaborazione di nuove direttrici di ricerca o forniscono
indicazioni utili per ulteriori teorizzazioni. La criticità maggiore è collegata alla
preparazione metodologica del ricercatore da cui deriva la validità ed affidabilità della
ricerca, e l’opportunità di utilizzare i risultati per approfondire uno specifico aspetto
della teoria di riferimento oppure un elemento di novità la cui casistica sia molto limitata. D’altra
parte il chiaro vantaggio logistico è quello di poter limitare ad un
periodo relativamente breve il coinvolgimento nella ricerca di un esiguo numero di
soggetti (generalmente 1 o 2), pur mantenendo elevata la raccolta di dati.
Con il metodo osservativo, quando cioè le osservazioni sono soggettive e prevedono la
registrazione di informazioni destrutturate, o altri metodi obiettivi, il controllo si effettua mediante
l’impiego di parecchi osservatori e i dati rilevati possono essere comparati e valutati mediante un
coefficiente di accordo. Questa tecnica è conosciuta come inter-rater reliability, cioè dimostra la
concordanza tra valutatori per la stessa valutazione e ciò caratterizza l’affidabilità della misura, o
giudizio, realizzata
Esperimento di laboratorio
Esperimento sul campo
Esperimento naturale
43
Il quasi – esperimento sul campo Abbandoniamo il laboratorio e conduciamo l’esperimento sul
campo. Questa tecnica è utilizzata nell’ambito della ricerca valutativa
Manipoliamo la variabile indipendente (le cause, il trattamento) ma non esercitiamo un controllo
pieno sulle variabili terze (caratteristiche della popolazione su cui svolgiamo l’esperimento).
Il Quasi - esperimento naturale In questo caso non esercitiamo un controllo pieno sulle variabili
terze e viene meno anche la manipolazione della variabile indipendente.
La simulazione: Si osserva o si sottopone ad un trattamento una copia dell’oggetto disegnata da un
insieme di algoritmi eseguiti da un pc. • Esempio: – Proiezioni demografiche (→ esperimenti
collocati nel passato o nel futuro).
Osservazione naturalistica I soggetti vengono osservati nei loro luoghi di vita quotidiani. • È una
tecnica di osservazione non intrusiva – Formalizzata – Non formalizza
Disegno fattoriale Si applica nel caso in cui si vuole verificare l’effetto di trattamenti diversi sulla
variabile dipendente (perché le variabili indipendenti sono più di una o perché vi sono manipolazioni
diverse di una variabile indipendente).
Metodi sperimentali
La ricerca per esperimento o sperimentale è una predisposizione di condizioni e procedure che
consentono le osservazioni delle relazioni tra le circostanze controllate (variabili indipendenti) e i
risultati incontrollati (variabili dipendenti) con l’intento di effettuare inferenze circa i rapporti causali
tra le variabili
(dipendente e indipendente). (Cambridge Dictionary of Psychology (2009) In generale, un
esperimento scientifico si caratterizza per la manipolazione di una o più variabili (che sono dette
indipendenti) e per la misura degli effetti di tale manipolazione su altre variabili (che sono dette
dipendenti)
Obiettivo della ricerca per esperimento è l’individuazione di relazioni causali tra fattori, ossia
relazioni in cui si suppone che un fattore, supposto dipendente, sia propriamente causato da
(almeno) un altrofattore supposto indipendente.
Attraverso una ricerca per esperimento è possibile ad esempio determinare l’esistenza di una
relazione causale tra le variazioni del profitto in matematica (fattore dipendente) e le variazioni della
motivazione allo studio (fattore indipendente, isolato da un insieme di altri fattori), mediante un
piano di ricerca appositamente predisposto
Nella sperimentazione, l’introduzione controllata, la manipolazione da parte del ricercatore del
fattore indipendente viene chiamato lo stimolo o fattore sperimentale;
Proprio per le esigenze di controllo dei fattori, la sperimentazione viene in genere condotta in
ambiente controllato, che non coincide per forza con un ambiente artificiale: sperimentazioni
possono avvenire in classe, in comunità, in contesti naturali, a patto che siano passibili di controllo.
La sperimentazione in Psicologia avviene raramente in laboratorio, più spesso opera sul campo in
ambito clinico, nella scuola, nei centri di educazione e di formazione, per individuare linee di
miglioramento del servizio e verificare sul campo l’efficacia delle istanze teoriche, le quali
emergono dalla riflessione teoretica o dalla riflessione sui risultati di altre ricerche empiriche.
44
ha la possibilità di produrre e replicare situazioni che si differenziano anche solo per un piccolo
particolare).
il laboratorio permette di creare situazioni ed effettuare rilevazioni che non sono possibili nella vita
quotidiana. Si possono individuare tre tipi di situazioni di laboratorio (sulla base del compito
assegnato ai soggetti):
Studi in cui è richiesto il coinvolgimento dei soggetti studiati (impact studies). L’intervento del
ricercatore agisce sui soggetti stessi, indotti a tenere comportamenti diversi da quelli che terrebbero
nella realtà (es: Milgram sull’obbedienza all’autorità)
Studi in cui è richiesto il giudizio (judgement studies) (es.: Pheterson, Kiesler e Goldberg sul
pregiudizio nei confronti delle donne)
Studi in cui è richiesta l’osservazione sui soggetti sperimentali esposizione alla violenza in tv ed
effetti imitativi di natura aggressiva tra i bambini).
L’ESPERIMENTO SUL CAMPO si realizza invece in un contesto di vita reale (in comunità, in gruppo,
in classe). Esempi: a) studi di Sherif sulle dinamiche di gruppo e sulle modalità di sviluppo
dell’ingroup/«noi» e outgroup/«loro» (X obiettivi del gruppo, Y relazioni interpersonali); studi di
Rosenthal e Jacobson sulla profezia che si autoadempie (X aspettative, Y rendimento scolastico).
46
I PIANI SPERIMENTALI
I disegni sperimentali sono disegni di ricerca mediante i quali il ricercatore può ridurre o
eliminare il rischio di ipotesi alternative che minacciano la validità delle conclusioni della
propria indagine. Il disegno di ricerca sperimentale è uno strumento fondamentale poichè
rappresenta la struttura di base di tutta la ricerca e anche se non è in grado di incrementare tutti
i tipi di validità, garantisce la validità interna, e in misura minore quella esterna, che
rappresentano le due tipologie di validità più importanti per una ricerca.
Un disegno di ricerca dovrebbe consentire un'interpretazione non ambigua dei risultati, escludendo
a priori tutte le possibili interpretazioni alternative. Questo limite ideale però non è stato mai
raggiunto. Costruire un disegno sperimentale vuol dire mettere a punto un insieme di elementi e di
procedure che consentano di dire, con la più alta sicurezza, che gli effetti riscontrati nella variabile
dipendente sono causati dalla manipolazione di quella indipendente e non dall'influenza di variabili
incontrollate. Il disegno di ricerca costituisce l'ossatura stessa di un'indagine empirica e fonda
l'affidabilità dei risultati.
Nei disegni sperimentali, i disegni tra i gruppi comportano che i soggetti siano scelti in modo casuale
dalla popolazione e siano assegnati pure casualmente alle condizioni di trattamento; ogni soggetto
(o gruppo) deve essere sottoposto ad una sola condizione sperimentale, per cui si avrà una sola
prestazione e un solo punteggio per ogni soggetto, e il numero delle osservazioni corrisponderà
al numero dei soggetti. Di norma, l'assegnazione dei soggetti è legata alla restrizione che in ogni
condizione ci sia un uguale numero di soggetti. I piani entro i gruppi (o entro i soggetti) richiedono
che i soggetti siano sottoposti a tutte le condizioni sperimentali. In questi disegni ciò che viene
assegnato casualmente è l'ordine di esposizione alle prove. Se questo ordine non viene
randomizzato, alcuni effetti, come ad esempio storia e maturazione, possono essere responsabili
della variazione della variabile dipendente
La ricerca per esperimento viene condotta attraverso opportuni piani sperimentali, tra i quali i
principali sono: il piano sperimentale a due gruppi, il piano sperimentale a quattro gruppi, il piano
sperimentale a gruppo unico
Le caratteristiche tecniche ed organizzative dell’esperimento (la sua impostazione metodologica, le
procedure di realizzazione). I due elementi caratterizzanti del metodo sperimentale sono :
a) ASSEGNAZIONE DEI SOGGETTI AI GRUPPI Può avvenire attraverso la randomizzazione
(assegnazione casuale dei soggetti ai gruppi) che porta ad avere gruppi equivalenti. Quando
l’assegnazione casuale non è possibile un criterio alternativo è quello dell’accoppiamento
(formare coppie di soggetti identici su alcune caratteristiche rilevanti e assegnare un
componente al gruppo sperimentale e l’altro al gruppo di controllo). Questa procedura
garantisce l'equivalenza solo delle variabile controllate (non di tutte le variabili)
b) b) MANIPOLAZIONE VARIABILE INDIPENDENTE Nell’esperimento delle scienze sociali la
variazione tra i gruppi consiste generalmente nel fatto che ogni gruppo presenta un
differente stato/modalità di tale variabile (ad es. un gruppo viene sottoposto a certe
condizioni ed un altro no). La variazione può essere tra i gruppi (nello stesso tempo) o nel
tempo (nello stesso gruppo, ma correndo i rischi che la ripetizione del test influenzi le
risposte).
c) Si ricorda che per effettuare un esperimento è necessaria la manipolazione della variabile
indipendente. Se avviene anche la randomizzazione dei soggetti nei gruppi abbiamo un
esperimento. Se manca la randomizzazione abbiamo i quasi esperimenti
47
Sperimentazioni controllate randomizzate
vantaggi e gli svantaggi di due o più trattamenti attivi oppure le differenze nell’esito
di un intervento con quello rilevato in gruppi non trattati o sottoposti ad un trattamento placebo
vengono comparati nelle sperimentazioni controllate “randomizzate”.
Requisito fondamentale è l’aderenza del terapeuta alla tecnica della terapia in esame
(corrispondenza ai manuali)
Questioni critiche:
Difficoltà etico pratiche legate al trattamento placebo.
Costi elevati dell’implementazione
Limiti legati alla partecipazione dei soggetti alla sperimentazione
Piani sperimentali: modelli e rappresentazioni
Nei disegni sperimentali, i disegni tra i gruppi comportano che i soggetti siano scelti in modo
casuale dalla popolazione e siano assegnati pure casualmente alle condizioni di trattamento; ogni
soggetto (o gruppo) deve essere sottoposto ad una sola condizione sperimentale, per cui si avrà
una sola prestazione e un solo punteggio per ogni soggetto, e il numero delle osservazioni
corrisponderà al numero dei soggetti. Di norma, l'assegnazione dei soggetti è legata alla restrizione
che in ogni condizione ci sia un uguale numero di soggetti. I piani entro i gruppi (o entro i soggetti)
richiedono che i soggetti siano sottoposti a tutte le condizioni sperimentali. In questi disegni ciò che
viene assegnato casualmente è l'ordine di esposizione alle prove. Se questo ordine non viene
randomizzato, alcuni effetti, come ad esempio storia e maturazione, possono essere responsabili
della variazione della variabile dipendente. (Pedon, Gnisci p. 258)
Disegni fattoriali
48
Disegni simulati prima e dopo
Quando le ricerche sono condotte sul campo, non si può sempre assegnare casualmente i
soggetti ai differenti livelli di trattamento. In molte circostanze, però, è possibile esercitare un
sufficiente controllo sui momenti di registrazione delle prove preliminari e del post-test, come
pure sui campioni. Ad esempio, negli studi su grandi popolazioni, è possibile rilevare l'impatto
esercitato da un intervento qualunque sull'insieme della popolazione se si possono raccogliere
e misurare i dati della variabile che interessa sia prima che accada l'evento che modifica tale
variabile sia dopo.
Questo disegno viene denominato a campioni differenti
nel pre-test e nel post-test.
Questo disegno è utile quando il trattamento riguarda tutta la popolazione. Qualora il gruppo di
controllo non potesse essere sottoposto alla condizione sperimentale, il disegno più opportuno
è quello a campioni differenti nel pre-test e nel post-test, con o senza trattamento. Questo
disegno richiede che il gruppo sperimentale e quello di controllo siano a loro volta suddivisi in
due sottogrupp
Studi correlazionali
La ricerca correlazionale studia il grado di relazione tra duevariabili, non controllate (osservate in
ambiente naturalistico) o manipolate (rilevate in laboratorio), per effettuare previsioni suifenomeni
studiati.
MODULO 4
Video scorm 1
Skinner si pose un problema all’inizio del suo lavoro, che si rifaceva alle teorie di Pavlov e Thondike
(sulla diversa concezione sul condizionamento
Condizionamento classico di Pavlov : il fattore principale è lo stimolo che precede la risposta, che è
elicitata per riflesso.
Condizionamento per prove ed errori di Thondike il fattore principale è la conseguenza dello
stimolo, ossia quello di rinforzo, (scappare dalla gabbia) che segue la risposta.
Skinner privilegiò questo secondo tipo di condizionamento, operante o strumentale, in cui un
soggetto o cavia risponde ad uno stimolo e il condizionamento avrà degli effetti che faranno
aumentare o diminuire la probabilità della ripetizione della stessa risposta.
Questa riflessione serve a stabilire il primo passo della disegna della ricerca.
Dato che il processo di ricerca teorica e di base è lo stesso, ci sono sei fasi (o 7, dipende dal
cambiamento nella gestione dell’analisi e della interpretazione dei dati, nella pianificazione o nella
diversa doppia struttura di pianificazione delle osservazioni nel disegno della ricerca.( vedi le sei fasi
sotto)
49
In generale con disegno di ricerca si intende l'organizzazione temporale e spaziale di una ricerca al
fine di aumentare i controlli e la sua validità. (definire bene le risorse spazio-temporali, la logistica,
di una ricerca, aumenta la possibilità che un soggetto terzo possa valutarla. E’ fondamentale la sua
pubblicità e che possa essere controllabile. Dal suo controllo nasce la validità. (esempio di uno
studio sul DA con tre eliche)
Esso costituisce perciò la struttura di una ricerca, cioè la sua pianificazione e la progettazione, in
particolare per ciò che attiene alla somministrazione del trattamento e alla manipolazione della
variabile indipendente,(selezione dei disturbi di riferimento) nonché alla rilevazione dei suoi effetti
sulla variabile dipendente, le scale di misurazione con cui rilevarle, la scelta degli strumenti , le
modalità di campionamento, incluse l' organizzazione temporale, l'estrazione dalla popolazione, la
costituzione dei gruppi randomizzati o meno, e delle condizioni, al fine di esercitare il massimo
controllo ed escludere il più possibile l'intervento di altre possibili variabili di disturbo.
La selezione delle informazioni relative a caratteristiche e la descrizione particolareggiata avviene in
base
A modelli teorici e nosografici di riferimenti (DSM, ICD e del loro ruolo particolarmente rilevante allo
stato attuale per la disciplina psicometrica e la psicodiagnostica e in generale per interpretazione
dei risultati e ma ancor prima della validità ed affidabilità di uno strumento non è possibile se manca
questa
definizione dettagliata.
La ricerca pura si chiama così perchè è indipendente da elementi di ambiguità: falso si chiama così
perchè si occupa di questioni teoriche
Le ricerche psicologiche quindi sono direzionate alla risoluzione di problemi teorici e pratici
Nel primo caso, come nel secondo, il processo di ricerca è identico.
Le fasi di questo percorso sono:
contesto della scoperta: percepita come più semplice, che pone meno problemi , che si svolge in
modo più veloce senza porre troppa attenzione e che si può svolgere in modo più veloce.
In realtà è l’elemento più difficile, perché è la fase più creativa, per individuare un problema di
ricerca che sia significativo e porti ad una novità effettiva (pensiamo ad una tesi sperimentale). Fase
progettuale e rapporto sulla progettualità della ricerca :
1. identificazione del problema di ricerca; (Skinner lo sceglie tra le indicazioni teoriche disponibili)
rilevante da un punto di vista teorico o sociale presenta quesiti specifici che guidano la ricerca
perché puntano a definire conoscenze che colmino una lacuna. Le domande di ricerca sono più
generali e focalizzano l’attenzione su alcuni aspetti. L’ipotesi di ricerca è la specificazione della
domanda: quando definisco meglio le modalità con cui verificare una ricerca , creo ipotesi, una
congettura sulle relazioni esistenti fra le variabili. In generale questa ipotesi di ricerca viene
espressa con una affermazione di tipo condizionale.
Se i soggetti subiscono una frustrazione, allora diventano aggressivi:
l’ipotesi che collega almeno due variabili, deve essere poi operazionalizzata e per es si trasforma in:
il soggetto frustrato metterà in atto comportamenti violenti, aggressivi nei confronti della
macchinetta distributrice che non ha dato né il prodotto richiesto, né le monete inserite.
Questa specificazione dovrà poi essere verificabile in modo empirico ed espressa in una formula
matematica (Y= f (X)
L’ipotesi di ricerca darà luogo nel test delle ipotesi, a due ipotesi statistiche: nulla (afferma che
l’effetto ipotizzato non esiste), quella alternativa (afferma che c’è una relazione tra V I e V D. Queste
due ipotesi si escludono reciprocamente.
Tra gli indici posso stabilire solo una relazione tra variabili , il nesso causale è dato dal disegno
sperimentale che presuppone una manipolazione precedente in modo casuale sui soggetti e la
simmetria della V. I rispetto a quella della V. D
2. pianificazione del disegno sperimentale: serie di scelte che conducono alla selezione
dell’oggetto, delle condizioni, agli strumenti di misura più affidabili, ai metodi più appropriati per
codificare i dati.
In questa fase, dato che alla scelta degli strumenti e delle modalità di skilling corrispondono anche
i test statistici per le analisi, verranno individuati anche questi test . Inoltre vengono prese anche
decisioni sui soggetti da sottoporre alle prove ed analizzati problemi etici legati all’attuazione
dell’esperimento e viene anche sottoposto a comitato etico. Le due fasi iniziali della pianificazione
del disegno comportano procedimenti complessi , sistematici, ma anche dinamici legate alle
capacità del ricercatore, sono il contesto della scoperta, per differenziarlo da quello della
giustificazione, (le altre 4) due macro aree su cui possiamo suddividere il nostro disegno della
ricerca.
51
Contesto della giustificazione: parte della raccolta dati, che è più lunga e ci sono problemi legati
alla partecipazione dei soggetti, ma le procedure sono molto più standardizzate di quella della
scoperta, con questionari, interviste tecniche statistiche conosciute, si interpretano dati a
disposizione per confermare o meno le ipotesi.
3. fase delle osservazioni;
4. fase dell'analisi dei dati;
5. fase dell'interpretazione dei dati;
6. fase della comunicazione dei risultati.
Lo studio di caso
I Disegni di ricerca su caso singolo sono utilizzati in molte aree di ricerca come la psichiatria, la
psicologia clinica, la riabilitazione, il counseling, ecc. Il termine Disegni per lo studio del caso singolo
evidenzia la caratteristica unica di questo tipo di disegni, che è la loro “capacità di condurre una
ricerca sperimentale con soggetti individuali” (Kazdin, 1996, p. 198)
Lo studio del caso singolo è un caso particolare di ricerca longitudinale di uno studio
intensivo e prolungato nel tempo di un singolo caso.
Normalmente l'aspetto peculiare delle sperimentazioni applicate è la verifica degli effetti che
derivano sul comportamento di uno o più individui in seguito all'introduzione di una variabile
indipendente (ad esempio un trattamento psicoterapico o educativo).
Questa metodologia richiede misure ripetute della variabile dipendente.
Gli studi di caso tendono ad essere osservazioni non controllate di soggetti nel contesto terapeutico.
Per questo motivo può essere più soggetto a diverse minacce alla validità.
Scopo: analizzare Può essere inteso come un caso particolare del disegno longitudinale. Lo scopo di
questi studi è analizzare i cambiamenti nel tempo di un gruppo di individui (studio di panel) su
unacaratteristica
l Debriefing
avviene dopo il completamento di uno studio e include una spiegazione delle finalità della ricerca
che viene data ai partecipanti dopo la loro partecipazione. Il ricercatore ha l'opportunità di occuparsi
delle questioni relative al rifiuto di informazioni, all'inganno e ai potenziali effetti nocivi della
partecipazione. Il debriefing è un modo in cui i ricercatori possono seguire le linee guida del Codice
Etico APA, in particolare i Principi B (Fedeltà e responsabilità), C (Integrità) ed E
(Rispetto dei diritti e della dignità delle persone).
Se i partecipanti sono stati ingannati in qualche modo, il ricercatore deve spiegare
perché l'inganno è stato necessario. Se la ricerca ha alterato in qualche modo lo stato
fisico o psicologico di un partecipante, ad esempio ha creato uno stato ansioso per gli
individui, il ricercatore deve assicurarsi che i soggetti si siano calmati e che l’aver
partecipato non l'abbia scosso in modo rilevante. Laddove vi fosse la richiesta di
approfondimenti o di ottenere ulteriori informazioni, lo psicologo o il ricercatore
dovrebbe garantire la propria disponibilità. Tutti i soggetti che accettano di prendere
52
parte in uno studio dovrebbero completare l'esperimento e/o le altre attività
dell'indagine al meno senza alcuna inquietudine/indisposizione verso la psicologia, e
tutt'al più con una nuova possono anche partire con una nuova percezione del
proprio comportamento o della propria personalità
l momento del debriefing offre allo studioso l'opportunità di illustrare le finalità reali
della ricerca, di comunicare quali siano i tipi di risultati ci si aspettano e quindi discutere
le implicazioni pratiche dei risultati. In alcuni casi, i ricercatori possono contattare i
partecipanti in un secondo tempo per informarli dei risultati effettivi dello studio. In
questo modo il debriefing assume uno scopo sia educativo sia etico.
Più in generale, la ricerca sull'efficacia del debriefing indica che è un modo efficace di
affrontare l'inganno e altre questioni etiche che emergono nelle indagini di ricerca (Oczak,
2007; Smith, 1983; Smith & Richardson, 1983). Vi sono evidenze scientifiche del fatto
che, almeno in alcune circostanze, il resoconto deve essere completo per essere efficace.
In uno studio sul debriefing condotto da McFarland, Cheam e Buehler (2007), i
partecipanti hanno ricevuto un falso feedback sulla loro capacità di giudicare con
precisione se le note suicide fossero autentiche; dopo aver espresso un giudizio, è stato
loro detto che erano riusciti o non avevano superato il compito. I ricercatori hanno poi
dato diversi tipi di debriefing. Un debriefing minimo ha solo indicato che il feedback
ricevuto non si basava affatto sulle loro prestazioni. Un resoconto più approfondito
comprendeva anche informazioni secondo cui le note suicide non erano reali. I
partecipanti con le informazioni aggiuntive hanno avuto una valutazione più accurata
delle loro capacità rispetto ai soggetti che hanno ricevuto la procedura di debriefing
minima
Scale LIKERT
Il modo impiegato da Thurstone per superare questo problema (quale?) consiste nel
seguire una regola, la c. d. legge del giudizio per confronto (law of comparative
54
judgment), che si fonda su un costrutto ipotetico, il processo discriminale;
questo rappresenta l'impressione che riceve un individuo di fronte a uno
stimolo, la sua reazione quando gli viene chiesto di esprimere un giudizio su
quello stimolo rispetto a una certa proprietà attraverso una domanda del tipo:
in che misura lo stimolo possiede l'attributo a cui lo riferiamo? Immaginiamo di
voler valut2.re una serie di occupazioni (stimoli) in termini di prestigio:
l'impressione che riceve il soggetto, rispetto al prestigio, per ciascuna
occupazione costituisce un processo discriminale. Se un dato stimolo viene
presentato più volte allo stesso soggetto, si può ragionevolmente pensare che
esso non attivi sempre lo stesso processo discriminale; analogamente, se lo
stimolo viene presentato a un gruppo di individui, non è detto che solleciti la
stessa reazione in ciascuno di essi. Il processo discriminale (la reazione) che si
presenta con maggiore frequenza viene chiamato processo discriminale
modale; esso costituisce il valore scalare dello stimolo, il punto che individua sul
continuo la sua posizione.
Scaling centrato sugli stimoli:
esempio del metodo dei confronti a coppie (Thurstone)
l caso specifico in cui si hanno
sufficienti elementi per determinare
le distanze fra tutti i processi
discriminali, e quindi i valori di scala
per ogni intensità di stimolo richiede
due assunzioni:
la prima è che i due processi
discriminali non siano correlati, con
rab = 0;
la seconda è che le due distribuzioni
siano di uguale varianza
RESPONSE BIAS
Nonostante la proliferazione delle loro definizioni, è possibile sostenere in prima
approssimazione che i principali response bias sono classificabili in due sole categorie
La prima è rappresentata dalle tendenze content-sensitive, che si
fondano sulla comprensione degli item ai quali si ha la consegna cli
rispondere e su un mascheramento (più o meno consapevole) dei
propri stati ·veri. Il loro principale rappresentante è la desiderabilità
sociale.
La seconda categoria di response bias è costituita dalle tendenze
content-free, che si innescano prescindendo dalla semantica degli item
cui si risponde. È la famiglia dei response set, composta da una serie
di propensioni degli intervistati ad usare in modo idiosincratico le
scale loro sottoposte, selezionando delle alternative di risposta in un
considerevole numero di occasioni indipendentemente dal contenuto
delle domande cui rispondono.
Validita’
Pedon e Gnisci (2004) hanno proposto un approccio ben strutturato che può agevolare la
comprensione di un concetto complesso e multisfaccettato come quello della validità: che
distingue diversi aspetti: la validità di contenuto, l'attendibilità, la validità di criterio (concorrente
e predittiva) e la validità di costrutto (esterna e interna).
Nei livelli e nelle fasi della ricerca gli elementi importanti sono i seguenti:
Pedon e Gnisci (2004) mettono in evidenza i cinque aspetti generalmente connessi alla validità:
--l'esistenza o meno di una relazione causale tra variabile indipendente e quella dipendente nelle
condizioni e sui soggetti realmente studiati.
--verificare se la relazione riscontrata tra le suddette variabili in una particolare ricerca vale anche
per persone diverse da quelle esaminate, per altre situazioni, altri luoghi e altri tempi.
-- assicurare che la ricerca effettivamente misuri quello che il ricercatore si è proposto di misurare
--il quarto aspetto della validità controlla se i risultati della ricerca sono dovuti alla manipolazione
della variabile indipendente oppure a variazioni casuali.
il quinto riguarda la possibilità o meno di generalizzare i risultati ottenuti in laboratorio alla vita
vissuta in un ambiente naturale.
Alle forme della validità sono stati associati nomi diversi, anche in funzione degli scopi da soddisfare,
considerando comunque che le stesse non sono indipendenti le une dalle altre; la suddivisione
operata è stata realizzata per rendere evidente che gli aspetti della validità sono compresenti in
tutte le categorie e aree
In particolare, gli scopi possono essere ricondotti a due grandi aree: complesso della ricerca e
complesso delle misure.
Considerando questo raggruppamento si hanno le seguenti forme di validità:
VALIDITÀ ESTERNA
57
L’obiettivo è quello di accertare che la relazione riscontrata fra le variabili in una data ricerca risulti
generalizzabile, ovvero inferire le conclusioni anche a situazioni, popolazioni, ambienti e tempi
diversi (ma con caratteristiche simili) da quelli in cui è stata condotta la ricerca. In pratica la
componente esterna della validità relativa ad un esperimento consiste nel poter generalizzare le
conclusioni per gli individui e per contesti differenti da quelli che sono stati considerati nella
ricerca condotta.
Del resto, lo scopo della ricerca sperimentale è quella di giungere a risultati e conoscenze
generalizzabili.
Il modo più semplice per ottenere la validità esterna è di ripetere la ricerca stessa, cambiando una
o più variabili riguardanti o i soggetti e/o l'esperimento.
In questo modo si può ottenere una attendibilità (reliability) della ricerca; richiedendo un notevole
sforzo, risorse e tempi questo metodo è poco praticato.
Un altro metodo per ottenere la validità esterna consiste nel scegliere la giusta popolazione di
riferimento e la numerosità campionaria adeguata a rappresentare la popolazione da cui i soggetti
sono tratti (ampiezza del campione). Infatti, l’ampiezza del campione è in diretta relazione con la
probabilità che esso rappresenti l'intera popolazione, di conseguenza più grande è il campione
maggiore sarà la sua rappresentatività.
Infine, un limite per la generalizzazione dei risultati ottenuti con i disegni a misure ripetute deriva
dalla ripetizione delle prove, che può provocare effetti di confusione dovuti all'ordine e alla
sequenza. Anche se, i ricorsi alle tecniche di controllo, come il contro-bilanciamento e l’uso di
intervalli adeguati possono ridurre gli effetti, l’esposizione multipla ai trattamenti comporta sempre
qualche minaccia alla validità esterna.
58
Possono essere utilizzati degli stratagemmi per aumentare la validità esterna, tanto negli
esperimenti sul campo quanto in quelli di laboratorio.
Il primo metodo è quello di adoperare misurazioni non intrusive, il secondo quello di raccogliere i
dati prima che i soggetti si accorgano che il ricercatore ha iniziato il suo lavoro d'indagine; e quando
è possibile, si consiglia di condurre la ricerca in condizioni naturali, che
presentano maggiori garanzie degli studi di laboratorio per la validità esterna.
Ma si deve tener presente che gli esperimenti non sono sempre condotti per generalizzare i dati
a tutte le situazioni, ma anche per altri scopi, per cui in questi casi è inutile preoccuparsi troppo
della validità esterna. Per esempio, è possibile condurre un esperimento per determinare se
qualcosa può accadere e non se essa accade nella vita di tutti i giorni.
LA VALIDITÀ INTERNA
La validità interna occupa una fondamentale posizione in quanto riguarda la teoria, o teorie, di
riferimento e la logica della ricerca stessa; lo scopo è di spiegare i fenomeni osservati e di prevederne
di nuovi. Dal punto di vista della sperimentazione questa forma è collegata alla verifica dell’esistenza
di un legame costante tra la variabile indipendente (VI) e quella dipendente (VD). Si ha validità
interna, quindi, quando sperimentalmente è possibile stabilire una relazione, tra queste due
variabili, confermandone la causalità; cioè, quando risulta che una modifica applicata alla variabile
indipendente provoca direttamente, ovvero causa, una modifica nella variabile dipendente.
La relazione per essere considerata causale deve soddisfare due requisiti:
la direzione, ovvero la simmetria, che riguarda il verso del legame tra la VI e la VD; infatti, occorre
la certezza che il cambiamento determinato volontariamente sulla variabile indipendente è causa
dei cambiamenti sulla variabile dipendente e non il viceversa. La direzione è ricavata dalla catena
temporale: se la modificazione della variabile indipendente precede e influisce sul cambiamento
della variabile dipendente, allora si può ragionevolmente supporre che la prima, cioè VI, influisce
sulla seconda, cioè VD.
l’assenza di fattori di confusione (requisito dell’esclusione dei fattori di confusione) invece, implica
il controllo di tutte le variabili che sono potenzialmente in grado di influire sulla relazione causale.
L’accertamento della validità interna consiste nell'esaminare e respingere perché logicamente non
plausibili le interpretazioni alternative delle relazioni tra variabili, ovvero nel provare che le
modifiche della variabile dipendente sono determinate direttamente da quelle della variabile
indipendente e non dipendono dall'influenza di terze variabili (dette di disturbo).
59
la selezione: il gruppo sperimentale e quello di controllo devono essere equivalenti rispetto a tutte
le variabili d’interesse. Alcuni fattori o condizioni possono minacciare l’equivalenza iniziale dei
gruppi, come ad esempio: la motivazione, il livello di intelligenza, la rapidità di apprendimento, ecc..
Tali variabili possono impedire che il risultato del gruppo di controllo sia la misura di paragone per
il gruppo sperimentale. Se i due gruppi non risultano equivalenti, ogni effettiva differenza rilevata
nel post test può essere erroneamente attribuita al trattamento.
la mortalità, possibile perdita, o defezione, differenziale dei soggetti nei due
gruppi. Nell’attività sperimentale può verificarsi, anche frequentemente, che, dopo il
pre-test, alcuni soggetti si ritirino da uno dei due gruppi. Tale sottrazione può influire
sui risultati dell’esperimento.
l’effetto storia: ogni evento che, durante il
corso di un esperimento, produce un effetto che si sovrappone a quello della variabile
indipendente (vedi anche effetto delle prove), producendo confusione sul rapporto
causale tra le variabili sperimentali. L’effetto storia riguarda eventi, anche personali,
che possono verificarsi durante il periodo di compimento dell’esperimento. Gli effetti
storia si verificano soprattutto negli esperimenti che hanno due misurazioni: una prima
del trattamento ed una dopo (cioè il pre-test ed il post-test)
i processi di maturazione, cambiamenti, di ordine biologico e psicologico, che avvengono col
trascorrere del tempo. Ad esempio, tra gli
aspetti biologici si rilevano la coordinazione, la fame, la fatica, ecc.. Tra gli aspetti
psicologici, invece: la stanchezza, la noia, l’acquisizione di nuove conoscenze, la
motivazione, l’interesse, ecc
la strumentazione La strumentazione o educativa o psicologica (interviste, questionari,
test), può esercitare una influenza sull’affidabilità delle misurazioni attraverso alcune
variabili. Ad esempio l’aumento di esperienza, la stanchezza, la disattenzione. Inoltre,
con l’aspetto della strumentazione si comprende anche, non solo la variabilità dovuta
alla struttura degli strumenti, la variabilità dovuta agli sperimentatori. Se nella fase di
post-test, rispetto al pre-test, il somministratore è diverso da chi aveva gestito la prima,
le differenze riscontrate tra i risultati, oltre al trattamento, possono essere dovute anche alla
sostituzione o degli strumenti o degli sperimentatori o di entrambi.
l’effetto statistico, Nella sperimentazione occorre considerare che gli effetti derivanti
dalla storia, maturazione, prove, hanno anche un effetto, ovvero sono rilevabili, sulle
stesse elaborazioni utilizzate per accertare, ad esempio, la presenza di causalit
l’effetto delle prove. La partecipazione alle prove sperimentali, le stesse più volte,
produce un effetto di apprendimento che può influire sui risultati delle prove successive
(ad esempio nelle prove di logica, di matematica, ecc.). Questi effetti, quindi, sono più
pronunciati nei reattivi che misurano le abilità, come la memoria, l'intelligenza, la
soluzione di problemi, ecc.. Poiché il presupposto fondamentale del disegno con un
gruppo sperimentale ed uno di controllo è l’equivalenza dei gruppi, a volte il ricercatore
per verificare la presenza di una storia relativa all’uso di test effettua un’attività di pretest. Questo
controllo a volte costituisce una minaccia alla validità interna, poiché i
risultati del post-test potrebbero essere dovuti alla combinazione dell’effetto del
trattamento e dell’abilità acquisita nella prova preliminare.
Coinvolge anche le possibili relazioni, come la selezione e maturazione, l‘interazione tra selezione e
storia, ecc..
Per contrastare le minacce alla validità interna sono stati proposti alcuni metodi per controllare o
le minacce nel loro complesso oppure le minacce dovute a particolari variabili:
60
per la storia:
Casualizzazione delle condizioni sperimentali (distribuire equamente le più importanti fonti di errore
tra gruppi sottoposti ad esperimento); Controllo della costanza (mantenere costanti, il più possibile,
le condizioni delle sperimentazioni, per tutti i soggetti e per tutto il periodo sperimentale, ad
eccezione del trattamento); Unica sessione e stessa situazione. (Per mantenere costanti e comuni a
tutti i soggetti le distorsioni, dovute a sessioni sperimentali diverse e a situazioni differenti, si deve
eseguire l’esperimento, quando è possibile, in un'unica sessione e nello stesso ambiente e si può
ridurre il tempo tra il pre-test e il post-test)
I processi di maturazione possono essere resi inefficaci attraverso l’uso di misurazioni ripetute
ad intervalli costanti, avvalendosi sempre di un gruppo di controllo.
La variabilità dovuta alla strumentazione è annullata attraverso il mantenere costanti tutte le
variabili della sperimentazione.
Gli effetti delle prove, invece, possono essere rimossi utilizzando i seguenti procedimenti:
− far passare il pre-test come evento ordinario della vita dei gruppi,
− eliminazione del pre-test, quando l’equivalenza dei gruppi è assicurata dalla effettiva scelta
casuale dei singoli partecipanti e la loro numerosità è conforme alle regole del campionamento;
− utilizzare il disegno di Salomon), che prevede nel suo schema sperimentale il controllo degli effetti
del pre-test.
Gli effetti statistici sono resi inefficaci estraendo a caso, dalla stessa popolazione, un gruppo di
controllo che mantiene le caratteristiche nel tempo per valutare i cambiamenti dovuti alle
elaborazioni statistiche.
Per quanto riguarda la mortalità non vi sono procedimenti di controllo sufficientemente efficaci.
E’ consigliabile effettuare le prove in tempi molto ravvicinati, qualora sia possibile, in modo da
limitare l’allontanamento dei soggetti.
LA VALIDITÀ DI COSTRUTTO
concerne la questione della conformità fra i risultati e la teoria che sta alla base della ricerca
La validità di costrutto (Cronbach e Meehl, 1955) si definisce come il grado in cui uno strumento
misura il costrutto che si intende misurare, cioè gli attributi o le qualità psicologiche che si
presuppone siano posseduti dalle persone.
Per costrutto (ad esempio intelligenza, ansia, emozioni ) si intende una definizione legato a una
teoria, che non può essere direttamente osservato ma solo inferito, dal comportamento, grazie a
variabili manifeste, ovvero indicatori osservabili come, ad esempio, il risultato di un test di
apprendimento, il ritmo del battito cardiaco, la sudorazione delle mani, la tensione nervosa, ecc..,
indicatori che dipendono dalle teorie dei ricercatori e dagli strumenti adottati per misurarli
La validità di costrutto non è espressa da un unico indice statistico, ma da una serie di osservazioni
e dati che forniscono un'informazione sulla natura del costrutto.
Solo con una definizione chiara del costrutto astratto, gli indicatori empirici che possono
rappresentarlo porteranno a procedure di manipolazione soddisfacenti.
La validità di costrutto è simile alla validità interna. Questa si raggiunge cercando di eliminare
le variabili alternative che possono essere considerate come cause potenziali del comportamento in
esame. Nella validità di costrutto, invece, occorre escludere altre possibili spiegazioni teoriche
dipendenti dai risultati ottenuti.
Per verificare se è stata raggiunta la validità di costrutto, si raccoglieranno sia i dati convergenti (gli
esiti attesi), sia quelli divergenti (gli esiti che non sono correlati con la variabile concettuale), e si
verificherà che i secondi non portino a spiegazioni che configgono con quella attesa.
61
La validità di costrutto è importante perché, ancora prima di iniziare l'esperimento, garantisce la
congruenza tra variabili teoriche e variabili operative, e quindi anche tra operazioni di trattamento
e quelle di misurazione degli effetti in relazione ai rispettivi costrutti.
LA VALIDITÀ STATISTICA
controlla, attraverso l'applicazione di specifiche tecniche statistiche, che i risultati della ricerca
non siano dovuti al caso ma ad un'effettiva relazione causale tra le variabili, e quindi alla diretta
manipolazione della variabile indipendente.
La validità statistica è collegata alla validità interna; ambedue hanno per scopo la verifica del
rapporto tra le variabili sperimentali, ovvero se è di tipo causale o meno. L'importanza di questa
validità è legata al fatto che, nella pratica degli esperimenti, i risultati sperimentali sono spesso
caratterizzati da un’ampia variabilità; in effetti unità sperimentali diverse, sottoposte allo stesso
trattamento forniscono risultati diversi. Questo esito può risiedere, in primo luogo, dalle
caratteristiche, o proprietà, dei soggetti sottoposti a trattamento e può essere attribuita alle
differenze individuali che non sono state o non possono essere controllate. Dalla grandezza di
questa variabilità dipende la precisione dell’esperimento, cioè la possibilità di ottenere risultati
simili, se non uguali, qualora la ricerca venga ripetuta. In secondo luogo, può mancare
l’uniformità nel modo in cui l'esperimento viene materialmente eseguito, o allo scarso controllo
delle variabili di confusione; ovvero, alla mancanza di accuratezza. Infine, è possibile attribuire
al caso, cioè ad una molteplicità pressoché infinita di condizioni non analizzabili singolarmente,
l’influenza sui risultati sperimentali. In questi casi, comunque, la variabilità può essere valutata
mediante i metodi statistici.
La validità statistica, invece, può aver luogo solo dopo che i dati sono stati raccolti e
quindi non consente di anticipare alcun rimedio immediato, ma può indicare se esiste la
necessità di modificare le condizioni sperimentali e di controllo in successivi esperimenti.
Ciascuna procedura statistica di analisi dei dati implica degli assunti che vanno rigorosamente
rispettati. Altri fattori minacciano la validità statistica gonfiando l'errore di misurazione. La
scarsa affidabilità degli strumenti di misura ad esempio, aumenta la variabilità d’errore,
impedendo così di cogliere le differenze attese; la mancata standardizzazione delle procedure
di manipolazione della variabile indipendente introduce una variabilità incontrollata nella
variabile dipendente a causa del cambiamento nelle modalità di presentazione dei trattamenti
che devono rimanere gli stessi anche quando cambiano le persone, i tempi e i luoghi;
l’eterogeneità dei soggetti sperimentali ancora può aumentare l'errore sperimentale.
Le strategie volte a migliorare la validità delle conclusioni statistiche sono essenzialmente tese
a ridurre la varianza d’errore: da qui l'uso di disegni sperimentali con prove ripetute, il ricorso
a gruppi omogenei ecc.
Oltre a queste strategie generali, vi sono strategie specifiche. Secondo John Anderson3
, vi sono
tre possibilità per aumentare la probabilità di scoprire un vero rapporto tra le variabili studiate:
la prima riguarda il livello di significatività, che si può aumentare, migliorando la sensibilità
del disegno, pur considerando che tale operazione diminuisce la possibilità di non riconoscere
false inferenze (errore di II° tipo). Una seconda possibilità può riguardare l’ampliamento
dell’intervallo tra i valori della variabile indipendente, usati per definire le condizioni
sperimentali, aumentando la grandezza dell’effetto. Ad esempio, ipotizzando per
l’apprendimento un rapporto tra lunghezza di una lista di parole e il numero di parole che
vengono apprese, occorre utilizzare liste composte di parole di ampiezza molto diverse, e non
62
di ampiezze simili o lievemente diverse. In questo caso occorre considerare che il rapporto tra
variabile indipendente e dipendente può assumere un andamento monotonico.
La terza possibilità prevede la riduzione dell’errore casuale, operando sulla riduzione degli
errori dipendenti dal campionamento, derivanti dall’assegnazione dei soggetti alle condizioni
sperimentali, dalla somministrazione delle condizioni stesse o dalla misurazione della variabile
dipendente.
LA VALIDITÀ ECOLOGICA
La validità ecologica riguarda la percezione del soggetto sperimentale sia verso il compito sia
verso l’ambiente durante lo svolgimento della sperimentazione. Occorre perciò considerare
l’importanza dell’ambiente per com’è vissuto dal soggetto, ciò di cui ha esperienza, che non si
risolve con il solo riferimento all’ambiente naturale o quotidiano, per garantire la validità
ecologica, bensì considerando anche la conoscenza di quello che il soggetto percepisce e vive
nella situazione sperimentale. In questo caso occorre considerare due situazioni in grado di
compromettere la validità ecologica. La prima riguarda il contesto laboratoriale che con la
presenza di oggetti sconosciuti o poco familiari rende poco naturali le reazioni o le prestazioni
del soggetto. La maggior parte degli esperimenti, quindi, può garantire la validità interna,
assicurare una certa validità esterna, ma costituisce una minaccia alla validità ecologica, in
quanto non consente di generalizzare i risultati alla vita quotidiana.
La seconda situazione considera come minaccia per la validità ecologica tutto ciò che impedisce
allo sperimentatore di conoscere come il soggetto percepisce la situazione. Non ha molta
importanza che la situazione sia artificiosa o meno; ciò che importa è che lo sperimentatore ne
sia al corrente ed abbia incluso nel disegno sperimentale tale variabile. Le minacce in questo
caso saranno uguali alle minacce alla validità esterna ed alla validità interna.
Ogni tipo di validità presentata risulta molto importante per la ricerca; occorre considerare,
però, che si devono distinguere gli studi in cui sono indispensabili le validità, ad esempio interna
ed esterna, da quelli che esigono, invece, la validità ecologica, poiché spesso il rispetto e la
garanzia dell’una, presuppone un minor rispetto della garanzia delle altre.
Il controllo
L’attività di controllo, soprattutto nella ricerca sperimentale, può essere considerata come la
seconda faccia della medaglia della validità. Infatti, nell’esperimento per il controllo della
validità si utilizza un gruppo di controllo insieme al gruppo sperimentale. Il gruppo di controllo
è costituito con le stesse caratteristiche di quello sperimentale ed ha la funzione di offrire un
punto di comparazione per la verifica degli effetti della variabile indipendente. Questa verifica
avviene confrontando i risultati del gruppo sperimentale che riceve il trattamento con quello di
controllo che non è sottoposto ad alcun trattamento. La comparazione può anche riguardare i
risultati sia dello stesso gruppo sperimentale (ad esempio una classe) sottoposto a differenti
livelli della stessa variabile indipendente (esperimento entro i gruppi), sia di due, o più, gruppi
che ricevono però livelli diversi dello stesso trattamento. Nel caso si utilizzi lo stesso gruppo si
stabilisce una condizione di controllo, in quanto lo stesso gruppo fa da controllo a se stesso;
inoltre, occorre considerare che si possono verificare degli effetti combinati dovuti all’ordine e
alla sequenza, dato che il gruppo esegue più volte le prove ed è sottoposto al trattamento almeno
due volte.
In tutti i casi si ricorre ad un pre-test per assicurare che o il gruppo singolo o i gruppi siano
effettivamente omogenei per quanto riguarda le variabili più importanti per l'esperimento.
Per ovviare alle possibili sorgenti di variabilità o confusione di effetti sono utilizzate specifiche
63
strategie di controllo.
Ogni strumento di misura per essere valido deve essere oggettivo attendibile e sensibile - e questo
vale per qualsiasi studio condotto con qualsiasi metodo -. A volte, soprattutto se si ha il dubbio che
un’eventuale assenza dell’effetto della variabile indipendente sia dovuta allo strumento di misura,
si ripete l'esperimento con un altro strumento di misura per aumentare l’affidabilità della
misurazione. Se il risultato delle due diverse misurazioni coincidono, ovvero se un fenomeno
osservato in un primo esperimento si verifica anche in un secondo e in un terzo, allora si può ritenere
che le misurazioni, e lo strumento, siano attendibili. Un esperimento che non può essere ripetuto,
lascia invece il dubbio che i dati ottenuti possano essere dovuti ad eventi casuali.
Quando si ripete un esperimento in modo più fedele possibile all’originale, si parla di
ripetizione; quando invece si opera una modifica rispetto alla prima sperimentazione per vedere,
ad esempio, se nonostante la modifica si otterrà un risultato analogo, si parla di replica o
ripetizione sistematica.
occorre utilizzare più procedimenti di controllo insieme, mai uno soltanto, per garantire la validità
della sperimentazione e della ricerca nel complesso.
I soggetti partecipanti alla sperimentazione possono essere influenzati da
motivazioni diverse, dalle aspettative, dall’interazione con lo sperimentatore e da altri elementi
soggettivi. Nello stesso modo, anche il ricercatore o il personale di ricerca può, anche
inconsapevolmente, influenzare il comportamento dei soggetti sperimentali inficiandone le
prestazioni. Per ridurre questi possibili effetti di confusione si può operare, ad esempio,
nascondendo ai soggetti sperimentali sia lo scopo generale della ricerca, sia la condizione alla
quale ognuno di essi è sottoposto per quanto riguarda gli effetti di disturbo (è il metodo del
singolo cieco, in inglese single-blind control procedure).
Per quanto riguarda, invece, le minacce provenienti dallo sperimentatore è necessario ridurre al
minimo i contatti diretti tra ricercatore e i soggetti partecipanti. Queste minacce si possono
realizzare attraverso la preparazione e collaborazione del personale di ricerca appositamente
addestrato e formato, che gestiscono i rapporti con i soggetti, a patto che siano anch’essi all’oscuro
oltre che dell’ipotesi dell’esperimento anche della formazione dei gruppi (non devono sapere cioè
a quale gruppo di trattamento sono stati assegnati i singoli soggetti) e, inoltre, a quale gruppo
appartengono le risposte che sono chiamati a valutare. In questo modo i collaboratori, anche
involontariamente non trasmettono ai soggetti informazioni sul trattamento (o inganno), sulle
risposte attese, e,
64
nello stesso tempo, non hanno la possibilità di interpretare in modo differenziato i risultati.
Questo procedimento è tecnicamente chiamato doppio cieco perché risulta cieco, cioè senza
informazioni che possono modificare i propri giudizi, sia il soggetto sia lo sperimentatore. Tale
situazione non sempre è utilizzabile, soprattutto quando entrano in gioco motivi etici
Con il metodo osservativo, quando cioè le osservazioni sono soggettive e prevedono la
registrazione di informazioni destrutturate, o altri metodi obiettivi, il controllo si effettua mediante
l’impiego di parecchi osservatori e i dati rilevati possono essere comparati e valutati mediante un
coefficiente di accordo. Questa tecnica è conosciuta come inter-rater reliability, cioè dimostra la
concordanza tra valutatori per la stessa valutazione e ciò caratterizza l’affidabilità della misura, o
giudizio, realizzata
Una selezione scrupolosa dei soggetti può assicurare l’equivalenza dei gruppi e la possibilità di
generalizzare i risultati alla popolazione, anche attraverso il giusto uso delle regole di
campionamento.
Per la ricerca, occorre selezionare in modo casuale dalla popolazione accessibile un
campione convenientemente numeroso; più grande è il campione e più risulta rappresentativo
della popolazione poiché si riducono gli errori di campionamento. Il campionamento è definito
casuale quando la selezione di ogni elemento avviene da una popolazione in cui gli elementi
sono ordinabili ed ogni elemento ha la stessa probabilità di essere selezionato. Il
campionamento casuale è detto stratificato quando si considera una suddivisione preliminare
della popolazione in strati o sub-popolazioni, da ognuna delle quali viene estratto un subcampione,
sempre in modo casuale, di numerosità proporzionale alla numerosità del campione
Nelle scienze psicologiche, invece, in molti casi i
ricercatori devono condurre gli esperimenti con soggetti non facilmente reperibili e disponibili
e quindi non scelti in modo casuale da una particolare popolazione ordinata. Tali gruppi di
soggetti, definiti campioni ad hoc, o ragionati, possono evidenziare risultati generalizzabili
sulla base delle caratteristiche del campione stesso; in pratica, quanto più si riesce a descrivere
i soggetti del campione in modo obiettivo, tanto più esatta risulterà possibile trasferire i risultati
alla popolazione di riferimento.
Una volta che il campione è stato formato i soggetti selezionati devono essere assegnati,
secondo le condizioni stabilite dai disegni sperimentali, ai gruppi sperimentali. I soggetti,
quindi, possono essere assegnati ai gruppi sperimentali in maniera casuale randomizzata,
(assegnazione casuale libera) soprattutto quando si lavora con un numero alto di soggetti;
quando invece il numero di soggetti è piccolo si utilizza preferibilmente il pareggiamento4
. Il vantaggio di questa tecnica è dato dal fatto che essa rende la ricerca con piccoli gruppi più
sensibile agli effetti della variabile indipendente mediante l’equa distribuzione tra i gruppi delle
variabili di disturbo conosciute o sospettate di esserlo.
Una seconda particolarità per utilizzare
il pareggiamento è il considerare che vi sia una variabile rispetto alla quale i soggetti
differiscono e che essa sia con buona probabilità correlata con la variabile dipendente. Questa
variabile deve essere comunque individuata prima di eseguire il pareggiamento stesso; quindi i
soggetti devono essere esaminati prima di venire assegnati alle varie condizioni.
Un altro metodo al pareggiamento è il metodo dei blocchi che consiste nell’abbinare le
caratteristiche dei gruppi. Questo metodo prevede innanzitutto l’identificazione della variabile
in base alla quale formare i blocchi, poi successivamente misurarla su tutti i soggetti, che
dovranno appartenere al campione sperimentale, e suddividere i soggetti in base alla media e
alla deviazione standard ottenute in tali misure
Un altro metodo di controllo, disegno entro i soggetti , prevede che a ciascun soggetto possa
applicarsi ciascuna condizione dell'esperimento.
65
Negli esperimenti in cui ciascun soggetto è sottoposto a più condizioni sperimentali è possibile
che l’esecuzione delle prime prove influisca sui risultati di quelle successive. A questo
proposito, gli autori distinguono due possibili effetti: dell'ordine e della sequenza. Il primo è
dovuto all’ordine in cui i soggetti sono sottoposti alle condizioni sperimentali,
indipendentemente dalla specificità delle condizioni stesse
L’effetto della sequenza riguarda, invece, un cambiamento temporaneo o permanente nel
comportamento del soggetto a causa di una precedente esposizione ad uno o più trattamenti
sperimentali.
La strategia per controllare gli effetti dell’ordine e della sequenza è quella del bilanciamento e
controbilanciamento
Quando ciascun soggetto è sottoposto a tutte le condizioni e si utilizza il
controbilanciamento questo verrà detto entro i soggetti. Lo svantaggio di questo metodo è
legato al fatto che tutti i soggetti devono essere sottoposti a tutte le condizioni e più di una volta.
A mano a mano che il numero delle condizioni aumenta, aumenta anche la lunghezza della
sequenza delle prove.
Vi sono due tipi di controbilanciamento entro i gruppi: incompleto e completo.
MODULO 5 VALIDITA
Scorm 1)
La validità di facciata può essere analizzata attraverso la correlazione: falso, non ci sono test statistici
specifici
66
La validità di contenuto necessita del coinvolgimento dei esperti per la sua valutazione: vero
Il criterio è un altro test o scala psicometrica? Falso, è una prestazione del soggetto
Per avere un livello di validità discriminante accettabile il coefficiente di correlazione deve essere uguale a
0 (zero) : falso Esatto, si sceglie un costrutto che abbia che sia correlato negativamente, quindi più si avvicina
a -1 e meglio è.
La validità come concetto è sfaccettata in tante dimensioni, ma è unica (come il trifoglio, che è una
pianta unica, ma con tre foglie, la validità è un concetto unico con 5 dimensioni che contribuiscono
tutte a dare una stessa concezione, definizione) ed in questo si differenzia dall’attendibilità, che nei
suoi diversi metodi di analisi è diversa (attendibilità in misure ripetute e come coerenza interna).
Diversamente dall’attendibilità di uno strumento di misurazione non esiste un singolo coefficiente
di validità per un test, che è sempre valido per qualche scopo e risulta più o meno valido a seconda
delle circostanze
In particolare riguardo ai reattivi si dice che un test è valido se misura ciò che dichiara di misurare.
(Kline)
area della misurazione (o dello strumento)
- validità di contenuto
- validità di criterio
- validità concorrente
- validità convergente
Elementi fondamentali per la misura di una caratteristica attraverso un test :
La validità a priori del test
• La validità a posteriori del test
• Corrispondenza del test alle esigenze pratiche
67
Un test deve essere utilizzato in una situazione pratica ed oltre ad avere una validità pragmatica,
deve essere coerente e pertinente con lo scopo della somministrazione
Per la validità di uno strumento di misura, è necessario considerare che si intende, oltre ad una
definizione concettuale e operativa del costrutto che si vuole misurare, anche la definizione delle
relazioni con misurazioni diverse del costrutto, con misure di altri costrutti all'interno di un sistema
teorico e con misure di variabili presenti nel mondo reale.
Uno dei momenti più difficili nel processo di sviluppo di una misura è quello dell'interpretazione dei
punteggi ottenuti dalla misurazione. La registrazione di una significativa affidabilità rivela solo che
lo strumento misura veramente qualcosa, ma non dà alcuna informazione sulla natura di ciò che si
sta misurando.
La difficoltà deriva dal fatto che la validazione può essere verificata all'interno di un sistema di
relazioni ipotizzate tra il costrutto di interesse e altri costrutti; tali relazioni possono essere :
di causa, effetto o di correlazione.
Inizialmente la valutazione della validità di facciata è stata considerata appannaggio degli esperti,
ma col tempo il focus si è spostato su gruppi di potenziali utilizzatori, costituiti da coloro a cui il test
verrà somministrato e gli utilizzi dei test nei contesti applicativi relativi a situazioni particolari
prevede una scelta (trade off) tra validità esteriore di facciata e le funzioni di un test all’interno di
una ricerca
Facciata o esteriore (significatività che una misura presenta, si valuta sulla base dei giudizi di
esperti), validità estetica o cosmetica E’ il grado in cui gli item sembrano misurare il costrutto che
si intende misurare.
La validità di facciata riguarda il fatto che il test "sembri valido" e misurare ciò che dichiara di
misurare agli esaminandi che lo compilano, al personale amministrativo che ne decide l'impiego (per
es a scuola) e ad altri osservatori non tecnicamente formati.
Questa apparenza di scientificità rispetto agli obiettivi del test, influenza anche le performance e
le risposte dei soggetti.
Di fatto, non esiste nessuna relazione logica fra validità esteriore e validità reale, anche se in alcuni
casi esse potrebbero essere correlate positivamente, mentre in altre circostanze la validità esteriore
può rappresentare un vero svantaggio. (Kline)
Vantaggi: la motivazione dei soggetti a rispondere si riflette nelle loro performance, (i piloti per
esempio se ci sono test esteriormente validi, si scoraggiano a completarli, così come gli adulti)
Nel campo dell’abilità non vi sono molte differenze, bisogna studiare le domande in modo che risulti
coerente con quanto si soggetti si aspettino di rispondere (un test sull’ansia sui piloti non avrebbe
senso e porterebbe a distorsioni).
E’ necessario differenziare:
validità di facciata : esteriormente come appare, se è ben fatto dal punto di vista della grafica, se è
completo nelle scale, non cambiano il contenuto, ma che influenza la percezione e la motivazione
del soggetto a portare a termine il compito in modo coerente. (l’abito fa il monaco: l’impressione
che da il test di essere valido motiva i soggetti e completarlo). La capacità del test di produrre dati
attendibili, dipende anche dall’atteggiamento nei confronti del test dei soggetti e del
somministratore (la valutazione della validità di facciata di solito è fatta da esperti) la
somministrazione può essere fatta a un gruppo di esperti o ad un gruppo rappresentativo a cui è
rivolto il test). La validità di facciata può avere effetti positivi, che negativi sulla validità dei punteggi
a un test, se la rilevanza degli item influisce sulla motivazione e nei reattivi di selezione del personale
se un test scarseggia di questa validità, il soggetto può demotivarsi a farlo bene perché può pensare
che sia irrilevante per la decisione che verrà presa o in altre situazioni ancora più gravi, uno scarso
livello di validità di facciata può creare problemi nella risposta, attivando processi di dissimulazione.
Sebbene non garantisca una misurazione accurata, può avere influenza sulla motivazione e deve
essere provata (Anastasi)
e validità di contenuto : non è una validità nel senso tecnico del termine, non si riferisce a ciò che il
test effettivamente misura, ma a cosa sembra misurare superficialmente.
69
SCORM 2
Validità di contenuto,:
anche definita concettuale, denota l’adeguatezza della tarazzazione e delle variabili misurate in una
ricerca o test, così tutte la variabili vengono operativizzate. Uno stesso concetto può essere misurato
più volte a seconda delle finalità.
Non sempre si è grado di garantire che gli stimoli, indicati come indicatori della variabile psicologica
del costrutto che si vuole misurare siano corrispondenti, attendibili e validi,
La validità di contenuto è il grado con cui gli item del test costituiscono un campione rappresentativo
dell'universo dei possibili comportamenti relativi al costrutto che si vuole misurare
La capacità dello strumento di misurare effettivamente ciò che si intende rilevare. anche questo
tipo di validità necessita del giudizio di esperti. La verifica della validità di contenuto è
particolarmente importante e deve essere effettuata al momento della costruzione dello strumento
di misura e quindi prima della raccolta dati e dell’analisi statistica; questa, in particolare, dovrebbe
fornire solo informazioni aggiuntive su tale validità, ovvero dovrebbe fornire solo un sostegno e una
giustificazione statistica.
Lo scopo è di valutare se gli item rappresentano adeguatamente un dominio di prestazioni o un
costrutto psicologico specifico. To Asses (valutare) significa che è uno strumento di valutazione e
l’applicabilità della validità di contenuto dello strumento deve essere coerente con i metodi di
valutazione psicologia (la misurazione sistematica del comportamento di una persona, nelle varie
dimensioni, da una parte obiettivi e strategie di misurazione e dall’atra inferenze, giudizi, la
riflessione, che uno psicologo riesce a trarre dalle misure ottenute.
La validità di contenuto è il grado con cui gli item del test costituiscono un campione
rappresentativo e dell'universo dei possibili comportamenti relativi al costrutto che si vuole
misurare, (Pedon e Gnisci) se è veramente rappresentativo del costrutto o dominio di prestazione
(competenza in matematica, copro tutti gli elementi che la costituiscono) che si rifà alla definizione
di Anastasi del test come campione di misurazione dei comportamenti dei soggetti.
Il giudizio che si esprime su base quantitativa o stime di rilevanza e rappresentatività, nella validità
di contenuto può essere considerata una caratteristica dimensionale del test e non qualitativa,
come invece si ritiene, dato che non esistono test statistici adeguati con riferimento quantitativo,
ma tecniche con cui si definisce se un test ha buona validità di contenuto.(anche nella validità di
facciata)
La rilevanza di un questionario self report che misura un particolare dominio della personalità o
della intelligenza sarà una funzione del grado in cui la misura contiene item che riflettono le
sfaccettature del costrutto, per cui sarà bassa la validità se la scala del test contengono item al di
fuori del dominio di contenuto o mancano di operalizzazione necessaria.
La valutazione della validità di contenuto è fondamentale se ci permette di ottenere Prove
empiriche a supporto del fatto che gli item del test sono rilevanti e rappresentativi del costrutto.
Nella valutazione psicologica in generale la sua importanza per la valutazione del costrutto varia
in base a quanto il costrutto viene definito e quanto gli esperti concordano sul dominio e sulle
sfaccettature del costrutto , quindi le uniche modalità che ci permettono di valutarla sono metodi
che fanno riferimento al giudizio degli esperti, mentre nella validità di facciata si fa riferimento
ai soggetti che rispondono al test, chiedendo una valutazione sulla qualità o sulle problematiche
del test.
Gli esperti vengono chiamati in causa col metodo Delfi o con il metodo CUE SORT, in cui i soggetti
mettono in ordine gli item, per cui c’è un riferimento sia qualitativo, che ad un ordine ed una
gerarchia.
La valutazione di contenuto è importante per la criticità che può avere, soprattutto per costrutti con
confini concettuali vaghi o con definizioni che non sono molto consistenti, che non ha letteratura
70
di riferimento molto chiara.(esempio di strumenti self report che misuravano il supporto sociale, in
cui era labile ed ambiguo questo costrutto)
Un’altra tecnica per lo studio della validità di contenuto è quella delle FAcets ANALISIS, esame delle
sfaccettature, che prevede un lavoro di individuazione degli aspetti basilari del costrutto per fare
una mappa esplicita e chiara del dominio concettuale e stabilire il peso relativo che ogni parte
costitutiva ha nella definizione del costrutto, cosa che ci permette di controllare che la quantità
di item sia proporzionale al peso delle varie sfaccettature individuate inizialmente.
Ad esempio se si vuole costruire una scala per misurare l’aggressività è necessario campionare un
certo numero di item della popolazione di tutti i possibili item ed individuare tutti gli aspetti
costitutivi di essa (rabbia, violenza ostilità ecc) ed i contesti , dipende dalle finalità dello strumento,
delle attività in cui si sviluppa. Bisogna definire dal punto di vista teorico anche qual è il peso di
ognuno degli aspetti in termini di numerosità degli item: se sottorappresentiano o sovra
rappresentiamo un aspetto della definizione del costrutto , si indebolirà la validità di contenuto.
Ci deve essere una congruenza tra questa costellazione di elementi per questa validità.
Nei test di profitto e di abilità (il dominio degli item è ben definito) è più facile applicare la ricerca
della validità di contenuto: in un test musicale per esempio, si potrebbe presentarlo ad un gruppo
di musicisti (per esempio del V anno) chiedendo di giudicare se il test copra tutte le prestazioni
musicali più importanti che è lecito attendere.
Questa metodologia di verifica è un’analisi indipendente dello strumento da parte di un gruppo di
esperti.(metodo Delfi). Se devono specificare eventuali carenze del test, possiamo garantire che il
contenuto finale del test è pertinente e rilevante per il suo scopo.
Il motivo per cui questo test musicale è rilevante e valido è perché c’è una buona misura di accordo
rispetto alle abilità specifiche ed alle conoscenze di base.
Anche se attualmente la validità di contenuto è considerata una componente importante anche per
i test di performance tipica, si è sviluppata a partire da quelli di intelligenza e per la valutazione dei
reattivi di profitto.
Sia la validità di facciata, che quella di contenuto sono sottovalutate e ritenute forme di validità
esterna, ma non è così. Se il soggetto risponde in modo corretto ad un item collegato ad un
accordo,è un esempio reale dell’abilità specifica, allora il soggetto lo sa riconoscere: la v. di
contenuto rispetto a quella esterna potrebbe essere similare. Ma se in test di personalità un item è
sull’ansia potrebbe non esserlo. (questo negli esempi di test musicali o di intelligenza che dice nel
video)
La misurazione della validità di contenuto è raggiungibile con il metodo DELFI, riassumibile
nell’analisi indipendente degli item da parte di esperti, con un processo strutturato che accoglie ed
approfondisce dal loro patrimonio conoscitivo e lo scopo è quello di approfondire le risposte
individuali al problema specifico. Questa tecnica si affina in modo progressivo, man mano che il
gruppo progredisce nella sua valutazione. E’ un metodo strutturato e formalizzato e prevede che il
giudizio avvenga in modo indipendente, per cui i componenti del gruppo non si dovrebbero mai
incontrare personalmente, in modo che il risultato finale non sia influenzato dalle loro interazioni.
La validità di contenuto , per quanto supportata da questa tecnica, non si può considerare l’unico
metodo di valutazione di uno strumento.
Se è coerente per esempio,con risultati di v. predittiva, per test di performance massima,
(intelligenza ecc)i giudizi dovrebbero essere congruenti tra loro.
Nella storia dello sviluppo dei test ci sono esempi (Bender visual test) ci mostrano come stimoli
ideati per misurare un costrutto, una variabile latente, si siano rivelati più validi per misurarne
un’altra.
Occorre distinguere fra relevance (rilevanza) e representativeness (rappresentatività) di un test.
71
La rilevanza di uno strumento di misura si riferisce all'appropriatezza dei suoi elementi per la
valutazione del costrutto oggetto del test
La rappresentatività di un test si riferisce invece al grado in cui i suoi elementi sono rappresentativi
delle varie sfaccettature del costrutto target e riescono acoprire in modo adeguato il dominio di
contenuto.
Scorm 4
72
contribuirebbero individualmente alla variabilità del punteggio totale). Ogni item avrebbe così una
validità incrementale.
Validità Differenziale: esempio di test di interesse, di atteggiamento, che correla in modo moderato
con il successo universitario, (tra le discipline diverse), possiede, quindi, ha una validità differenziale
per la prestazione accademica, mentre i test di intelligenza hanno correlazioni più alte per il successo
universitario, ma non possono differenziare tra le discipline, perché la natura dei test di intelligenza
è diversa da quella di interesse. L’intelligenza, infatti, secondo la definizione di Kline, è un fattore
coinvolto in ogni prestazione individuale, intellettiva e per questo è universale, obliqua su tutti i
campi. E’ improbabile, ad esempio, che l’interesse per la scienza, porti al successo nelle materie
scientifiche, in questo senso è differenziale.
E’ difficile capire la validità di costrutto, perché non è direttamente osservabile (Algina e Crocker).
La definizione di un costrutto è importante dal punto di vista di una immaginazione scientifica
informata, ossia è un’opera, un processo creativo dello psicologo o ricercatore, che ha delle basi
sulla letteratura disponibile e su quelle che sono le indicazioni che vengono dagli studi precedenti.
Questo costrutto deve avere anche una finalità, ossia la categorizzazione e la descrizione di alcuni
comportamenti osservabili.
E’ chiaro che esiste un’ampia varietà di test per cui non è adeguata nessuno dei concetti di validità
vista fino ad ora (contenuto, facciata, criterio) e per superare questa difficoltà Cronbach e Meehl
nel 1955 definiscono la validità di costrutto come il grado in cui uno strumento misura il costrutto
che si intende misurare, cioè gli attributi o le qualità psicologiche che si presuppone siano posseduti
dalle persone. E’ una definizione che può sembrare tautologica.
Per costrutto si intende un concetto o una definizione legato a una teoria, che non può essere
direttamente osservato ma solo inferito. In questa prospettiva la validità di costrutto rappresenta
un'analisi del significato del test in relazione al costrutto psicologico che il test misura, ovvero
un'analisi di quanto una data operazionalizzazione (per esempio un G test) misura effettivamente il
costrutto che intende misurare (Cook, Campbell, 1979).
La validità di costrutto non è espressa da un unico indice statistico, ma da una serie di osservazioni
e dati che forniscono un'informazione sulla natura del costrutto da analizzare.
I ricercatori costruiscono un test o una scala per misurare una determinata caratteristica o costrutto
psicologico, partendo quindi dalla definizione di elementi fondamentali che costituiscono il
costrutto, come una dimensione della personalità , ed attraverso il processo di operalizzazione
sviluppano gli item adatti a cogliere questi elementi fondamentali.
La relazione che unisce i costrutti agli indicatori, nei modelli psicometrici sono ipotizzati che i
costrutti, le variabili latenti generino ed influenzino gli indicatori o le variabili osservate : modello
riflessivo (studiato attraverso l’analisi fattoriale, diverso dai modelli formativi, studiati attraverso le
regressioni).
Questa relazione tra le variabili latenti ed gli indicatori sono giustificati da queste relazioni di tipo
riflessivo ed i punteggi degli item vengono combinati tra loro di solito in modo additivo (sommando
i risultati dei singoli item) per ottenere un punteggio complessivo che rifletta effettivamente la
presenza di un costrutto (ansia, attitudine a lavoro impiegatizio, socievolezza ecc.)
Per la validità di uno strumento di misura, è necessario considerare che si intende, oltre ad una
definizione concettuale e operativa del costrutto (che non è solo un’etichetta) che si vuole
misurare, viene anche compresa ed inferita anche dalla definizione delle reti di relazioni con
misurazioni diverse del costrutto, con misure di altri costrutti similari o dissimili, all'interno di un
sistema teorico e con misure di variabili presenti nel mondo reale.
73
Il costrutto è un tratto teorico intangibile rispetto al quale gli individui differiscono gli uni dagli altri.
E’ una categoria astratta, di quella che è un’idea utilizzata per descrivere il comportamento dei
soggetti, o per operare collegamenti logici tra comportamenti diversi.
Sul concreto il termine costrutto è legato a variabili direttamente osservabili, che necessitano di
essere inferite da ciò che effettivamente si misura, ossia i comportamenti dei soggetti. (intelligenza,
motivazione, capacità di leedership)
Bisogna tradurre, quindi, il costrutto astratto, teoretico, in termini di comportamenti concreti
(esplicazione del costrutto, che costituisce la chiave preliminare, la tipologia di validità di un test
)
Le tre fasi principali della esplicazione del costrutto sono:
- identificazione di comportamenti concreti che possono avere una relazione con il costrutto,
- identificazione di altri costrutti che possono essere collegati con i precedenti
- La decisione di quali comportamenti hanno con costrutti supplementari
La validazione dei punteggi di un test su uno strumento è legata alla teoria riguardante la natura del
costrutto di interesse: se questo è vero le ipotesi di relazione teorica tra il costrutto e gli altri
costrutti possono essere confermate e disconfermate e utilizzate come studio della validità della
misura in esame.
Gli strumenti statistici utilizzati per studiare la validità teorica possono essere espressi in termini di:
- consistenza interna, ovvero sulla base della tendenza di misure diverse a correlare molto tra loro
e ad essere influenzate allo stesso modo da trattamenti sperimentali;
-correlazione della misura del costrutto con altre misure relative ad altri costrutti;
- analisi fattoriale.
Il risultato conclusivo del processo descritto dovrebbe condurre a sostenere che il costrutto è:
a) ben definito in termini di osservazione;
b) ben rappresentato in termini di variabili manifeste;
c) eventualmente correlato con altri costrutti.
E' comunque molto importante tener presente che la validità di costrutto può essere sostenuta ma
mai provata; è infatti possibile che successive ricerche e studi possano dare nuove interpretazioni
dei risultati precedenti utilizzando anche nuovi modelli.
74
La validità discriminante, consiste nel dimostrare un ragionevole grado di dipendenza tra le varie
aree che compongono uno strumento. è il grado di discriminazione tra due misurazioni di costrutti
diversi e si ha quando si ottiene un basso livello di correlazione tra i punteggi al test con quelli di
altre variabili con le quali teoricamente ci si aspetta che il test non correli.
Per la misura si può utilizzare il coefficiente di cograduazione di Spearman.
Corrisponde inversamente alla validità convergente e quindi risulta alta quando la misura del
costrutto da validare non correla con le misure di altri costrutti, teoricamente distinti dal primo.
Una delle procedure per la valutazione della validità di costrutto è l’analisi fattoriale.(riesce ad
individuare se il costrutto analizzato ha le stesse dimensioni del costrutto presupposto o un solo
costrutto che influenza tutti gli item)
Il problema che i metodi di analisi fattoriale cercano di risolvere si può fondamentalmente formulare
come: dato un insieme di misure vediamo se tutte misurano sostanzialmente la stessa variabile
psicologica o se invece ne misurano aspetti diversi, identificabili con sottogruppi di misure
La Matrice multitratto o multimetodo è un altro metodo di conferma di validità, che
contemporaneamente valida il metodo e il costrutto
75
• RILEVANZA: deve realmente riflettere gli aspetti fondamentali del costrutto che si vuole misurare.
(Se l’esito lavorativo sarà un criterio rilevante della misurazione del rendimento al lavoro, questa
performance deve riflettere le abilità del lavoratore studiate nella fase di selezione del personale.)
• REPERIBILITÀ: essendo variabile deve essere facilmente individuabile.
• ASSENZA DI DISTORSIONI: la misura-criterio non deve essere alterata (bias). •PRAGMATICAMENTE
VANTAGGIOSA: la misura deve essere quello più semplice da usare e più facilmente reperibile. Le
misurazioni usate di solito sono le conseguenze di un risultato di un test, il rendimento, la
persistenza di comportamenti indagati dal costrutto e possono costituire il nostro criterio.( esempio
personale per Amazon per la creazione di pacchetti)
La struttura generale di uno studio della validità di criterio presenta le seguenti fasi:
• Identificare un criterio di comportamento idoneo e un metodo per misurarlo
• Identificare un campione appropriato di esaminandi, rappresentativo della popolazione dei
soggetti su cui il test sarà utilizzato successivamente.
• Somministrare il test e registrare singolarmente i punteggi ottenuti da ciascun esaminando.
• Laddove i dati di criterio siano disponibili, ottenere una misura di prestazione sul criterio per
ciascun soggetto esaminato.
• Determinare la forza della relazione tra i punteggi al test e le prestazioni rispetto al criteri
76
Di solito si utilizzava nel vecchio esame di scuola guida in cui una parte era con carta e matita e se il
punteggio ottenuto era alto si poteva effettuare la prova pratica. Tra il test (misura del costrutto
competenza guida), e il criterio di performance nella guida della macchina c’è l’analisi della
prestazione che richiede altre capacità. Il test carta e matita ha alta validità di criterio concorrente
se molti soggetti che passano lo scritto, passano anche la pratica, se la correlazione tra lla riuscita
è elevata. Questo serve nel caso anche nella guida di un aereo (se non si hanno competenze base
sufficienti, non si dà al pilota la patente!!!)
Con questi due tipi di validità evitiamo problematiche che si sviluppano in seguito o che possono
succedere nella pratica e che la performance del soggetto sia elevata e la differenza è il tempo che
intercorre tra le prestazioni scelte: predittiva a lungo termine, concorrente a breve termine
Validità nomologica
Quando si parla di validità di uno strumento di misura bisogna tener conto non solo della definizione
concettuale e operativa del costrutto che si vuole misurare, ma anche delle relazioni con misurazioni
diverse del costrutto, con misure di altri costrutti all'interno di un sistema teorico e con misure di
variabili presenti nel mondo reale.
E’ il grado con cui il costrutto si inserisce in una serie di relazioni predittive con costrutti affini e
con criteri di riferimento (reti di relazioni)
77
MODULO 6, LEZIONE VIDEO SCORM 2 : RANGO,CENTILI, Z,T E NUVOLA DI PUNTI
Dopo aver visto nella lezione precedente in modo formale a cosa corrisponde l'affidabilità secondo la teoria
classica dei test e ricordando sempre come l’attendibilità definita da Anastasi si deve intendere anche come
fedeltà nel senso che fa riferimento alla coerenza dei punteggi ottenuti dallo stesso soggetto quando questi
venga sottoposto allo stesso test in occasione diverse, o in condizioni di somministrazione equivalente o in
diverse condizioni di somministrazione. Possiamo in questa lezione andare a vedere alcuni elementi di sfondo
che vorrei che voi ripassaste in modo da poter discutere ad es. sulla curva gaussiana e cosa sono i punti
standardizzati e così via. Innanzitutto cominciamo con quelle che sono le assunzioni base della teoria classica
dei test, cioè quelle che giustificano il discorso che abbiamo fatto nella lezione precedente, che abbiamo visto
78
che l'attendibilità è la proporzione di varianza vera, quindi corrispondente al costrutto in analisi rispetto alla
varianza totale del nostro punteggio .
La prima di queste assunzioni è che la media degli errori casuali deve essere nulla altrimenti esisterebbe un
errore sistematico, quindi se avessimo gli errori casuali che pur fanno parte del punteggio grezzo di un
soggetto che non avessero una media uguale a zero (se presa appunto nel loro insieme), ma se la media fosse
inferiore o superiore allo zero, allora avremmo un errore sistematico in positivo, in negativo e non più un
errore casuale che distribuendosi in modo gaussiano ha come media zero.
Il secondo assunto è che la correlazione tra il punteggio vero e l’errore casuale deve essere nulla, come
vedete R e Ve cioè la correlazione tra punteggio vero e l'errore casuale, deve essere uguale a zero. L'entità
dell'errore di misura che si commette deve essere indipendente, cioè non deve avere una relazione con
l'entità delle caratteristiche che stiamo misurando. Se lo vogliamo dire il modo più semplice dobbiamo
supporre la stessa probabilità di commettere errori grandi o errori piccoli, in relazione a quantità grandi o
piccole della caratteristica del costrutto che stiamo analizzando; in caso contrario se a quantità grandi
corrispondessero errori grandi, e a quantità piccole corrispondessero errori piccoli, o viceversa ci fosse una
regola, l'errore non sarebbe più casuale ma sarebbe di tipo sistematico.
L'ultimo assunto che dobbiamo analizzare e ricordarci, é che anche la correlazione tra due errori qualsiasi
deve essere nulla, come vedete ( vedi slide “ Rappresentazione delle componenti di punteggio ottenuto a un
test”)R di errore uno e due ( rE1E2=0) la coefficiente di correlazione tra errore uno e errore zero deve essere
uguale a zero. Questo perché non è concepibile che un errore, se casuale, possa anche in qualche modo
essere legato all'errore commesso nella misurazione precedente, successiva, o in qualsiasi altra misurazione
.
Da questi tre assunti derivano poi le possibilità di fare i passaggi, per cui dalla formula della teoria classica dei
test per cui punteggio grezzo equivale al punteggio vero più un errore, che otteniamo che l'indice di
attendibilità è dato dalla varianza del punteggio vero fratto la varianza del punteggi osservati, ovvero uno
meno la varianza dell'errore diviso la varianza dei punteggi osservati.
Dato che abbiamo già più volte richiamato questo discorso di punteggi veri e punteggi standardizzati
eccetera, andiamo a vedere che cosa sono questi punteggi e poi faremo un piccolo ripasso della correlazione
lineare, dato che già l'abbiamo richiamata più volte in questa prima lezione e seconda lezione del modulo e
poi sarà ancora più rilevante quando andremo a vedere le modalità di valutazione della correlazione
all’interno dell'attendibilità e quindi è meglio andare a vedere come si costruisce questo indice, qual è il senso
che ci restituisce questo tipo di test statistico.
Perché non si interpreta direttamente il punteggio grezzo di un test? Questa è una domanda che vi sarete
posti più volte quando avete incontrato anche nel corso di Psicodiagnostica eccetera,avrete trovato delle
indicazioni per cui i manuali di test riportano i percentili, i punti Z, i punti T e così via. Innanzitutto perché i
punteggi grezzi sono implicitamente legati alla scala di misura originaria, per cui per superare quelle che sono
le limitazioni dovute alla specifica costruzione di un testo, rispetto al costrutto di riferimento, si possono
utilizzare alcuni alcune operazioni, e queste operazioni, manipolazioni dei punteggi grezzi non cambiano
effettivamente il valore conseguito dal soggetto (abbiamo detto che la valutazione è standardizzata, che ci
sono delle procedure, inoltre non deve il somministratore, lo Psicologo essere in grado di modificare in base
alla propria soggettività il punteggio), se questa manipolazione successiva modificasse il significato punteggio
ottenuto da un soggetto allora avremmo di nuovo violato quelle che sono le indicazioni per ottenere un test
psicometrico.
Una prima operazione che si può effettuare sui punteggi grezzi e quella di un'espressione di questi punteggi
in termini di percentuale di risposte corrette. Nonostante tramite questa operazione abbastanza semplice
sia possibile attribuire al risultato individuale un significato, una prospettiva più completa, sempre rispetto
da quanto consentito dal semplice punteggio grezzo, tuttavia questa manipolazione non permette di cogliere
il valore relativo dei punti percentuali calcolati. Pertanto si rende necessario procedere con procedure di
trasformazione del punteggio grezzo attraverso uno scale più informative, ovvero la conversione dello stesso
punteggio in misure relative che, in quanto relative, risultino interpretabili e confrontabili con altri punteggi.
Come vedete la prima modalità che ci permette di effettuare questo confronto è la trasformazione in ranghi
e punti centili o percentili. Attraverso questa trasformazione e il ricorso ai percentili e ai ranghi otteniamo
un riferimento del punteggio grezzo ad un ipotetico campione di certi soggetti - è come se suddividessimo in
79
100 parti uguali la nostra distribuzione dei dati. Il rango centile di una data misura indica la percentuale dei
punteggi che si colloca al di sotto di quel valore, sempre partendo dal presupposto che si abbia a disposizione
una distribuzione ordinata in base ad una graduatoria; quindi è possibile effettuare questo tipo di
trasformazione a partire da variabili di tipo ordinale misurate su scala ordinale. In una distribuzione di questo
tipo l'ultimo classificato è contraddistinto dal numero uno corrispondente alla percentuale di soggetti pari o
inferiore in merito a quel punteggio, mentre al primo viene assegnato un rango, in un numero 100 in quanto
tale soggetto è pari o superiore al 100% del gruppo.
Il principale limite dei ranghi centili deriva dal fatto che non sono effettivamente delle variabili metriche,
quindi essendo variabili ordinali questo rende impossibile determinare le entità della distanza tra la posizione
e quella successiva della graduatoria, quindi non vi è una unità di misura come per le variabili su scala ad
intervalli o rapporti . Questa impossibilità di ancorare ad una unità di misura il nostro rango, e quindi la
posizione, vuol dire che, anche come tendenza centrale, dobbiamo fare riferimento alla mediana. Un secondo
limite dei ranghi centili,consiste nell’alterazione della distribuzione, nel senso che c'è un'accentuazione delle
differenze tra i punteggi nella corrispondenza della mediana e allo stesso modo una riduzione delle differenze
tra i punteggi collocate alle estremità, e comunque i valori estremi sono minori e più distanziati e in questo
caso la loro distanza viene ridotta.
Il punto percentile non coincide con il rango ma in realtà è il punteggio che corrisponde al rango stesso,
mentre il rango indica la percentuale di dati soggetti che si colloca in posizione pari o inferiore rispetto ad
un dato punteggio, il percentile e il punteggio sotto a quale si colloca una certa percentuale di dati o di
soggetti, quindi è esattamente l'inverso. Successivamente possiamo vedere che per ottenere le norme
bisogna trasformare i punteggi grezzi mediante il processo di standardizzazione. Questo processo consente
di andare oltre a quelli che sono i limiti dei ranghi percentili che indicano soltanto la posizione all'interno di
una serie di misure ma non la distanza che c'è tra il punteggio e l'altro. Invece la standardizzazione, cioè la
trasformazione dei punteggi grezzi i punti standard, consente di ottenere contemporaneamente sia le
indicazioni relative alla posizione dei singoli punteggi, all'interno sempre della distribuzione corrispondente,
sia le loro distanze, le rispettive distanze. La possibilità di compiere questa trasformazione da un uso più
immediato e pratico della media della direzione standard. Standardizzare la misura significa riferire la
misura stessa ad una scala standard detta anche scala Z,dei punti Z, con media e varianza nota.
Praticamente si assume come nuova origine della distribuzione la media della distribuzione stessa e si
trasformano in singoli dati in scarti della media; come vedete da queste immagini ( vedi slide “curva normale
standardizzata”)abbiamo due distribuzioni diverse sempre entrambe di forma normale che possono
corrispondere a due test diversi misurati su scale diverse e avete anche la formula della curva normale in
generale. Come vedete è possibile trasformare quindi riportare ad una curva normale standardizzata più in
basso, entrambi i punteggi rilevanti sulle due differenti curve normali e su questa scala standardizzata il punto
medio è uguale a zero e la direzione standard vale uno; affianco trovate anche la formula per questo tipo
particolare di curva normale. Al posto quindi della serie di misure grezze si ottiene una distribuzione di
deviazione dalla media attraverso la sottrazione di ciascun valore grezzo detto X con i (Xi) dalla media M, e il
significato di tali scarti, direzioni, chiamate anche in questo modo, cambia secondo della variabilità della
distribuzione: quindi dividendo per la direzione standard a seconda del valore della direzione standard
otteniamo una posizione diversa dal punteggio Z della deviazione. Quindi la direzione standard diventa la
nuova scala di misura che ci permette di esprimere la posizione di qualsiasi misura grezza in un in unità di
misura indipendente dal tipo di misurazione originaria.
In ultimo abbiamo la conversione dei punteggi grezzi in punteggi T, stanine, sten. Quando si usano questi
tipi di punteggi? Questi tipi di punteggi assolvono alla risoluzione di un problema, cioè quando operiamo una
conversione dei punteggi grezzi in punteggi standard può succedere che otteniamo punteggi Z sia positivi sia
negativi e anche di qualche decimale. Nel caso in cui dobbiamo andare a comunicare questi valori ottenuti
nei punti Z ai soggetti, dobbiamo porre rimedio a questo limite di avere dei punteggi Z e avere anche punteggi
negativi e punteggi decimali che rendono l'interpretazione del punteggio un po' più difficoltoso nella
comunicazione al soggetto. Moltiplicando un punteggio standard normalizzato cioè un punteggio Z per 10 e
aggiungendo 50 al prodotto così ottenuto si ottiene un punto T. Quindi il punto T ha media 50, e deviazione
standard 10. Questa scala fu ideata nel 1922 da Mccall e da lui definita scala T in onore del suo maestro
Thorndike. Come vedete dato che i punteggi Z al massimo possono arrivare a -4, vanno verso fino infinito,
80
ma è chiaro che i punteggi al di sotto di -4 non sono osservati praticamente mai, allora i punteggi T non
avranno mai un punteggio al di sotto di 10 o comunque uguale a zero, per non parlare poi dei punteggi di
tipo negativo; statine, sten sono ulteriori trasformazioni che adesso vengono utilizzati sempre di meno,
comunque sono trasformazioni standard nine o standard ten che hanno medie e direzione standard ancora
più diverse.
Domanda test Scorm: “ Utilizzare i punti Z e punti T implica cambiare la magnitudine dell'osservazione
fatta (esempio punteggio del test) : FALSO ( Perché rimane la stessa cambia solo la scala di riferimento).
Ultima cosa prima di andare avanti, per ricordare alcuni principi della curva normale standardizzata detta
anche curva normale e poi curva di Gauss e poi la versione standardizzata che abbiamo visto
precedentemente, vi ricorderete che costituisce il modello di distribuzione maggiormente utilizzato per la
misurazione in ambito psicologico data la sua adeguatezza da rappresentare la distribuzione di grandi
quantità di caratteristiche di tipo non direttamente osservabile. Tale curva ha una forma caratteristica a
campana e la curva che otteniamo, immaginando di sottoporre a un campione ipoteticamente molto
numeroso da tendere all'infinito, un certo test.
La curva normale gode di tre fondamentali proprietà- ve le ricorderete : è simmetrica, con un accumulo di
valori al centro è una dispersione degli stessi verso le estremità,gli indici di tendenza centrale ossia media
moda e mediana sono sovrapposti si trovano tutti al centro e corrispondono al punto in cui la curva raggiunge
il suo apice e l'area sottesa alla curva gaussiana ha un valore pari a uno. Da un punto di vista teorico è possibile
ottenere una distribuzione perfetta che presenti le caratteristiche che abbiamo appena detto, ma in natura
osserviamo anche a causa della limitatezza dei campioni che utilizziamo, alcune distribuzioni che sembrano
avere una forma normale, tendenzialmente normale.
Adesso discutiamo del coefficiente di correlazione. Innanzitutto conviene partire dal diagramma a
dispersione (Scatterplot) la cosiddetta nuvola dei punti e come si costruisce poi questo diagramma in modo
da spiegare poi in cosa consiste la correlazione lineare. La prima cosa da fare quando si intende studiare la
correlazione tra due variabili metriche è sicuramente quello di rappresentarle graficamente, queste due
variabili, mediante un diagramma di dispersione. Un diagramma di dispersione non è altro che un sistema di
riferimento cartesiano, come vedete (vedi slide "diagramma a dispersione Scatterplot) abbiamo i nostri assi
cartesiani dove vengono posti sull'asse orizzontale detto asse delle ascisse, i punteggi della variabile X,
mentre sull'asse verticale, le ordinate, i punteggi della variabile Y; quindi per ciascuno dei nostri soggetti
abbiamo un punteggio per la variabile X e un punteggio per la variabile Y, abbiamo una coppia di punteggi. I
punti relativi a ogni soggetto vengono individuati in corrispondenza dell'incrocio della verticale che parte dal
valore delle ascisse, quindi in questo caso se il valore di Ralph (vedi slide) parte da due in verticale e dall'altra
dalla retta che parte dal valore delle ordinate, in questo caso è uno, quindi il punto corrispondente al soggetto
è dove si incontrano, dove si incrociano orizzontale e verticale di queste due rette. La valutazione della
relazione con l'età ad esempio, quindi la relazione tra un test e l'età, è una delle analisi di routine degli studi
di validazione di un test psicologico e laddove abbiamo un punteggio di un test,per es al Big Five
Questionnaire, e l'età dei soggetti, possiamo andare a fare un'associazione, disegnare quelle che sono le
posizioni dei soggetti; quando andiamo a vedere diversi soggetti, otteniamo una serie di punti dispersi
sull'asse cartesiano e questo insieme di punti è detto “nuvola di punti”. Dalla corretta valutazione della
nuvola di punti dipende l'adeguatezza dell'impiego dei coefficienti di correlazione di Pearson come misura
dell'associazione di due variabili. Per interpretare questa nuvola di punti la prima domanda che dobbiamo
porci è: "la relazione può essere considerata come lineare, ovvero rappresentabile, sintetizzabile con una
linea retta?" Dipende in effetti da che tipo di rappresentazione abbiamo, in questo caso è chiaro che tutti i
punti sono disposti lungo quella che sembrerebbe una linea retta (si riferisce alla retta nella slide "cenni sulla
funzione lineare" ). Inoltre la natura di questa nuvola intesa come assunzione di linearità della relazione tra
due variabili, ci indica anche la modalità più parsimoniosa, più sintetica per spiegare la relazione tra i dati.
Ora in realtà come vedremo non esiste solo un tipo di relazione tra due variabili di tipo lineare, però quella
lineare è la più facile da interpretare, per questo inizialmente ma tuttora si cerca di spiegare le relazioni
attraverso questo tipo di modello linea retta, la linea può essere interpretata come modello di spiegazione.
81
L'uso smodato del coefficiente di correlazione di Pearson naturalmente può portare a clamorosi errori
laddove la relazione la base dell'associazione tra due variabili non sia di tipo lineare e quindi l'ispezione del
diagramma di dispersione a monte dell'applicazione del coefficiente può evitare di incorrere in tali errori. Qui
trovate naturalmente cenni su quelli che sono le caratteristiche specifiche della funzione lineare (vedi slide
"Cenni sulla funzione lineare"); come vedete si riferisce alla slide successiva “ coefficiente di correlazione
prodotto - momento di Bravais-Pearson) diversi tipi di diagrammi Scutterplot e nuvole di punti possono
determinare gradi di associazione con variabili di tipo diversi, laddove sia distinguibile una specie di ordine
nella posizione dei punti è chiaro che c'è da presupporre che vi sia una relazione tra due variabili; questo tipo
di relazione però è molto diversa da quella che è la reale relazione lineare che vedete ad esempio qui , dove
abbiamo una perfetta correlazione lineare, infatti l'indice è pari a uno,infatti il coefficiente correlazione varia
tra meno uno e uno e il valore zero indica l'assenza dell'associazione di tipo lineare; questo non vuol dire che
non ci sia un altro tipo di relazione di sottofondo. La correlazione infatti indica la corrispondenza con la
connessione tra due variabili mentre il coefficiente di correlazione, nostro simbolo R è un indice numerico
che esprime il grado di variazione concomitante tra una singola variabile indipendente e una singola variabile
dipendente. Tra due variabili abbiamo detto che siamo noi a decidere qual è la variabile indipendente e qual
è la variabile dipendente e il ruolo di x e y. In altre parole il nostro coefficiente di correlazione ci dice quanto
è in grado in cui le variabili X e Y sono legate correlate tra loro. Abbiamo detto che il significato di questo
coefficiente di correlazione è espresso dal suo segno algebrico cioè da più o meno, positivo nel caso di una
correlazione positiva, all'aumento di una variabile aumenta anche la seconda, negativo quando l'aumento
dell'uno corrisponde alle dimensioni dell'altro e viceversa. Naturalmente la correlazione varia a uno o -1 e di
tipo teorico, non osserverete mai questo valore perfetto di uno, è difficile trovare correlazioni così perfette
nella ricerca psicologica ma nella ricerca in generale. Ad esempio anche variabili che sono molto correlate tra
di loro, ad es. il peso e l’altezza, tendono ad esser correlate positivamente, nel senso che aumentano
simultaneamente, più una persona è alta più pesa ( in termini generali naturalmente), sono il primo a non
avere una corrispondenza tra altezza e peso, però è innegabile che vi sia una correlazione positiva. Così come
ci possono essere due variabili che decrescono simultaneamente ad esempio la scarsa preparazione e un
punteggio basso agli esami. La correlazione in negativo cioè inversa, si ottiene invece quando una variabile
aumenta e l'altra diminuisce ad esempio come il caso in cui il soggetto che ottiene il punteggio più alto al test
di abilità di lettura è più scadente nella test di matematica. Un'ultima cosa è da ricordare che il valori
intermedi del coefficiente di correlazione indicano un'esistenza tendenziale di una relazione vedi in questo
caso la nuvola di punti che rappresenta quella che dovrebbe essere una relazione lineare ma con discrepanze
che poi possono aumentare fino a non più questa presentazione tipo lineare. Va molto sottolineato che è un
coefficiente di correlazione è l'indice della connessione tra due variabili ma non dell'esistenza di una
relazione causale tra di esse, e che la correlazione non vuol dire causa azione e però questo coefficiente
permette un'indicazione di predizione cioè se si sa che due variabili sono tra loro correlate dovrebbe poter
essere possibile predire, tra le nostre finalità della ricerca, predire con vari gradi di accuratezza, a seconda
naturalmente dell’entità del coefficiente di correlazione, il valore di una variabile dipendente Y conoscendo
quella della variabile indipendente X.
Modulo 6 – LEZIONE 3
I coefficienti di correlazione e attendibilità dei test
Esistono altri coefficienti di correlazione, oltre a quello di Pearson, che presuppone che entrambe le variabili
siano misurate su una scala di tipo metrico quantitativo, e questi coefficienti sono utili quando le variabili
hanno diversa natura e quindi sono misurate con scale di misurazione di livelli più bassi. Ad esempio il
coefficiente RO di Spearman denominato coefficiente di correlazione per ranghi usato quando:
1) La dimensione del campione sottoposto a test è piccola (in genere minore di 30 coppie di misurazione
o osservazione e sappiamo che quando il numero è più basso non possiamo ad esempio utilizzare il
teorema del limite centrale, anche in questo caso non possiamo presupporre che la curva sia
perfettamente normale e nel test delle ipotesi si utilizza quindi il test T ma per la correlazione si usa
l’indice RO di Spearman
82
2) Quando le due misure sono di tipo ordinale
Esiste il coefficiente biseriale utilizzato nel calcolo dell’attendibilità del test punto biseriale
Poi c’è il coefficiente tetracorico che si utilizza quando entrambe le variabili sono rese arbitrariamente
dicotomiche (esempio alto o basso per quello che riguarda il reddito).
Quando la seconda variabile è realmente dicotomica come nel caso di Maschio/Femmina invece si utilizza il
coefficiente punto biseriale.
Per l’impiego del coefficiente tetracorico le variabili devono essere connesse in modo lineare e ciascuna delle
corrispettive distribuzioni sia normale. Inoltre il campione deve essere molto alto (almeno 300 soggetti)
83
Nell’esempio a destra in alto quando aumenta una variabile diminuisce l’altra e nel secondo esempio in
mezzo il contrario.
Abbiamo detto che non c’è solo una relazione di tipo lineare ma ne esistono altre di tipo curvilineo.
Esempio in basso a sinistra (parabola capovolta) A bassi livelli di ansia corrispondono bassi livelli di
prestazione poi se l’ansia aumenta allora aumenta la prestazione e poi quando continua ad aumentare le
prestazioni cominciano a diminuire. Oppure nell’esempio meno è complesso lo stimolo visivo meno piace poi
aumentando la complessità aumenta anche il piacere nel guardarlo poi quando la complessità diventa troppo
alta comincia a mancare di nuovo l’apprezzamento.
Soffermarsi sugli esempi di relazione lineare e curvilinea. Mettere in pausa e provare a definire gli esempi
che tipo di correlazione rappresentano cioè se positivo, negativo o curvilineo.
84
Coefficiente di correlazione prodotto-momento di Bravais-Pearson
(Pearson Product Moment Correlation Coefficient)
85
Standardizzando la formula diventa
Esempio di calcolo
(provare a farlo è il modo migliore per capirlo, si tratta di ripetere i passaggi indicati di seguito)
86
87
La statistica bivarita rispetto a quella univariata che si occupa di una sola variabile, è più complessa perché
rappresenta la relazione tra due variabili diverse quindi rappresenta due gruppi di punteggi. Una prima
distinzione da fare riguarda il tipo di relazione che possiamo stabilire tra le variabili oggetto di studio. La
presenza di covariazione o correlazione (che è la standardizzazione della covariazione) è una prima
indicazione che c’è una relazione ma non vuol dire che vi sia una causa. Il coefficiente di correlazione non ci
può dare questa informazione. Si risolve attraverso la verifica della significatività della relazione e nello
stabilire la forza della relazione di lavora sulle frequenze utilizzando ad esempio statistiche che possono
essere derivate anche dal chi-quadrato. Nell’interpretazione dei risultati ottenuti attraverso un’analisi
bivariata bisogna ricordare che questo tipo di analisi prende in esame due variabili alla volta non valutando
l’effetto di altre variabili. Se vi ricordate nel modulo 3 in cui parlavamo di variabile spuria ecc. La possibilità
di variabili moderative il modello bivariato può sempre risultare insufficiente per spiegare quelli che sono
fenomeni complessi come quelli psicologici.
Il coefficiente di correlazione misura solo l’entità di una relazione lineare e che quindi la possibilità che ci
siano altre relazioni anche dalla presenza di un punteggio di correlazione pari a 0.
88
Il coefficiente di correlazione come indice di analisi dei dati non veicola un’informazione fondamentale
ovvero quanta variabilità condividono le due variabili. Questo dato è fornito dal COEFFICIENTE DI
DETERMINAZIONE R-quadro. Può essere interpretato in questo modo: un coefficiente di
correlazione di 0,5 non significa che la metà della variabilità di Y è spiegata dalla sua relazione lineare con X
poiché la correlazione perfetta è uguale a 1. Una correlazione di 0,5 corrisponde ad un coefficiente di
determinazione R-quadro uguale a 0,25, cioè una proporzione di variazione comune spiegata dalla relazione
tra le due variabili del 25%. Quindi è corretto affermare che un quarto della variabilità di Y è spiegato dalla
sua relazione lineare con X.
C’è un altro valore che è 1-R-quadro che viene ad indicare la proporzione di variabilità di X e Y non spiegata
dalla loro relazione lineare ed è talvolta indicato come COEFFICIENTE DI ALIENANZIONE.
In questa immagine presa da Chiorri c’è illustrato il concetto di variabilità comune tra le due variabili. Per
l’interpretazione del coefficiente di determinazione ci sono delle indicazioni tendenziali come per il
coefficiente di correlazione. Di solito viene scelto 0,3 come valore di cut-off per l’interpretazione sostanziale
del coefficiente di correlazione dato che il valore del coefficiente di determinazione R-quadro corrispondente
è 0,09. Significa che le due variabili in esame hanno in comune almeno il 10% circa di variabilità che
rappresenta il minimo sindacale perché abbia senso considerare la relazione tra le variabili
89
Questi reattivi di personalità obiettivi si prefiggono di esplorare la personalità o nella sua globalità o in
qualche sua dimensione. La finalità è legata alla classificazione e creazione di tipologie. L’interpretazione dei
dati è di tipo quantitativa- qualitativa a differenza di test di rendimento.
Diversi tipi di strumentazione sono nati in riferimenti a diversi tipi di metodi.
Rispetto alla segmentazione basata su influenze culturali se mi focalizzo sul fatto che i test siano culture free
o specific ci saranno due estremi all’interno dei quali troviamo i test in base al fatto che siano più o meno
influenzati dalla cultura.
L’EPI (modello teorico con validazione sperimentale) si basa su costruzione dei reattivi in base a modello
teorico. Si parte da costituzione di fattori dal punto di vista teorico e poi si fa confronto con i risultati ottenuti
dal test per confermare il modello.
Rispetto ai test a banda stretta il Beck depression inventory misura depressione, che di tutte le condizioni
cliniche patologiche è quella su cui sono fatte più analisi. Fornisce strumenti per le varie considerazioni sullo
stato clinico dei soggetti. Critiche al modello è che le domande sono intrusive e generano ansia Inoltre è
relativamente costoso. Il vantaggio invece segnalato è la rapidità di somministrazione e l’ampia disponibilità
di ricerche esistenti con cui comparare dati. In generale per quanto riguarda la classificazione tutti questi test
differentemente da quelli cognitivi usano la scala T (Cioè non esistono punteggi negativi Z) e quindi è più
semplice comunicare al soggetto i risultati. Dal punto di vista della valutazione clinica si usano soglie Cut off
che danno livelli di rischio patologico validi per la cinica.
Modelli di test non cognitivi si distinguono in categorie che derivano dalla combinazione del tipo di
comportamento descritto negli item (patologico non patologico) e dal numero di caratteristiche o tratti di
personalità latente utilizzati per tracciare il profilo della personalità. Si parla di scale a bande strette o larghe
a seconda che ci siano poche o numerose caratteristiche prese in considerazione.
Esempi: Per quanto riguarda MMPI è un tipo di test a banda larga che si occupa di comportamento
patologico. Il CATTEL 16, sempre a banda larga, è molto utilizzato per la selezione del personale e riguarda
molti tratti ma pone enfasi su comportamenti e tratti non patologici al contrario del MMPI.
Si ottiene un profilo su 16 dimensioni, create statisticamente attraverso metodi di analisi fattoriale in base a
indici di controllo delle distorsioni delle risposte. È molto facile da somministrare. I 16 fattori creano un profilo
di personalità che può essere direttamente mostrato al soggetto. Lo svantaggio per chi somministra è che
alcuni fattori di personalità hanno nomi poco comprensibili e diventa difficile capire e spiegare cosa
significano. Alcuni di questi fattori non sono piacevoli da riportare al soggetto (come l’esplicitazione di
caratteristiche di insicurezza /di dipendenza dal gruppo…ecc. ) E’ molto utile perché permette di individuare
uno dei fattori dell’intelligenza (rapida)
Rispetto al MMPI, negli anni 40, l’ obiettivo che spinse a rivolgere la ricerca al di fuori della Formazione
scolastica (area privilegiata della testistica) era lo scopo empirico derivato da richieste dell’amministrazione
pubblica e militare, di individuare uno strumento di misurazione non cognitivo per le reclute che bisognava
esaminare (comprendendo quanti individui potevano essere giudicati inabili). Per questo si dovevano
somministrare batterie di test. Ci fu il questionario auto descrittivo che presuppone una certa consapevolezza
del modo di sentire, di come ci si comporta e di come ci si pensa oltre che capacità di esprimerlo attraverso
domande standard (item).
Tutt’ora utilizzato nell’ambito della psicometria (non vanno sottovalutati gli effetti distorsivi) , ma per quanto
sia standardizzato non c’è certezza controllata rispetto ai test autosomministrati in quanto può non esserci
corrispondenza tra le risposte del partecipante o soggetto rispondente e la realtà perché non siamo sicuri ci
sia corrispondenza tra ciò che prova e ciò che dice. Potrebbe distorcere risposte per dare un’immagine più
positiva oppure più negativa di sé per risultare inabile ad esempio (fingersi peggiori). Tra gli effetti distorsivi
del soggetto ci può essere la tendenza a rispondere sempre una stessa risposta, oppure alcuni soggetti non
usano mai gli estremi ma sempre i valori mediati, oppure la desiderabilità sociale (risposte approvate).
Queste sono fonti di validità interne intrinseche controllate attraverso le strategie come inserimento di item
con frequenza di risposta pertanto se soggetti ottengono un punteggio positivo di questi item allora c’è
sospetto sulla qualità delle risposte.
Ne è un esempio l’inserimento di item di contenuto opposto o in contrasto che mettono in evidenza la
incoerenza delle risposte, oppure la tendenza a rispondere sempre in positivo (acquiescenza).
Attraverso questi accorgimenti è stato possibile ottenere punteggi che sono informativi della personalità.
90
L’MMPI necessitò di una revisione in quanto diventa difficile col passare del tempo utilizzare strumenti fissati
non aggiornati perché ci sono cambiamenti nel tempo che influenzano la descrizione nosografica della
sintomatologia clinica. È pertanto difficile creare strumenti che individuino caratteristiche costitutive della
personalità sebbene questi test puntino proprio ad un approccio di questo tipo = creazione di invarianti di
personalità che vengono successivamente incluse all’interno di scale.
MMPI 2 Si è operata una revisione perché nella pratica clinica si sono riscontrati dei problemi cioè i punteggi
sembravano non poter adempiere alla funzione di fare diagnosi. Diventava difficile fare valutazione sulle
scale diverse per inadeguatezza del campionamento che già originariamente era ristretto, costituito da
visitatori amici parenti di pazienti in gran parte bianchi. Era un campione più di convenienza che normativo
è già in fase iniziale era poco rappresentativo. Inoltre c’erano problemi dovuti al linguaggio (contenuto di
item) e riferimenti a elementi non più di uso quotidiano (linguaggio sessista): la formulazione del linguaggio
degli item creava disaccordo. Inoltre il set originario non era così ampio. Questa esigua numerosità si
riflettevano nell’ incorretta valutazione delle caratteristiche necessarie ad un Assessment psicopatologico.
Esempio: pochi item riguardavano il tentativo di suicidio, dipendenza da alcol e comportamenti correlati.
Negli anni 70 si assiste alla revisione a seguito della necessità di raccogliere e svolgere un lavoro certosino
che costò l’impegno di numerose risorse per oltre 10 anni.
Nel 1982 si cominciò una frase di standardizzazione del MMPI-2
Rappresenta un esempio di come test devono subire manutenzione continua. Il controllo e la
standardizzazione dello strumento è passata attraverso:
- Sostituzione item obsoleti / offensivi e di difficile comprensione
- Ampliamento del campione,più rappresentativo
- Mantenere continuità con scale cliniche originali, in modo da permettere a coloro che interpretavano
il test di fare affidamento su esperienza pregressa.
91