Documenti di Didattica
Documenti di Professioni
Documenti di Cultura
1
errori sistematici o bias, invece, sono errori di direzione ed entità costanti o quasi, e in alcuni casi sono
associati solo a certi valori della variabile.
1.3.2 Le strategie di ricerca
Le strategie di ricerca sono modalità sistematiche di raccolta di informazioni, che possono portare al
modo più idoneo a rispondere al problema affrontato. Possono essere:
- Descrittive, che permettono di descrivere il comportamento di persone o animali in
determinati contesti, basandosi sull’osservazione sistematica. Questo tipo di strategia non
permette di identificare le cause o le ragioni delle variazioni di un certo comportamento. Tra
queste si trovano i questionari e le inchieste. Nel momento in cui i dati descrittivi raccolti
vengono codificati su scale numeriche, le ricerche basate su questionari e inchieste possono
entrare a far parte anche di ricerche correlazionali.
- Correlazionali che, come le precedenti, osservano determinati fenomeni senza creare
modifiche. Misurano quantitativamente alcune variabili che possono essere rilevanti per i
fenomeni studiati, per stabilirne il grado di associazione reciproca (tramite il coefficiente di
correlazione).
- Sperimentali, che comprendono osservazioni sistematiche e misurazioni, ma prevedono anche
la modificazione volontaria e controllata dei valori assunti da alcune variabili. Il disegno
sperimentale (il progetto dell’esperimento), dichiara quali variabili devono essere manipolate in
qualità di potenziali cause (variabili indipendenti) e su quali variabili ci si attende un effetto
(variabili dipendenti); la relazione tra questi tipi di variabili indica una possibile relazione causa-
effetto. In molti casi si utilizzano disegni sperimentali fattoriali, in cui lo sperimentatore
manipola contemporaneamente più variabili indipendenti, dette fattori, per cui devono esistere
condizioni sperimentali separate per ogni possibile combinazione dei livelli delle variabili
indipendenti di interesse (disegno ortogonale). Quando uno studio prevede alcune variabili
manipolate non dallo sperimentatore, ma dalla natura fisica o sociale, prende il nome di quasi-
esperimento. L’esperimento dovrebbe essere costruito in modo che gli unici elementi a variare
siano le variabili indipendenti e le reazioni dei partecipanti, per questo il concetto fondamentale
del metodo sperimentale è quello del controllo. Spesso non è possibile esercitare un controllo
completo, quindi si è esposti a rischi di validità o affidabilità.
1.3.3.1 I tipi di validità e di minacce alla validità
Esistono diversi tipi di validità:
- Validità interna, che riguarda la relazione tra variabili dipendenti e indipendenti; una minaccia
per questo tipo di validità è il poter confondere altre variabili che possono covariare
parallelamente alla variabile indipendente con la variabile indipendente da prendere in
considerazione.
- Validità di costrutto, che riguarda la relazione tra i risultati e la teoria; per aumentare questa
validità è necessaria la corretta definizione operazionale delle variabili. La scelta di
un’operalizzazione diversa dello stesso costrutto porterà a risultati e conclusioni diverse, quindi
potrebbero essere necessari nuovi esperimenti operazionalizzando le stesse variabili teoriche in
modi diversi.
- Validità esterna, che riguarda l’estensione dei risultati di una ricerca ad altre situazioni. Per
rendere possibile una validità esterna è importante selezionare un sufficiente campione di
partecipanti, rappresentativo rispetto alle popolazioni di interesse.
- Validità statistica, che è legata sia alla validità interna che a quella esterna. Per aumentare
entrambe le validità, gli esperimenti vanno condotti su vasti campioni di osservazioni. Nella
statistica sono possibili cause dipendenti dal caso o meno, e per distinguere se la variazione
osservata nella variabile dipendente sia attribuibile al caso o agli effetti della variabile
indipendente si utilizzano le tecniche di statistica inferenziale.
2
1.3.3.2 Il controllo
Il tentativo di ridurre le minacce alla validità coincide con l’aumento del grado di controllo
sperimentale: lo sperimentalista deve cercare di limitare il più possibile l’effetto delle diverse sorgenti di
variabilità per cercare di aumentare la precisione delle previsioni.
Un elemento fondamentale di un disegno sperimentale corretto è la definizione di un giusto punto di
paragone con cui confrontare gli effetti di una variabile indipendente.
Facendo un esperimento su un gruppo di persone, chiamato gruppo sperimentale, è molto utile
“utilizzare” un gruppo di controllo, con partecipanti selezionati a caso dalla stessa popolazione dei
partecipanti al gruppo sperimentale, e che verrà sottoposto ad un trattamento diverso o a nessun
trattamento rispetto agli altri, per vedere se i risultati dell’esperimento saranno uguali o differenti per i
due gruppi. La differenza tra le risposte è chiamata punto di paragone o linea di base.
1.3.3.4 Le variabili di disturbo
Quando una variabile non di interesse per l’esperimento può influenzarne ugualmente i risultati è detta
variabile di disturbo. Questa non correla con la variabile indipendente, ma può comunque avere effetti
sulla variabile dipendente. Uno dei metodi per neutralizzare le variabili di disturbo è trattarle come vere
e proprie variabili indipendenti, bilanciandole tra ed entro i soggetti.
1.3.3.5 Gli effetti delle aspettative
Il sapere di far parte di un esperimento, sia da parte del partecipante che dello sperimentatore, può
influenzare gli effetti delle variabili indipendenti; questo costituisce una delle più grandi minacce alla
validità di un esperimento psicologico.
L’effetto delle aspettative del partecipante riguarda il fatto che sa che sta prendendo parte ad un
esperimento, quindi di essere osservato, e questo può influenzare il suo comportamento (effetto
Hawthorne). Visto che non informare i partecipanti del fatto che stiano prendendo parte ad un
esperimento è vietato da regole etiche, in alcuni casi può essere molto utile informarli dell’esperimento,
ma non dire loro se faranno parte del gruppo sperimentale o del gruppo di controllo (procedura a
singolo cieco).
Inoltre, ci sono situazioni in cui è importante tenere all’oscuro anche gli sperimentatori, per impedire
che interpretino i risultati come in linea con le previsioni (tendenza alla conferma), o che influenzino i
partecipanti a reagire nel modo previsto (effetti Rosenthal o effetti delle aspettative dello
sperimentatore)
3
1.3.4 Esaminare i risultati di una ricerca
Vista la variabilità del comportamento umano, la psicologia individua leggi probabilistiche e non
deterministiche, cercando regolarità statistiche, che vengono espresse con nessi probabilistici tra eventi
e comportamenti. I risultati di ogni ricerca, quindi, sono un insieme di misurazioni numeriche che deve
essere elaborato statisticamente, dopodiché sarà possibile verificare se i risultati supportano o
confutano le ipotesi iniziali.
Per l’analisi dei risultati si utilizzano prima di tutto le statistiche descrittive, cioè procedure
matematiche utili per descrivere i risultati in modo sintetico.
Poi si utilizzano le tecniche statistiche inferenziali, che servono a stimare quanto sia probabile che
una differenza di una certa entità tra le condizioni si presenti per puro caso.
1.3.4.1 Le statistiche descrittive
Una classe di misure descrittive è quella delle misure di tendenza centrale: la più comune è la media
aritmetica, che è utile anche per altre statistiche; viene utilizzata anche la mediana, utile per individuare
il valore del punto centrale in una scala di valori ordinati.
Le misure di tendenza centrale, però, non distinguono tra situazioni ad alta o bassa variabilità, quindi è
importante anche rappresentare la variabilità all’interno del gruppo utilizzando le misure di variabilità,
che sono misure di dispersione che indicano in quale grado un insieme di valori numerici differisce
internamente: la più utilizzata in psicologia è la deviazione standard, che serve a stabilire se la
differenza tra due medie tratte da due campioni sia probabilmente dovuta al caso oppure no; un altro
parametro è la varianza, che è il quadrato della deviazione standard.
1.3.4.2 Le statistiche inferenziali
I metodi della statistica inferenziale ci permettono di stimare se una differenza osservata sia un
affidabile segno di efficacia della variabile indipendente sulla variabile dipendente.
La statistica inferenziale è un insieme di procedure matematiche, tra le quali la più diffusa è l’analisi
della varianza (ANOVA); uno dei risultati di queste procedure è un valore di probabilità (p), che
corrisponde alla probabilità che la differenza osservata tra due medie possa essere dovuta al caso.
Il valore di p non è mai nullo, cioè non avremo mai l’assoluta certezza che la differenza osservata
indichi un reale effetto della variabile indipendente sulla variabile dipendente, e non un intervento del
caso (artefatti) ; ma più il valore di p è basso (in psicologia α <0,05 – 5% la differenza è detta
statisticamente significativa), più la differenza viene imputata alla manipolazione della variabile
indipendente, e in questo caso il nostro approccio sarà conservativo (tenderemo a non accettare
risultati che non siano davvero affidabili).
Il rischio degli errori di primo e secondo tipo, la grande variabilità dei risultati e tutte le ricerche che
sono state condotte per esplorare i fenomeni maggiormente di rilievo per le principali teorie, hanno
consentito la comparsa di sempre più numerose meta-analisi, cioè tecniche statistiche che accettano
come input i parametri statistici che hanno descritto i risultati di molte precedenti ricerche su un certo
argomento; analizzandoli tutti insieme la meta-analisi riesce a stabilire se il fenomeno sia davvero
affidabile, o se costituisca un probabile artefatto.
4
- Implementazione hardware, che studia come realizzare fisicamente la rappresentazione e
l’algoritmo. Quindi, una volta capito quali funzioni ha un processo psicologico (1° livello), e una
volta ipotizzata e descritta una procedura formale in grado di svolgere quelle funzioni (2°
livello), potremmo chiederci quali meccanismi fisiologici, nel corpo umano, consentano di
svolgere quella procedura.
1.4.2.2 I modelli computazionali
Quando è possibile, è preferibile esporre almeno i punti da cui derivano le previsioni di una teoria con
la matematica, per non rischiare che teorie descritte solo con il linguaggio naturale vengano
reinterpretate erroneamente.
Un modo speciale, per formalizzare matematicamente una teoria psicologica è costruire una
simulazione computerizzata dei meccanismi e processi che postula; queste simulazioni si chiamano
modelli computazionali.
Tre tipologie di modelli computazionali sono:
- Modelli basati su sistemi di regole di produzione, che consiste nell’associazione tra una
qualche condizione e una qualche conseguenza (o azione). Ogni azione e ogni condizione è una
rappresentazione elementare di una caratteristica ambientale, o conoscenza, o azione. I sistemi
di produzioni sonio architetture cognitive che possono avvalersi di decine di migliaia di
produzioni, intrinsecate tra loro in schemi gerarchici, che agiscono all’unisono in modo ciclico e
possono generare autonomamente nuove produzioni;
- Modelli connessionisti, che si ispirano all’architettura distribuita e interconnessa del cervello.
Le rappresentazioni che usano sono distribuite come vettori di attivazione su più “nodi”; i
modelli più classici prevedevano almeno tre strati di nodi (input, hidden o nascosto, output). Il
peso della connessione tra due nodi indica “quanta parte” dell’attivazione del nodo dello strato
precedente contribuisce all’attivazione del nodo dello strato successivo. Questi modelli si
autostrutturano per imparare a computare in modalità distribuita la funzione che desideriamo
simulare. Vengono presentati diversi stimoli (vettore input), ognuno dei quali diffonde la sua
attivazione nella rete attraverso il vettore hidden, fino al vettore output, che ha come pattern di
azione la risposta a quegli stimoli. Se la risposta non è quella desiderata, un algoritmo detto
regola delta calcola la differenza tra il vettore output effettivo e quello atteso per la risposta
corretta.
- Modelli con agenti artificiali, con cui si programmano alcuni “individui virtuali” con le
funzioni comportamentali cui siamo interessati, poi si programma anche un modello
dell’ambiente in cui devono interagire e si lasciano, così, liberi di interagire. Alla fine della
simulazione si analizzano i risultati e si può verificare se sono emersi o meno i comportamenti e
le caratteristiche che prevede la nostra teoria.
CAP 4. LA PERCEZIONE
4.1 Introduzione
La percezione è l’insieme dei processi grazie ai quali, a partire da stimolazioni sensoriali, otteniamo
informazioni sull’ambiente e guidiamo le azioni.
Questi processi iniziano con la codifica delle informazioni derivanti dall’ambiente esterno, sulla quale la
nostra mente forma una sua interpretazione.
5
Il percetto è l’esito finale della catena, cioè ciò che vediamo.
4.2.2 Il ciclo percezione-azione
Il ricercatore che ha cercato di chiarire al meglio la natura ciclica della percezione è stato James Gibson,
secondo cui la percezione non è una sequenza unidirezionale di eventi, come nella psicofisica, ma un
processo ciclico: interpretando gli stimoli in ingresso (input), gli organismi producono
rappresentazioni coscienti dell’ambiente esterno (percetti); le rappresentazioni vengono utilizzate per
guidare i movimenti esplorativi, grazie ai quali si rendono disponibili nuovi stimoli prossimali, che
possono risultare in nuovi percetti e così via.
Attività esplorative
6
BOX. L’importanza del movimento come attributo percettivo
Il movimento è efficace nella cattura dell’attenzione ed è anche un potente indizio di
tridimensionalità (Wertheimer indicava il principio del destino comune nei suoi “principi di
unificazione figurale”).
Utilizziamo il termine “structure from motion approach” per riferirsi al fatto che una figura si
forma grazie al movimento delle singole parti, ma anche al processo per il quale la struttura
tridimensionale di un oggetto viene recuperata o ricostruita tramite il suo movimento.
Il movimento è anche legato all’azione: le stesse aree corticali coinvolte nell’analisi percettiva del
movimento, si attivano di fronte a immagini statiche che raffigurano oggetti in movimento
(movimento implicito). Se vediamo la raffigurazione di un essere umano in movimento si attivano
le aree corticali coinvolte nella produzione del movimento (neuroni specchio).
Il movimento è anche caratterizzato da qualità che consentono di vedere le “intenzioni” del
movimento stesso (minaccioso, rilassato, incerto, insicuro ecc.)
4.3.4 Riconoscere
Riconoscere gli oggetti significa attuare un collegamento tra l’informazione in ingresso e le
rappresentazioni che definiscono categorie concettuali nella memoria a lungo a termine; attraverso
questa categorizzazione, la percezione permette l’accesso all’etichetta verbale e alla conoscenza
semantica dell’oggetto, quindi anche delle sue funzioni.
Secondo Marr e Biederman, il riconoscimento avviene grazie a processi che generano una descrizione
strutturale dell’oggetto: gli oggetti sarebbero composti di parti che hanno una struttura che può essere
descritta da un numero limitato di primitive volumetriche, i geoni.
7
Il modello di Biederman prevede due caratteristiche del riconoscimento degli oggetti:
- Siamo in grado di riconoscere con facilità oggetti da molti punti di vista diversi grazie alle
proprietà che rimangono disponibili nonostante le variazioni del punto di vista.
- Falliamo quando gli oggetti sono presentati da punti di vista inusuali.
Un altro modello importante è quello di Gibson, che si riferiva al fatto che per imparare a riconoscere,
alcuni aspetti del significato e delle funzioni di un oggetto dovrebbero essere rilevabili senza attivare
rappresentazioni semantiche, ma solo grazie alla relazione tra le caratteristiche dell’oggetto e il corpo del
percipiente. A questo concetto si riferiva con il termine Affordance (to afford, rendere disponibile),
con il quale intendeva la “disponibilità a subire una certa azione” che l’informazione prossimale indica.
8
la propensione al rischio del partecipante (il soggetto più propenso al rischio tende a rispondere
“presente” anche con un grado di sicurezza basso, mentre il soggetto meno propenso al rischio tende a
rispondere “assente”). I partecipanti si dividono anche in più sensibili e meno sensibili.
9
modello bayesiano, il sistema percettivo incorpora delle aspettative su regolarità statistiche che
caratterizzano oggetti, ambiente e le nostre attività eplorative.
CAP 5. L’ATTENZIONE
5.1 Che cos’è l’attenzione?
L’attenzione riguarda una varietà di fenomeni psicologici diversi fra loro, ma viene considerata
generalmente come un processo mentale che ci permette di elaborare consapevolmente una parte
limitata di informazioni, selezionandole tra tutti gli stimoli che percepiamo attraverso i sensi; ma
l’attenzione può essere rivolta anche su ricordi o pensieri.
Con il termine attenzione ci si riferisce anche alle risorse mentali o cognitive che un individuo ha a
disposizione per l’elaborazione delle informazioni e l’esecuzione di azioni; e serve anche al controllo e
all’integrazione tra più tipi di informazione per permetterci di agire nel nostro ambiente nel modo e nel
momento giusto in tutte le modalità sensoriali.
10
Ma il messaggio a cui non viene prestata attenzione non viene totalmente ignorato: i soggetti sono in
grado di riferire cambiamenti di voce in base al sesso, al tono o altri cambiamenti sensoriali, ma non
viene afferrato il significato o il cambio di lingua.
Questi risultati evidenziarono la capacità limitata di elaborazione dell’informazione del sistema
cognitivo e portarono a sviluppare i primi modelli dell’attenzione, che ipotizzano la presenza di un filtro
che seleziona parte dell’informazione e si trova tra l’input sensoriale (lo stimolo) e l’output
comportamentale (la risposta).
Broadbent ha proposto l’esistenza di un filtro subito dopo i registri sensoriali (selezione precoce), che
seleziona l’informazione in entrata sulla base di un’analisi sensoriale e/o percettiva, e l’informazione
non rilevante decade passivamente in pochi secondi (tutto o nulla).
Treisman propose un altro esperimento (shadowing): due messaggi diversi contemporaneamente, uno
ad un orecchio e uno all’altro, poi a metà frase i messaggi venivano invertiti → i soggetti ripetevano
erroneamente la parola presentata nell’orecchio disatteso subito dopo l’inversione, prima di ripetere di
nuovo il messaggio dell’orecchio atteso (affioramento o intrusione).
Es: riportare il messaggio nell’orecchio destro. I messaggi erano “John ha fatto canestro e il suo punto è
stato decisivo per la partita”, “Giovanna canta meravigliosamente, ma suona il piano in modo
incredibile”. A metà della frase i messaggi venivano invertiti, orecchio destro “John ha fatto canestro,
ma suona il piano in modo incredibile”, orecchio sinistro “Giovanna canta meravigliosamente, e il suo
punto è stato decisivo per la partita”, i soggetti ripetevano “Giovanna canta meravigliosamente, e il suo
punto è stato decisivo per la partita”.
Treisman, quindi propose una modifica della teoria di Broadbent con la teoria dell’attenuazione o del
filtro attenuato (il filtro attenua, ma non blocca, l’accesso all’informazione non selezionata): ogni
parola ha un proprio livello di soglia, che se viene superata la parola viene ripetuta, anche se è
presentata nel canale disatteso; le soglie sono caratterizzate da due proprietà, possono variare da parola
a parola, e possono essere momentaneamente abbassate dalle aspettative del soggetto (effetto del
contesto).
Duncan, invece, propose che il filtro si trova dopo i processi percettivi e prima della risposta, nella fase
decisionale (selezione tardiva): il sistema analizza tutta l’informazione, se l’informazione è rilevante
passa dal filtro.
5.2.2 L’attenzione visiva spaziale
Quando la selezione di informazioni riguarda la modalità visiva, si parla di attenzione spaziale.
5.2.2.1 L’orientamento manifesto e l’orientamento implicito
Possediamo due modalità di orientamento dell’attenzione: orientamenti manifesto (overt), che
coinvolge il movimento degli occhi; orientamento implicito (covert), con cui ci si focalizza in certe parti
del campo visivo e si elaborano di più rispetto ad altre, senza però muovere gli occhi o lo sguardo.
5.2.2.2 L’orientamento volontario e l’orientamento automatico
In genere siamo noi a decidere dove e a cosa rivolgere la nostra attenzione, ma questa può orientarsi
anche in modo automatico.
Due tipi di stimoli diversi innescano due tipi di orientamento diversi: gli stimoli che guidano
l’orientamento volontario sono gli stimoli endogeni (o centrali), quelli che guidano l’orientamento
automatico sono stimoli esogeni (o periferici).
Michael Posner ha proposto “il paradigma del suggerimento spaziale” o “paradigma di Posner”: un
soggetto viene posto davanti ad uno schermo, dove compare un punto centrale (punto di fissazione) su
cui deve mantenere lo sguardo; ai lati del punto di fissazione appaiono due cornici quadrate; il soggetto
deve rispondere più velocemente possibile alla comparsa di un bersaglio (target), premendo un tasto;
vengono registrati i tempi di risposta; prima della comparsa del target, uno stimolo centrale endoogeno
suggerisce in quale cornice è più probabile che compaia il target (cue o indizio); il soggetto sa che la
maggior parte delle volte il target compare veramente nella posizione indicata dal cue (prove valide), e
in una percentuale minore compare in un’altra posizione (prove invalide), in alcuni casi il cue non
11
segnala niente (prove neutre); i soggetti rispondono più velocemente alle prove valide, poi a quelle
neutre e poi a quelle invalide.
Il fatto che le prove valide siano più veloci viene interpretato come prova del fatto che il soggetto è
stato in grado di spostare in anticipo la sua attenzione nella posizione indicata dal cue. La differenza tra
i tempi di risposta alle prove invalide e quelli delle prove valide è detta effetto di validità.
Questo paradigma illustra anche che l’attenzione può essere orientata in modo automatico e dal fatto
che il cue possa fornire informazioni utili sulla posizione di comparsa del target: viene presentato un
cue periferico (esogeno), come un flash in una cornice, in questo caso lo stimolo non fornisce nessuna
informazione affidabile sulla posizione di comparsa del target; il soggetto sa che il cue è irrilevante; se il
soggetto fosse in grado di ignorare il cue, la sua prestazione non dovrebbe essere influenzata. I risultati
dimostrano, però, che i tempi di risposta per le prove valide sono minori rispetto alle prove invalide,
quindi lo stimolo esogeno ha attratto e orientato su di sé l’attenzione del soggetto automaticamente.
L’orientamento volontario è più lento e il suo effetto di validità dura più a lungo di quello
dell’orientamento automatico. Ci sono casi, inoltre, per quanto riguarda l’orientamento automatico, in
cui l’intervallo tra la comparsa dello stimolo esogeno e la presentazione del target è molto breve e si
verifica un’inversione dell’effetto di validità, quindi le prove invalide sono più brevi di quelle valide.
Questo fenomeno è chiamato inibizione di ritorno, che ha la funzione di evitare che l’attenzione
ritorni su posizioni del campo visivo già esplorate, facilitando così l’esplorazione di posizioni spaziali
non ancora visitate e potenzialmente interessanti.
L’orientamento automatico agisce come un riflesso, quello volontario ci permette di selezionare
intenzionalmente gli stimoli che sono rilevanti per raggiungere scopi.
È possibile evitare di farsi distrarre dalla comparsa di uno stimolo che entra improvvisamente nel
nostro campo visivo quando siamo volontariamente a fare altro: è la situazione contingente, cioè il
contesto (mental set) in cui ci si trova a controllare l’orientamento dell’attenzione. Non tutti gli stimoli
inaspettati sono in grado di catturare automaticamente la nostra attenzione, ma solo quelli rilevanti per
gli scopi del momento, però possiamo essere distratti da stimoli che, anche se irrilevanti, hanno
caratteristiche contestualmente rilevanti per il mio compito (cattura contingente dell’attenzione).
5.2.2.3 La ricerca visiva
Nella vita quotidiana non è sempre subito evidente ciò a cui siamo interessati in un dato momento,
quindi è necessario utilizzare l’attenzione selettiva per identificare le particolari caratteristiche che sono
proprie dell’oggetto che cerchiamo.
Per questo è stato creato il paradigma della ricerca visiva, che serve a determinare da cosa dipende il
modo di spostarsi dell’attenzione sui vari elementi della scena e cosa distingue una ricerca facile da una
difficile: i soggetti devono individuare un target in mezzo ad altri distrattori (la dimensione dell’insieme
è variabile), e devono premere un pulsante per la presenza del target e uno per l’assenza di questo.
I tempi di risposta dipendono dalle caratteristiche che distinguono il bersaglio dai distrattori. Quando
almeno una caratteristica è presente nel bersaglio ma non nei distrattori, la ricerca è più veloce e la sua
durata non dipende dal numero di elementi presenti; in caso di assenza del bersaglio i tempi di risposta
sono più lunghi; quando il bersaglio ha due caratteristiche, che sono presenti anche nei distrattori, il
bersaglio è più difficile da distinguere → in questo caso è necessaria una ricerca di congiunzioni di
caratteristiche, perché solo considerare insieme le caratteristiche possono discriminare il bersaglio dai
distrattori; in questo caso il tempo di risposta è proporzionale alla dimensione dell’insieme.
Per spiegare questi risultati, Anne Treisman ha proposto la teoria dell’integrazione delle caratteristiche,
secondo cui il processo di identificazione del bersaglio avviene in due stadi:
- la codifica delle caratteristiche elementari che diversificano gli oggetti di una scena, ognuna in
una mappa mentale, senza l’intervento dell’attenzione;
- l’unificazione delle informazioni relative alle varie caratteristiche di ogni oggetto, per costruire il
percetto di essi, per questo processo è necessaria l’attenzione, che viene spostata da oggetto a
oggetto.
12
5.2.2.4 L’attenzione “basata sugli oggetti”
Fin qui l’attenzione si è basata solo sullo spazio, ma esiste anche una teoria alternativa, che sostiene che
l’attenzione seleziona gli oggetti presenti nel nostro campo visivo e non porzioni di spazio per sé.
In un esperimento di Duncan, dove erano presenti due figure una sopra all’altra (una linea tratteggiata e
un rettangolo con apertura), venivano fatte due domande ai soggetti: se entrambe le domande erano
rivolte allo stesso oggetto, i soggetti rispondevano più accuratamente; se le domande erano riferite
ognuna a un oggetto diverso, le risposte erano meno accurate.
In base a questo, gli autori sostenevano che la perdita di accuratezza nella risposta sia dovuta alla
necessità di spostare l’attenzione da un oggetto all’altro; secondo questa teoria, quindi, l’attenzione
opererebbe sugli oggetti e non sulle posizioni spaziali.
Per i teorici che sono a favore dell’idea che l’attenzione sia basata solo sullo spazio, tipo Eriksen, è
valido il paradigma del flanker (fiancheggiare), in cui sono presentate delle lettere ai soggetti, che
devono rispondere in base all’identità della lettera centrale trascurando quelle ai lati; quindi i soggetti
devono, ad esempio, premere il pulsante destro, se la lettera è un X o una F, e il tasto sinistro, se la
lettera è una Y o una H. Facendo riferimento alla metafora del fuoco attentivo o dello zoom lens,
Eriksen sostiene che l’attenzione può mettere a fuoco una porzione di spazio, di circa un grado, e
analizzare l’informazione che contiene; se in questo spazio rientra solo la lettera centrale non c’è
interferenza, se invece ci rientrano più lettere, possono interferire tra loro: se sono presenti lettere che
richiederebbero una risposta diversa da quella centrale, il tempo di risposta aumenta.
Per i teorici che sono a favore dell’attenzione basata sugli oggetti, come Driver e Baylis, se lettere
lontane tra loro vengono unite percettivamente (utilizzando la legge della somiglianza o del destino
comune, della Gestalt), i risultati non sono spiegabili dall’idea che l’attenzione selezioni solo certe
porzioni di spazio, infatti utilizzando una versione modificata del paradigma del flankers, ottennero che
l’effetto di interferenza maggiore si ottiene nel caso in cui i distrattori sono più lontani dalla lettera
centrale, ma raggruppati percettivamente con questa.
13
Un altro esempio di elaborazione automatica dell’informazione riguarda il recupero del significato delle
parole, quindi l’automaticità del processo di lettura: se dobbiamo individuare il colore dell’inchiostro
con cui è stata scritta una parola, la risposta è più veloce nel caso in cui il significato della parola
coincide con il suo colore (parola “blu” scritta con il blu), la risposta è più lenta nel caso in cui i due
non coincidano. Questa interferenza è l’effetto Stroop, che indica come sia difficile ignorare il nome e il
significato delle parole scritte, perché questi vengono recuperati automaticamente dalla memoria.
Per distinguere se un processo o un’azione siano automatici, Schneider e Shiffrin spiegarono che sono
automatici i processi che vengono svolti senza l’intervento consapevole del soggetto e che non
richiedono un suo controllo attento; questi si svolgono molto rapidamente e possono essere eseguiti
insieme ad altre operazioni o azioni; sono modificabili solo nel lungo periodo e dopo molte esperienze.
I processi controllati, invece, richiedono risorse attentive e possono essere eseguiti bene solo uno alla
volta serialmente; la loro esecuzione è più lenta, ma possono essere modificati nel breve periodo, per
cercare di adattarsi ad ambienti e situazioni nuove.
Molti dei processi controllati possono essere automatizzati grazie alla pratica e all’esercizio e possono
essere appresi e svolti successivamente senza l’intervento dell’attenzione. Secondo Logan, questa
automatizzazione avviene tramite un meccanismo di tipo associativo: la pratica di uno stimolo fa sì
che vengano immagazzinate sempre più informazioni su quello stimolo e ciò permette un recupero
veloce delle informazioni relative a questo. Quindi, la prestazione diventa automatica quando si basa sul
recupero immediato e diretto di soluzioni pregresse contenute in memoria.
CAP 6. LA MEMORIA
6.1 La memoria (introduzione)
Un’informazione, per diventare una traccia mnestica ed essere conservata in memoria attraversa 3 fasi:
- fase di codifica, cioè viene rappresentata in un qualche codice, che può essere fonologico
(ricordi esperiti come parole o discorsi interni), e iconico o spaziale (ricordi sotto forma di
immagini mentali)
- fase di mantenimento, in cui l’informazione viene conservata, più o meno a lungo, in un
“magazzino” o “spazio mentale”
14
- fase di recupero, perché le memorie devono consentire di rievocare le informazioni
immagazzinate.
Atkinson e Shiffrin proposero un modello in cui distinguevano tra memorie sensoriali, che contengono
molte informazioni non elaborate e preservate per pochissimi millisecondi; memorie a breve termine,
con un contenuto di informazioni più limitato (Miller 7 più o meno due), ma preservato qualche decina
di secondo, al massimo, in mantenimento passivo; e le memorie a lungo termine, utili a preservare, e
rendere disponibili al recupero in memorie a breve termine, tutte le informazioni apprese.
In pratica, la memoria è paragonata ad un imbuto strettamente legato al tempo: nella bocca dell’imbuto
vengono registrate moltissime informazioni che vengono conservate per pochissimo tempo; poi
l’imbuto si restringe e grazie ai filtri attentivi, solo poche informazioni accedono alle memorie a breve
termine, dove rimangono un po’ di più; infine l’imbuto si restringe ancora e pochissime delle
informazioni che hanno attraversato la parte superiore vengono codificate nelle memorie a lungo
termine, e qui rimangono per anni o per tutta la vita.
I ricordi e le conoscenze ci servono per fare piani e previsioni e per meglio adattarci all’ambiente.
In questo caso esiste un altro imbuto, capovolto: creiamo molte aspettative, molto precise sul
brevissimo periodo; meno aspettative e meno precise, se pensiamo ad un futuro un po’ più distante; e
poi le previsioni diventano più scarse e imprecise nel lungo periodo.
Questo secondo imbuto è presente grazie all’elaborazione attiva delle informazioni presenti nel primo,
grazie al ragionamento, e i suoi contenuti sono depositati nella memoria prospettica, che si riferisce,
invece al futuro.
Dagli anni ’70, si cominciò a considerare la memoria a breve termine come uno “spazio mentale”
dove lavoriamo, dove cioè le informazioni provenienti dai sensi e dalle memorie a lungo termine
forniscono la base per tutti gli altri processi cognitivi; e che l’imbuto è paragonabile, non solo al tempo,
ma più che altro dal tipo e dalla quantità di elaborazione cui vengono sottoposte le informazioni.
Anche la capienza della memoria a breve termine dipende dal tipo di elaborazione: materiale più
strutturato e ordinato offre più appigli per un efficiente mantenimento e recupero, quindi è come se
occupasse meno spazio in memoria. Da ciò nacque il modello della memoria di lavoro.
15
che coordina le risorse attentive disponibili per l’elaborazione delle informazioni preservate nei sistemi
di mantenimento passivo. Il buffer episodico, l’ultima aggiunta, nasce per specificare dove e come
avviene l’incontro tra nuovo materiale e informazioni già presenti nella memoria di lavoro.
L’ipotesi è che nel buffer episodico avvenga il processo di binding (“legatura”), cioè la generazione di
legami tra i sistemi più specializzati del modello per dar luogo alla multidimensionalità delle
informazioni.
Sistema
esecutivo
centrale
16
Entrambe sono coinvolte nell’apprendimento della lettura, intesa come capacità di tradurre
velocemente il grafema-sillaba-parola nei suoi suoni corrispondenti.
Inoltre, la consapevolezza fonologica misurata in età prescolare è un predittore importante
dell’apprendimento della lettura. Training mirati ad aumentare la consapevolezza fonologica hanno
ricadute positive sull’apprendimento della lettura.
6.2.2 Memoria di lavoro e comprensione del linguaggio
Meredith Daneman e Patricia Carpenter hanno ideato il Reading/Listening Span Test per trovare una
correlazione tra una misura di memoria e l’abilità di comprensione di ciò che si legge.
Consiste in un compito di memoria che richiede di elaborare molte informazioni verbali, ma di
conservarne in memoria solo alcune: nel test per bambini, ad esempio, i soggetti devono prima
giudicare il significato semantico di due frasi (ad esempio se sono vere o false) e successivamente
ricordare l’ultima parola di ogni frase, rispettando l’ordine di presentazione. Il test costituisce, quindi,
un doppio compito per la memoria di lavoro, ed è in grado di cogliere le associazioni tra la memoria e
compiti complessi di apprendimento e ragionamento. Misurando così l’efficienza della memoria di
lavoro, questa può essere intesa come una variabile importante per molte patologie dell’apprendimento,
in particolare per apprendimenti complessi: ad esempio, lettori con difficoltà di comprensione del testo,
ma senza problemi di decodifica della lettura, mostrano prestazioni deficitarie al test Reading/Listening
Span Test: ad esempio, è possibile la presenza di intrusioni, cioè il ricordare come ultima parola una
parola che, invece, era all’interno del testo.
Un corretto ed efficiente funzionamento della memoria di lavoro richiede l’abilità di controllare
l’interferenza delle informazioni elaborate per il compito di comprensione, ed irrilevanti per il compito
di mantenimento, attraverso meccanismi di inibizione dell’attivazione.
Le intrusioni indicano anche una cattiva capacità di inibizione e si possono osservare in bambini con
problemi di comprensione del testo, con deficit di ragionamento, con difficoltà nella soluzione di
problemi, con disturbi dell’attenzione; ma anche in anziani che mostrano un decremento nella
prestazione di memoria di lavoro, dovuto al normale processo di invecchiamento.
L’inibizione delle informazioni irrilevanti, e il conseguente aggiornamento di quelle utili, rappresentano
un esempio di processo di controllo attribuibile all’esecutivo centrale (che coordina le risorse attentive
disponibili per l’elaborazione delle informazioni preservate nei sistemi di mantenimento passivo. Pag
16).
6.2.3 Memoria di lavoro visuospaziale e imagery
Noi siamo in grado di utilizzare le informazioni immagazzinate in memoria per costruire delle
rappresentazioni mentali molto simili a quelle sensoriali.
La capacità di immaginare un oggetto anche in sua assenza si può definire, semplicemente,
“immaginazione”, che oltre ad avere un significato riferito alla fantasia, è anche in grado di generare una
rappresentazione interna, con determinate caratteristiche visive e spaziali, ed è soggetta a manipolazione
e modifica con un certo sforzo cognitivo.
Questa distinzione è rappresentata da due termini: imagery, che si riferisce alla creazione di una
rappresentazione mentale con caratteristiche simili alla percezione visiva; immagination, che si riferisce
alla capacità di fantasticare o immaginare.
Esistono diverse teorie sull’imagery, riconducibili a due diversi approcci di studio:
- l’approccio nordamericano, che ha privilegiato le analogie con i processi percettivi. Secondo
Kosslyn l’imagery è una sorta di “visione di alto livello”, come se visualizzassizmo qualcosa con
“l’occhio della mente”;
- l’approccio europeo, di Cornoldi e Vecchi, che ha privilegiato i processi di elaborazione
cognitiva che rendono possibile la generazione di un’immagine simil-percettiva. Secondo questo
approccio, quindi, l’imagery è una rappresentazione mentale prevalentemente di natura
visuospaziale, che si caratterizza per la possibilità di utilizzare informazioni provenienti sia da
input sensoriali, sia dalla memoria a lungo termine, o dal risultato di processi di ragionamento e
di elaborazione più complessi della sola percezione.
17
Numeri autori hanno cercato di trovare una corrispondenza tra le funzioni e le strutture cognitive
implicate nella memoria di lavoro e in quella visuospaziale; alcuni risultati mostrano, ad esempio, che la
possibilità di dissociare componenti almeno parzialmente indipendenti, all’interno della memoria di
lavoro, sembra caratterizzare anche i meccanismi adibiti all’elaborazione di materiale visuospaziale.
È stata studiata la presenza di due diverse strutture di rappresentazione visuospaziale:
- la via del what, di cui i processi sono rilevanti per l’elaborazione delle caratteristiche visive di un
oggetto, che sono utili per il riconoscimento dell’oggetto stesso;
- la via del where, i cui processi sono implicati nell’elaborazione della posizione spaziale, cioè
nella definizione di dove l’oggetto è collocato nello spazio.
6.2.4 I processi di controllo della memoria di lavoro
Alan Baddeley ha successivamente riconsiderato i meccanismi previsti dal suo modello: per quanto
riguarda l’esecutivo centrale, cioè il sistema di coordinamento e controllo delle risorse mnestiche,
suggerisce che potrebbe essere più utile concentrarsi sullo studio dell’attenzione per trovare nuove
strade in cui cercare una risposta alla sua natura e alle sue caratteristiche. Molti studi sperimentali hanno
contribuito a questa ricerca; tra questi, le ricerche che hanno applicato la tecnica dell’analisi fattoriale
hanno individuato almeno tre fattori che potrebbero costituire le principali componenti dell’esecutivo
centrale: inibizione di contenuti irrilevanti, attraverso la quale il controllo della memoria libera risorse
necessarie per le operazioni successive; spostamento (o traslazione) dell’attenzione, come avviene in
compito doppio o multiplo in cui si deve passare da un compito all’altro; e aggiornamento dei
contenuti di memoria in base al cambiare degli obiettivi in diverse fasi di svolgimento di un compito.
La funzione di inibizione è responsabile, non solo del controllo delle informazioni, ma anche dei loro
legami funzionali all’elaborazione.
6.2.5 Modelli recenti di memoria di lavoro
I recenti modelli di memoria di lavoro la connotano più come un sistema attentivo. La memoria di
lavoro è stata, quindi, ripensata come un sistema che attiva alcune rappresentazioni rendendole
disponili come input per i processi cognitivi.
Il modello di Oberauer indica che essa sia organizzata in tre componenti contenute l’una nell’altra:
porzione attiva delle memorie a lungo termine, regione di accesso diretto e focus of attention.
Secondo l’autore, non sono strutturalmente indipendenti e separate, ma costituiscono diversi “stati”
delle rappresentazioni mentali. Inizialmente una rappresentazione mentale viene attivata nelle memorie
a lungo termine, attraverso la stimolazione percettiva o la propagazione dell’attivazione da altre
rappresentazioni; ma questa rappresentazione viene recuperata solo quando arriva nel secondo stato, la
regione di accesso diretto, che consiste nelle rappresentazioni che sono temporaneamente e
contemporaneamente associate ad una posizione in un sistema cognitivo coordinato al suo interno e
con gli altri livelli di attivazione-accessibilità; il terzo livello consiste nell’accedere ad un elemento che
diventa input dell’azione cognitiva ed entra nel focus of attention (o fuoco dell’attenzione), che
rappresenta un livello elevato di selezione e attivazione dell’informazione.
18
Il meccanismo di inibizione delle informazioni irrilevanti agisce sull’efficienza con cui le informazioni
hanno accesso al focus of attention, riducendo la probabilità che informazioni inutili possano creare
interferenza.
Da una diversa prospettiva, ha origine il modello time-based resources-sharing (condivisione di
risorse basata sul tempo) di studiosi francesi, tra cui Barrouillet e Camos. Gli assunti del modello sono:
- elaborazione e mantenimento, nei compiti che coinvolgono la memoria di lavoro, competono
per le stesse risorse attentive;
- elaborazione e mantenimento si articolano in passaggi intermedi e consecutivi che possono
verificarsi solo uno alla volta, in modo seriale (collo di bottiglia attentivo);
- quando il focus of attention è occupato nell’elaborazione, non è disponibile per il
mantenimento, per questo quando è in corso l’elaborazione, le rappresentazioni degli item da
ricordare “sbiadiscono”, provocando un decadimento temporale dell’attivazione dell’elemento
su cui era precedentemente focalizzata l’attenzione.
Le rappresentazioni che non sono nel focus attentivo possono essere “rinfrescate” prima di andare
totalmente perse, grazie ad un processo di recupero rapido riportando su di esse il focus attentivo.
Quindi, secondo questo modello, il motivo delle differenze individuali nelle capacità di memoria di
lavoro è l’abilità nello spostare strategicamente il fuoco dell’attenzione tra mantenimento ed
elaborazione, nei tempi e nei modi adeguati; e non più la capacità di controllo e inibizione delle
informazioni irrilevanti.
19
problema, compaiono deficit di memoria per gli episodi del passato (amnesia retrograda) e per
l’apprendimento di nuovi fatti e informazioni (amnesia anterograda), ma l’intelligenza globale delle
funzioni cognitive sono del tutto normali. Quindi, al deficit di memoria episodica non è legato il deficit
di memoria semantica.
L’esame di memoria semantica prevede compiti di denominazione e riconoscimento di volti e nomi di
personaggi famosi, e compiti di comprensione di concetti concreti e astratti, e del valore funzionale di
oggetti. Spesso i problemi si presentano come difficoltà specifiche nel discriminare elementi di una
stessa categoria, almeno in una fase iniziale del disturbo di memoria semantica.
Per l’esame della memoria episodica, nell’aspetto che si riferisce alla capacità di costruire nuove
memorie a lungo termine, si utilizzano prove standardizzate di apprendimento, distinte tra materiale
verbale e visuospaziale (un esperimento utilizzato comprende, a distanza di tempo, la meoria di un
breve racconto o la riproduzione della figura di Rey).
6.5.1 Memoria ed esercizio: il ruolo delle mnemotecniche (La memoria nella vita
quotidiana)
Nell’antichità classica, un uomo era “ciò che sapeva”, e il sapiente era “colui che sa e ricorda molto”;
l’interesse per la capacità di ricordare e per il suo potenziamento portò allo sviluppo di mnemotecniche,
cioè strategie pratiche per migliorare la prestazione in compiti mnestici.
Il metodo che viene solitamente utilizzato più frequentemente è quello della ripetizione continua, ma in
realtà è il meno efficace; il materiale appreso così viene dimenticato più facilmente, perché non è stato
adeguatamente elaborato, né ancorato alle conoscenze già presenti. Se invece si utilizza la reiterazione
integrativa al fine di associarla con le conoscenze già acquisite e alternandola a periodi in cui ci si dedica
ad altro, la probabilità di trattenere il materiale aumenta.
Le mnemotecniche si distinguono in: tecniche, cioè metodi di elaborazione legati al tipo di materiale da
memorizzare; sistemi, che consentono un utilizzo più ampio. Entrambe sono a loro volta distinguibili
in visive, che utilizzano immagini visive per creare associazioni tra le informazioni da memorizzare; e
verbali, che utilizzano le associazioni con le parole.
Tra le tecniche verbali vengono utilizzate: le rime, per memorizzare informazioni slegate tra loro; gli
acronimi, che sono parole artificiali create con le lettere iniziali di una serie di parole da ricordare; e gli
acrostici, che sono frasi in cui le lettere iniziali di ogni parola suggeriscono il recupero di certe
informazioni. Mentre il sistema verbale più importante è il sistema fonetico, che consente il ricordo di
una lunga serie di parole o numeri associando una o più consonanti alle cifre da 0 a 9.
20
Tra le tecniche visive ci sono: le associazioni visive, che consistono nel creare delle immagini che
uniscono due informazioni, così che il recupero delle immagini rievoca le informazioni; e le storie, che
consistono nel creare una storia dotata di significato che lega tra loro le informazioni, seguita dalla
visualizzazione della narrazione (per questo viene considerato un metodo misto).
Tra i sistemi visivi ci sono: la mnemotecnica dei loci (o dei luoghi) e il Peg System.
La mnemotecnica dei loci risale al 500 a.C., quando il poeta Simonide fu invitato ad un banchetto, dal
quale venne cacciato, e dopo che se n’era andato, crollò il tetto della sala uccidendo tutti gli ospiti e ne
rese difficile l’identificazione; Simonide riuscì a riconoscerli tutti grazie al ricordo del luogo in cui si
trovavano gli ospiti, quindi grazie alla sua memoria visiva.
Questa mnemotecnica, infatti, consiste nell’immaginare una serie ordinata di luoghi al cui interno
“riporre” le cose da memorizzare. Il sistema prevede una prima fase in cui viene identificato un
percorso, dopodiché vengono formate delle associazioni, attraverso immagini mentali, delle
informazioni da ricordare con i luoghi del percorso; ad ogni luogo va associato un solo elemento;
l’ultima fase prevede che vengano recuperate le immagini e quindi le informazioni in esse contenute,
ripercorrendo mentalmente il percorso dall’inizio alla fine. Un altro vantaggio di questa mnemotecnica è
che, anche se ci si dimentica di un’informazione della sequenza, possiamo comunque procedere nel
recupero delle altre.
Il Peg System (o sistema dell’aggancio, dell’uncino, del piolo ecc.), permette la memorizzazione di non
più di 10 informazioni: prevede la memorizzazione di una filastrocca in cui ciascuna delle 10 parole
rima con un numero che va da 1 a 10. Il procedimento prevede che a ciascuna parola della struttura
venga associata l’informazione da memorizzare attraverso un’immagine; nel momento del recupero, alla
richiesta dell’informazione situata in una certa casella di un certo numero, sarà immediato il recupero
della parola e di conseguenza dell’informazione ad essa associata.
Per l’impiego di qualunque mnemotecnica sono fondamentali l’attenzione e l’interesse; e un altro
aspetto importante riguarda l’attribuzione di significato al materiale che non ne ha, questa attribuzione è
legata all’organizzazione delle informazioni.
I principi generali dell’organizzazione nell’apprendimento sono:
- il materiale organizzato è più facile da recuperare rispetto a quello disorganizzato;
- i soggetti tendono ad organizzare spontaneamente le informazioni;
- le istruzioni sull’organizzazione del materiale determinano un miglioramento
nell’apprendimento;
un ultimo principio, inoltre, si riferisce alla visualizzazione, cioè alla creazione di immagini che
permettono di legare tra loro materiali diversi anche se non sono di tipo verbale.
Le mnemotecniche sono utili ausili per il ricordo di liste lunghe di nomi o concetti, ma non per la
comprensione dei concetti stessi.
I limiti delle mnemotecniche sono:
- il tempo di presentazione delle informazioni, se sono presentate troppo velocemente non è
facile stabilire le necessarie associazioni visive;
- sembrano scarsamente utili quando il compito richiede di memorizzare, e poi ricordare, un
contenuto strutturato parola per parola, perché per esempio se associo una parola ad
un’immagine, nel rievocare quella immagine potrei richiamare alla mente altre parole legate
all’immagine stessa;
- il mantenimento a lungo termine e la reale applicabilità della mnemotecnica nella vita
quotidiana.
6.5.2 Testimonianza e accuratezza della memoria
La memoria è fatta per rielaborare continuamente le informazioni con cui entra in contatto e che
conserva, integrandole con altre informazioni di natura semantica, conoscenze contestuali e
pragmatiche, aspetti relazionali ed emotivi. Il ricordo è sempre un processo di ricostruzione, quasi mai
di conservazione inalterata delle informazioni.
L’interazione dei processi attentivi, emotivi, motivazionali e di ragionamento con le informazioni in
memoria possono portare ad una deformazione dovuta all’azione di questi processi nell’osservatore;
questo potrebbe essere utile per l’adattamento del singolo individuo al suo ambiente: per esempio, se un
21
individuo ha vissuto una situazione pericolosa in passato, cercherà che non si ripeta in futuro; ma
potrebbe avere anche effetti negativi, ad esempio l’associare pericolosità o disagio al ricordo di
ambienti, situazioni o eventi non pericolosi, può portare allo sviluppo di comportamenti di evitamento
o disturbi fobici, oppure il fatto di raccontare la propria verità soggettiva in ambito giuridico potrebbe
non corrispondere al raccontare la verità storico-fattuale.
Nel processo di ricostruzione, hanno un ruolo importante le informazioni di tipo semantico, relative a
ciò che si sa già, insieme alle informazioni contestuali, relative a ciò che solitamente avviene; importanti
sono anche le influenze esterne, i desideri, le aspettative e la valenza emotiva di un evento e del suo
ricordo.
La memoria non ha niente a che vedere con la sincerità della persona e con le sue intenzioni di
ricordare meglio: l’attendibilità del ricordo è data dall’analisi dei fattori di ricostruzione che un individuo
può aver utilizzato in un certo contesto, e dall’analisi dei fattori fisiologici che possono aver influenzato
la percezione del soggetto e la successiva memorizzazione delle informazioni; ad esempio, un testimone
occasionale (per esempio per un incidente), solitamente non è consapevole del proprio grado di
attendibilità, ed è spesso convinto di ricordare precisamente ciò che è avvenuto, in più, potrebbe essere
in grado anche di “autoinfluenzarsi” involontariamente: più volte ricorda e racconta l’evento, anche
solo a se stesso, più tende a convincersi che il suo ricordo corrisponda esattamente a ciò che ha
esperito.
La cosa importante è che la memoria ci permetta di interpretare gli eventi, di usare indizi generali e
semplificati e di arrivare ad un ricordo coerente e verosimile, anche se non identico a quanto accaduto;
la memoria è lo strumento che ci permette di integrare ciò che già sappiamo con quanto accade di
nuovo.
In alcuni casi, il meccanismo del ricordo corrisponde ad un processo di richiamo dell’evento, così come
è stato percepito (memoria flashbulb): si tratta di una memoria improvvisa, legata ad eventi
autobiografici, spesso emotivamente rilevanti e/o inattesi. In questi casi la memoria è in grado di
codificare e mantenere le informazioni preservando un legame diretto con la qualità sensoriale
dell’evento stesso e riproducendo sensazioni simili a quelle che si erano provate durante l’evento stesso.
Ricordi di questo tipo sono molto dispendiosi in termini di risorse cognitive. In ambito clinico e in
psicologia dell’emergenza questi ricordi prendono il nome di memorie flashback, relativamente
frequenti nel disturbo post-traumatico da stress, quando un individuo esposto ad un evento catastrofico
può rivivere, attraverso un ricordo di qualità quasi-sensoriale, alcuni istanti di quell’evento.
Sorprendentemente, siamo anche in grado di produrre ricordi completamente falsi, interamente
costruiti e privi di qualsiasi base di realtà. Sono molti, infatti gli esperimenti che hanno dimostrato come
piccoli trucchi o accorgimenti possano facilmente indurre la creazione di false memorie e come la
frequenza di questi processi sia associata alla verosimiglianza del ricordo, alla coerenza con il proprio
sistema di valori e anche alla credibilità della fonte che induce la creazione del falso ricordo.
22
elaborazione e rappresentazione di informazioni interposto tra l’ambiente e il comportamento
manifesto. Da qui si passò al neocomportamentismo e poi al cognitivismo.
L’attuale definizione dell’apprendimento sostiene che, l’apprendimento è il processo grazie al quale
acquisiamo conoscenze sul mondo e le codifichiamo nelle memorie a lungo termine, creando un vasto
deposito di conoscenze precedenti che contribuisce tanto a pianificare e guidare il nostro
comportamento, quanto a sostenere nuovi e ulteriori sforzi di apprendimento e a determinarne l’esito.
7.1.1 Due notazioni e alcuni esempi
Ogni relazione appresa connette le rappresentazioni mentali di almeno due eventi, oggetti, attributi,
concetti o comportamenti.
Alcune di queste relazioni sono frutto di processi dall’alto al basso (top-down), cioè sono processi in
cui i meccanismi di pensiero di alto livello cercano di sintetizzare e organizzare le osservazioni derivate
dall’esperienza sensoriale dell’ambiente, e possono coinvolgere giudizi e ragionamenti a posteriori, cioè
su esperienze passate; le relazioni derivanti da questi processi sono dette “regole” o “ipotesi” e ci
riferisce a esse in forma dichiarativa.
Altre relazioni sono apprese automaticamente tramite processi dal basso all’alto (bottom-up o stimulus
driven), cioè processi di elaborazione, guidati dai dati, che avvengono a prescindere dalla nostra volontà
di svolgerli.
Un esempio di apprendimento bottom-up è: se in seguito ad una aggressione in un ascensore, un
individuo sviluppa un forte grado di evitamento di tutti gli ascensori, avrà appreso la catena associativa
Oggetto→ Evento→ Concetto e Sensazione→ Emozione→ Risposta comportamentale, di tipo
procedurale.
Questo tipo di apprendimento viene anche chiamato apprendimento per condizionamento.
Un esempio di apprendimento top-down è: se una dottoressa nota che molti pazienti, a cui ha
somministrato un nuovo farmaco, lamentano disturbi gastrici, mentre con il vecchio farmaco non
succedeva, formula un’ipotesi in forma dichiarativa, cioè se si assume il nuovo farmaco allora cresce
la possibilità di disturbi gastrici. In questo caso la dottoressa potrà avvalersi o meno di quella regola nel
suo comportamento: la regola appresa dalla dottoressa è adattabile ad altre conoscenze e al controllo
cosciente e volontario, senza il quale non sarebbe giunta all’ipotesi.
Entrambi i tipi di apprendimento si avvalgono di dati statistici, e stabiliscono predittori e possibili cause
di alcune conseguenze, ambito che viene studiato dall’approccio computazionale basato su un
insieme di osservazioni (o su base statistica).
23
Lo scopo dell’apprendimento per esperienza diretta è quello di estrarre predittori, dipendenti o meno
dalle nostre azioni. Ma non sempre i processi che dovrebbero estrarre predittori utili e affidabili
forniscono esiti “oggettivamente corretti”.
7.2.1 Covariazioni: la regola del ΔP
Le osservazioni di concomitanze tra due eventi, segnale (o cue, indizio) e conseguenza (o outcome,
esito), possono essere rappresentate in una tavola di contingenza, in cui la prima riga rappresenta il
numero di casi (o frequenza) in cui si è presentata o meno la conseguenza in presenza del segnale; e la
seconda riga rappresenta la frequenza in cui si è presentata o meno, nello stesso tempo, la conseguenza
in assenza del segnale.
Quindi, ogni insieme di osservazioni illustrate da una tavola di contingenza può essere sintetizzato in
due valori di probabilità condizionale (cioè, di probabilità di un evento a condizione che se ne sia
verificato un altro):
- Probabilità della conseguenza dato il segnale;
- Probabilità della conseguenza nonostante l’assenza del segnale.
La differenza tra queste due probabilità (ΔP) è la misura di covariazione che indica la capacità di un
segnale di prevedere una conseguenza oltre quanto questa fosse già prevedibile nello stesso contesto in
assenza di quel segnale.
Il ΔP, quindi, indica la forza della relazione tra il segnale e la sua conseguenza; se il valore è positivo la
presenza del segnale produce un incremento di aspettativa della conseguenza; se è negativo il segnale
genera un decremento dell’aspettativa; se è nullo indica che il segnale e la conseguenza non hanno
nessuna covariazione reciproca.
Se, per esempio, una malattia ha un’alta probabilità di essere presente in contemporanea ad un certo
sintomo, non è detto che quel dato sintomo sia “diagnostico” di quella malattia.
Il ΔP può avere due scopi:
- Uno per l’apprendimento, che si basa su dati statistici: per apprendere correttamente i gradi di
predittività tra eventi, date in input le osservazioni di concomitanze tra quegli eventi, l’output di
un sistema cognitivo deve approssimarsi al ΔP;
- Il secondo è quello di valutare l’opportunità di intervenire attivamente per fare in modo che il
segnale si presenti, o non si presenti, al fine di provocare, o non consentire, la conseguenza.
Quindi, il ΔP è un sensato indizio di causalità e di opportunità di intervento, solo nel caso in cui sia
scontato l’effetto di possibili concause.
7.2.2 Causalità: dal ΔP alla sua funzione potenza
La stima del grado di causalità di un evento segnale verso un evento conseguenza è importante sia per
stabilire se un organismo si preparerà a reagire alla conseguenza dato il segnale, sia per determinare se
quell’organismo cercherà o meno di intervenire sul segnale per ottenere o evitare la conseguenza.
Questa stima dipende anche dalle altre conoscenze dell’organismo, acquisite, innate o assunte
arbitrariamente. Alcune soluzioni applicate a questo problema descrivono cosa i sistemi cognitivi,
umani o animali, considerino essere una “causa”: cioè quali funzioni sono computate quando ci
convinciamo dell’esistenza di un nesso di causalità tra due eventi, e stimiamo la sua forza. La più nota di
queste funzioni è la Power PC (fattore pow), o potenza del contrasto di probabilità, dovuta a Patricia
Cheng, che considerava il ΔP come una qualsiasi altra variazione di percezione: in questo caso,
l’incremento, o il decremento, è nella probabilità condizionale di un evento, e non nella percezione delle
sue caratteristiche.
7.2.2.1 La funzione potenza del ΔP
La corretta stima degli effetti causali del Segnale deve riferirsi a quanto il Segnale renderebbe probabile
la Conseguenza in una situazione ideale, dove il Segnale sia il solo fattore causale presente.
Quindi, la funzione di potenza (pow) del ΔP è corretta solo se la potenziale causa del Segnale, di cui
stiamo stimando la forza, è indipendente dall’insieme di tutte le concause che possono provocare lo
stesso effetto Conseguenza.
24
7.2.2.2 Strutture causali, l’assunto di indipendenza e la dimostrazione della formula della
potenza causale per cause generative indipendenti
Le diverse concause di uno stesso effetto possono combinarsi in una quantità di modi virtualmente
infinita. Queste modalità sono “strutture causali” o “modelli causali”, e nel caso “standard”, o delle
cause indipendenti, le probabilità delle concause si combinano secondo la funzione detta noisy OR
(disgiunzione probabilistica). Questa funzione è identica ad una somma booleana (cioè una logica per
cui ogni proposizione può essere o vera, 1, o falsa, 0, ma non sono ammessi gradi intermedi), solo che
invece dei valori 1 e 0, ogni argomento esprime la probabilità che A sia vero, e la probabilità che B sia
vero.
Ci sono due possibilità in questo caso:
- Che si formino strutture di cause indipendenti, cioè ciascuna causa S, indipendentemente
dall’altra, può provocare la conseguenza C (in termini di grafi bayesiani, due cause indipendenti
di uno stesso effetto sono rappresentate da due nodi non connessi tra loro (cause), associati da
due archi ad un terzo nodo (la conseguenza): S1 → C S2.).
- Che due cause non siano indipendenti, quindi interagiscono tra loro, e questo accade quando
la loro combinazione segue una qualsiasi funzione di combinazione di probabilità che non sia la
noisy OR.
Quindi, con noisy OR intendiamo una funzione con cause indipendenti.
25
Condizionato si indebolisce fino ad estinguersi (Estinzione); anche se potrà ripresentarsi in nuove
sedute a distanza di tempo (Recupero spontaneo).
Altri fenomeni empirici individuati da Pavlov e colleghi sono:
- Intensità: l’intensità della Risposta cresce con l’intensità dello Stimolo Condizionato;
- Generalizzazione: più uno stimolo esterno è simile allo Stimolo Condizionato, più probabilità
ci sono che si verifichi la Risposta associata allo SC;
- Discriminazione appresa: partendo dalla generalizzazione, le ripetute presentazioni dello
stimolo simile senza lo Stimolo Condizionato, “estinguono” la risposta allo stimolo simile e
mantengono la risposta all’altro;
- Inibizione esterna: se la Risposta è stata appresa in un certo contesto, tenderà a non
presentarsi in un contesto diverso;
- Overshadowing o oscuramento (Inibizione esterna di 2° tipo): la presentazione di un nuovo
Stimolo Condizionato, molto saliente, in concomitanza o subito prima del primo Stimolo,
tenderà a ridurre la forza di un’associazione Stimolo Condizionato1-Risposta appresa
precedentemente;
- Inibizione condizionale (inibizione esterna di 3° tipo): se si presentano molte prove, in ordine
casuale, di tipo Stimolo Condizionato1 senza Stimolo Condizionato2 in presenza dello Stimolo
Incondizionato, e molte prove di tipo Stimolo Condizionato1 con Stimolo Condizionato2 e
senza Stimolo Incondizionato, l’organismo risponderà con la Risposta allo Stimolo
Condizionato1 presentato da solo, ma non presentato insieme al 2°. La presenza del 2° inibisce
la risposta associata al 1° stimolo.
- Condizionamento di secondo ordine (SOC): data la Risposta allo Stimolo Condizionato1,
alcune presentazioni dello Stimolo Condizionato2 con lo Stimolo Condizionato1 (non seguite
dallo Stimolo Incondizionato) tenderanno a stabilire l’associazione di Stimolo Condizionato2
con la Risposta.
7.3.2.2 Alcune scoperte di Edward Thorndike e di Skinner
Nel frattempo Thorndike studiava l’apprendimento animale di comportamenti più complessi,
avvalendosi di una gabbia per gatti (puzzle box o scatola problema), dalla quale prima o dopo il gatto
riusciva ad uscire azionando la leva (apprendimento per prove ed errori). Tracciando una curva di
apprendimento, Thorndike scoprì che il gatto impiegava sempre meno tempo, ogni volta che veniva
rimesso nella gabbia, per uscirne.
Egli formulò anche delle leggi dell’apprendimento per prove ed errori o condizionamento strumentale
(verificate anche su esseri umani): particolarmente innovativa era:
- La Legge dell’effetto: se in un certo contesto è prodotta una risposta con un esito
soddisfacente, allora la forza della connessione S-R cresce, quindi in futuro aumenta la
probabilità di emettere la stessa risposta nello stesso contesto. Se ad una risposta segue un esito
fastidioso, allora la forza della connessione S-R si indebolisce e la risposta diventa meno
probabile in quel contesto.
Skinner fece sua la Legge dell’effetto e la approfondì: sostenne che l’apprendimento basato su
condizionamento rispondente non era in grado di giustificare alcune forme di comportamento
complesso umano e animale. Gli organismi non associano solo risposte automatiche a nuovi stimoli,
ma imparano nuove risposte e operano per ottenere alcune conseguenze (condizionamento operante).
Per questo, Skinner utilizzò dei rinforzi (positivi o negativi), che pensava fossero più efficaci delle
punizioni. Fece una distinzione tra rinforzi primari, con valore incentivante intrinseco; e rinforzi
secondari, privi di valore incentivante, il cui valore era appreso per condizionamento di secondo
ordine rispetto ai rinforzi primari.
Basandosi sul rinforzo secondario, dimostrò l’efficacia del modellamento (shaping) nell’addestramento
di animali a compiere comportamenti anche molto complessi: rinforzando la prima componente di un
comportamento finché non è appresa, poi rinforzando la seconda quando emessa dopo la prima e così
via, l’animale riesce a creare una catena complessa di associazioni solo al termine del quale ottiene il
rinforzo. Condusse centinaia di esperimenti, avvalendosi della Skinner box (che poteva avere molti
accessori per presentare stimoli o rinforzi, o che offriva la possibilità di emettere risposte attive
26
associabili ai rinforzi), grazie ai quali descrisse gli effetti comportamentali di diversi “programmi di
rinforzo” o di punizione, due dei quali sono:
- I partecipanti apprendono il pattern di rinforzo e vi si adattano, quindi imparano a prevedere
quali comportamenti sono più adeguati per ottenere rinforzi (o evitare punizioni);
- Quando una conseguenza ha maggiore variabilità, l’estinzione della risposta che la provocava è
più lenta.
7.3.3 Sintesi delle prospettive “rispondente” e “operante”
Dagli anni ’60, la visione separata del condizionamento rispondente (apprendimento di associazioni tra
due stimoli SC e SI) e condizionamento operante (apprendimento di relazioni tra azioni e loro
conseguenze), confluirono in una prospettiva unitaria. A questo punto, si iniziò a sostenere che ciò che
supporta l’apprendimento di un’associazione fosse il saper fare previsioni accurate: l’apprendimento
rinforza se stesso grazie a una continua comparazione tra ciò che abbiamo appreso, e quanto questi
apprendimenti ci consentono di capire, prevedere e controllare il nostro ambiente.
Tutti i principali modelli algoritmici che cercano di catturare i fenomeni dell’apprendimento
associativo bottom-up sono algoritmi di riduzione dell’errore: riducono la forza di un’associazione
quando essa induce una previsione che si rivela errata, e l’aumentano quando una previsione si rivela
corretta. Quindi, è l’errore o la correttezza della previsione che indebolisce o rinforza l’associazione.
Anche tutti i modelli cognitivi dell’apprendimento di relazioni per via top-down sono procedure di
previsione statistica basata su stime della diagnosticità dei segnali.
7.3.3.1 Gli incentivi sono necessari? No
Tolman, pur essendo comportamentista, confutò sperimentalmente alcune delle conclusioni del
comportamentismo classico, aprendo la via al neocomportamentismo e al cognitivismo.
Riteneva che ciò che era appreso erano connessioni S-S e non S-R: le informazioni in entrata sono
elaborate nella cabina di controllo centrale per costruire una mappa dell’ambiente di tipo cognitivo, che
indica percorsi e relazioni tra eventi e che determina se e quali risposte produrrà un animale. Tolman
utilizzava il labirinto di Blodgett, tramite il quale formulò l’idea che il rinforzo non è una condizione
necessaria per l’apprendimento delle associazioni che connettono stimoli ambientali.
Della stessa idea era Bandura, che dimostrò che gruppi di bambini che avevano osservato un
“modello” adulto mettere o non mettere in atto comportamenti aggressivi verso un bambolotto
gonfiabile (Bobo doll) tendevano poi a replicare, in momenti successivi, in altri ambienti e in assenza
del modello, quel tipo di comportamenti. Successive variazioni dell’esperimento dimostrarono che la
quantità di comportamenti imitati era modulata dagli incentivi ricevuti dal modello: se i bambini
osservavano che il modello era punito, tendevano a non imitarlo; se osservavano che era lodato,
tendevano ad imitarlo (rinforzo vicario). L’efficacia di un incentivo altrui presuppone che l’osservatore
sia in grado di osservare l’esito di un comportamento espresso da altri, di valutarne il valore, e di
stabilire se i comportamenti osservati sono o non sono stati le probabili cause degli incentivi ricevuti dal
modello. Successive ricerche dimostrarono che l’apprendimento e la manifestazione di comportamenti
per sola imitazione di modelli sono possibili e frequenti (teoria dell’apprendimento sociale).
7.3.3.2 La ripetizione e la contiguità sono necessarie? No
Si può apprendere con forza un’associazione anche dopo aver osservato una sola concomitanza tra due
eventi (one shot learning). Lo dimostrò Hudson mettendo un piedistallo molto visibile sotto la
scodella, dove mangiavano sempre i suoi topi, dopodiché quando un topo si avvicinava per mangiare,
veniva mandata una scossa al piedistallo; dopo solo una volta i topi associavano il piedistallo e tutte le
cose simili ad esso alla scossa e cercavano di evitarle o nasconderle. Quindi, se uno o entrami gli stimoli
condizionati o incondizionati sono molto salienti, non c’è bisogno della ripetizione per apprendere
un’associazione.
Garcia fece un esperimento simile, abbinando un sapore insolito, somministrato alle cavie, alla
sensazione di nausea (provocata apposta); in aggiunta ai risultati di Hudson, Garcia dimostrò che
quell’associazione avveniva anche a distanza di ore tra la somministrazione del sapore e l’insorgere della
27
nausea. Questo dimostrava che, nonostante la contiguità sia spesso importante per l’apprendimento di
associazioni su base covariazionale, non è una condizione necessaria.
Il numero di ripetizioni necessarie all’apprendimento non dipende solo dalla salienza degli stimoli, ma
anche dalla variabilità o varianza degli abbinamenti tra Stimolo Condizionato e Stimolo Incondizionato.
L’effetto della variabilità percepita si è dimostrato importante per l’apprendimento umano, soprattutto
in ambito sociale: se la variabilità percepita dell’attributo è bassa, sono sufficienti pochi esempi osservati
per generalizzarlo a interi gruppi; se è alta la generalizzazione richiede più osservazioni.
7.3.3.3 La ripetizione di concomitanze contigue e rinforzate tra SC e SI è sufficiente
all’apprendimento? No
Contiguità e ripetizione di due stimoli ambientali, oltre a non essere necessarie all’apprendimento, non
sono neanche sufficienti (forward blocking). Kamin spiegò questo fenomeno in termini di sorpresa: la
conseguenza, o Stimolo Incondizionato, deve sorprendere il partcipante perché l’associazione sia
appresa.
Rescorla dimostrò, in uno studio, l’effetto del ΔP sull’apprendimento: utilizzò 4 gruppi di topi che
avevano già imparato che schiacciare una leva permetteva di ottenere il cibo; nella fase sperimentale a
tutti i gruppi somministrò delle scosse abbinate ad un suono e suoni senza la scossa. I gruppi si
differenziavano in base alla probabilità condizionale di ricevere la scossa nei periodi in cui non si
presentava il suono: combinando la probabilità della scossa abbinata al suono e la probabilità della
scossa senza il suono, si ottenevano quattro diversi ΔP, quindi quattro diversi pow. In una fase
successiva, in cui le scosse erano sospese e si presentava solo il suono, Rescorla scoprì che la forza
dell’associazione tra il suono e la scossa non era influenzata dal numero di concomitanze, ma era
proporzionale al ΔP, che dipende anche dagli ultimi due casi (scossa con suono e scossa senza suono).
7.3.3.3 Gli effetti di pre-esposizione degli SC e SI
Baker, Mackintosh e Mercier illustrarono il rilievo che una precedente familiarizzazione con gli stimoli,
Condizionato e Incondizionato, ha sulla successiva capacità di associarli. Hanno individuato due effetti:
- Pre-esposizione dello Stimolo Condizionato (o inibizione latente). Il fatto che lo Stimolo
Condizionato sia molto comune in un contesto, dove ancora non compare la Conseguenza,
porta a rallentare e indebolire il successivo apprendimento dell’associazione tra Stimolo
Condizionato e Incondizionato, rispetto al controllo;
- Pre-esposizione dello Stimolo Incondizionato. La familiarità con la Conseguenza, in un
contesto in cui non è ancora presente lo Stimolo Condizionato, riduce l’apprendimento;
- Irrilevanza appresa. Gli SC e SI sono presentati a caso, in una prima fase che inibisce talmente
l’apprendimento che anche quando, nella seconda fase, lo SC diventa predittore dello SI,
l’associazione non ha luogo o avviene lentamente.
7.3.3.5 Apprendere a posteriori
Dal punto di vista algoritmico ha grande importanza il backward blocking, nel quale inizialmente lo SC
è inizialmente associato alla Conseguenza, e in quella fase l’associazione è appresa; durante la seconda
fase lo SC non compare mai, eppure la sua associazione con la Conseguenza viene disappresa,
attraverso un’elaborazione a posteriori in assenza dello stimolo (retrospective revaluation). Questo
segnò l’abbandono dell’idea che la forza dell’associazione di uno stimolo con una conseguenza possa
essere revisionata solo quando lo stimolo si presenta. Questa serie di riscontri falsificò l’idea che alla
base dell’apprendimento di relazioni tra eventi ci fossero solo o soprattutto la contiguità, la ripetizione e
il valore di incentivo della Conseguenza, e che avvenisse solo in modo associativo bottom-up.
7.3.4 Oltre il ΔP: inferenze e assunti sulle strutture causali
Asimmetrie nell’“effetto tetto” per cause generative e inibitorie → Un Ceiling (tetto) si ha
quando un certo effetto ha già raggiunto il suo massimo livello, e ulteriori interventi volti a
incrementarlo non possono avere nessuna conseguenza; ma questo non consente di stabilire che questi
interventi sono inefficaci. Quando un fenomeno ha raggiunto il suo ceiling, si può stabilire se una
28
qualche causa ha effetti inibitori, ma non se ha effetti generativi, generando un’asimmetria tra i due tipi
di cause.
Nel caso della potenziale causa generativa il ΔP sarà uguale a 0, quindi, se la causalità fosse
esclusivamente basata sulla percezione di covarianza, gli osservatori dovrebbero concludere che la
potenziale causa non ha effetto.
Viceversa, se il ΔP è sempre uguale a 0, ma si ha una condizione di ceiling, gli osservatori dovrebbero
stabilire l’inefficacia di potenziali cause inibitorie, invece di sospendere il giudizio.
L’apprendimento di relazioni causali tra eventi non sempre si riduce a una stima di covariazione, e
sembra coinvolgere conoscenze precedenti e inferenze su inosservabili strutture o modelli causali
sottostanti. Il semplice ΔP è sufficiente a soddisfare l’obiettivo di previsione associato
all’apprendimento; a livello computazionale, invece, è la stima di causalità che può soddisfare l’obiettivo
di intervento o controllo: solo attribuendo causalità al nesso tra uno Stimolo Condizionato e uno
Stimolo Incondizionato possiamo decidere di intervenire volontariamente su quello Stimolo
Condizionato per provocare, o evitare, lo Stimolo Incondizionato.
Apprendere le conseguenze dei propri comportamenti comporta la necessità di inferire nessi causali
partendo dal dato covariazionale e integrandoci altre conoscenze e assunti.
Questo si coniuga con gli studi sulla predisposizione genetica all’apprendimento: un piccione può
imparare a beccare una leva per far cadere il cibo, ma non può imparare ad allontanarsi dalla ciotola per
lo stesso motivo. Queste predisposizioni innate ad apprendere associazioni tra alcune tipologie di
stimoli, e non altre, sono “conoscenze precedenti” su cosa possa costituire un possibile nesso causale o
cosa non possa costituirlo: quindi, sono modelli causali che guidano gli organismi nella stima di nessi
causali utili a controllare il loro ambiente.
Se non riesce a capire come controllare un certo evento ambientale, un organismo cessa di comportarsi
e diventa passivo. Seligman e Maier lo dimostrarono somministrando scosse a due gruppi di cani: il
gruppo di controllo poteva interrompere le scosse con una leva, il gruppo sperimentale non poteva
interromperle; successivamente i due gruppi vennero posti in un pavimento mezzo elettrificato e mezzo
no. I cani del gruppo di controllo riuscivano a capire che potevano saltare una paratia, perché
cercavano il modo di scappare dalle scosse; dei cani del gruppo sperimentale solo 1/3 scappava, mentre
l’altra parte del gruppo si accucciavano e mugolavano “convinti” di non avere potere causale sulle
scosse. Gli osservatori chiamarono questa sensazione impotenza appresa: incapaci di capire le cause
di un evento che ci consentirebbe di agire su esso, impariamo a rassegnarci. L’impotenza appresa può
avere un ruolo importante anche per sindromi depressive negli umani.
Paragonando la parte dei cani del gruppo sperimentale che scappavano agli esseri umani, possiamo dire
che la resilienza verso gli eventi negativi, che riduce il rischio di depressione, è correlata all’ottimismo.
Da qui nacque la psicologia positiva.
7.3.5 Sensibilità e insensibilità imana agli indizi statistici
Le capacità di apprendimento dimostrate nei vari studi sono state chiamate “apprendimento implicito”,
perché hanno luogo, almeno in parte, in modo inconsapevole e senza esplicita volontà si apprendere.
In altri numerosi studi che hanno richiesto giudizi espliciti e consapevoli di predittività o causalità tra
due eventi sulla base di soli dati di contingenza, partecipanti umani hanno adottato strategie di giudizio
non corrette. Queste strategie “non-normative” generano correlazioni illusorie: i partecipanti
ritengono che uno stimolo sia un buon segnale dell’altro, o addirittura lo causi, quando l’effettiva
predittività è nulla o scarsa; oppure non si accorgono che uno stimolo prevede l’altro, quando in realtà
lo prevede.
7.3.5.1 Le correlazioni illusorie
Le correlazioni illusorie sono un fattore importante, anche perché potrebbero contribuire a formare e
preservare, insieme a fenomeni sociali, emotivi, comunicativi e motivazionali, le false credenze da
sempre diffuse in tutte le società (come pregiudizi, razzismi, superstizioni ecc.). Ognuna di queste
credenze associa un qualche evento, comportamento o attributo (far parte di un certo gruppo
“razziale”, assumere sostanze, eseguire riti ecc.) ad una qualche conseguenza (essere disonesti, violenti
29
ecc.). Questo suggerisce che possono derivare da osservazioni inappropriate e da imprecisa
elaborazione di un insieme di osservazioni.
Le correlazioni illusorie possono favorire le illusioni di controllo: convinzioni di poter esercitare un
qualche controllo su eventi completamente indipendenti da noi.
30
8.3 Cicli di conoscenza in psicologia
Il ciclo ipotetico-deduttivo della conoscenza scientifica, in psicologia, ha suggerito modelli della
percezione umana, come il ciclo “pecettivo-cognitivo” proposto da Neisser, e il “ciclo percezione-
azione” di Gibson. Per questi due studiosi, un percetto iniziale attiva schemi cognitivi anticipatori che
inducono aspettative e guidano l’esplorazione dell’ambiente. L’esplorazione consente di raccogliere
ulteriori dati sensoriali, perfezionare e completare quel percetto, e costruirne altri.
La natura ciclica dell’accumulo di conoscenze attraverso il concatenarsi di congetture induttive,
previsioni deduttive e la loro verifica esplorativa, è tipica dell’intera cognizione umana (ciclo
inferenziale). Il suo obiettivo è costruire una rappresentazione di un ambiente complesso e mutevole,
continuamente revisionabile.
31
ugualmente probabile sia in presenza che in assenza dell’antecedente; è maggiore di 1 quando il dato è
più probabile in presenza che in assenza dell’antecedente (quindi il dato supporta la verità
dell’antecedente); ed è minore di 1 quando l’osservazione della conseguenza è più probabile in assenza
dell’antecedente. Quindi, il rapporto di Bayes è una misura di supporto bayesiano dell’osservazione: se è
superiore a 1 supporta l’ipotesi, se è inferiore a 1 tende a falsificarla e se è uguale a 1 il dato è irrilevante.
Il rapporto di Bayes di un dato verso un’ipotesi può essere indicato con il rapporto di
verisimiglianza.
Il rapporto tra una probabilità e il suo complemento prende il nome di odd: calcolo delle probabilità
che un allibratore fa per una scommessa. Ad esempio, chiedendoci quante probabilità ci sono che si
verifichi un certo evento, ci basiamo su tutte le variabili dipendenti dall’esperienza, cioè su quante volte
in un certo contesto si è verificato quell’evento; più volte si è verificato quell’evento, più probabilità ci
sono che si riverifichi ancora.
32
8.5.4 Altre inferenze del calcolo proposizionale rilevanti per la psicologia
Una coppia di premesse che comprende un condizionale, e l’affermazione o la negazione del suo
antecedente o conseguente, viene detta “sillogismo condizionale” o “sillogismo ipotetico”. Tra i quattro
sillogismi condizionali possibili, il privo valido è il modus ponens; il secondo è il modus tollendo
tollens, o modus tollens (modo in cui negando il conseguente, si nega anche l’antecedente).
Per gli esseri umani, il modus tollens è più difficile da accettare e produrre rispetto al modus tollens.
Gli altri due schemi condizionali sono invalidi, cioè a volte sono accettati o prodotti dagli esseri umani,
ma la logica non li supporta; la loro conclusione è possibile, ma non necessaria. E sono:
- Affermazione del conseguente, che corrisponde al sillogismo abduttivo di Peirce, solo che
invece di considerare possibile la conclusione, la si considera necessaria;
- Negazione dell’antecedente.
Altri schemi inferenziali che si sono rivelati importanti nello studio psicologico del ragionamento
umano, sono stati il sillogismo disgiuntivo e la riduzione all’assurdo.
Il sillogismo disgiuntivo ha una premessa maggiore di tipo disgiuntivo, e una seconda premessa che
nega uno degli argomenti della disgiunzione; la fallacia corrispondente è un errore se la disgiunzione è
inclusiva, invece è valida se è esclusiva.
La riduzione all’assurdo, significa che, se da una proposizione di può derivare, tramite una catena di
inferenze, un’assurdità (ad esempio, che un conseguente è vero e falso allo stesso tempo), allora quella
proposizione deve essere rifiutata.
33
I fattori che influenzano la complessità di apprendimento sono, la complessità logica di un concetto, e il
fatto che regole che comprendono disgiunzioni sono più difficili da apprendere rispetto a quelle che
comprendono solo congiunzioni. La funzione di verità della disgiunzione prevede che sia vera in tre
possibilità su quattro, mentre quella della congiunzione in una possibilità su quattro. Chiedendoci quali
attributi accomunino tutti gli esemplari di una categoria, possiamo estrarre definizioni sintetiche basate
su regole di tipo deduttivo (concetti basati su regole). Però sappiamo estrarre efficacemente queste
regole solo quando esistono, cioè il concetto è veramente comprimibile e se sono semplici; negli altri
casi possiamo estrarre regole compresse approssimativamente, quindi ammettendo degli errori: in
questi casi è importante l’esperienza.
8.6.1.2 Concetti basati su prototipi
Quando non sono disponibili regole logiche precise, o sono troppo complesse, tendiamo a pensare a
schemi o prototipi del concetto, cioè un elenco di attributi frequentemente osservati (tipici) nei suoi
esemplari, anche se non sono presenti in tutti questi, o non sono tutti presenti contemporaneamente
nello stesso oggetto. Gli attributi più frequenti in una categoria fanno parte di un modello medio,
rappresentano una tendenza centrale. Quanto più numerosi sono gli attributi prototipici di un
esemplare, tanto più veloci saremo nel classificarlo: effetto di tipicità.
I risultati, tratti da esperimenti basati sull’effetto di tipicità, dimostrarono che nell’apprendere concetti, il
sistema cognitivo può astrarre “tendenze centrali”, trattarle come esemplari già visti, e classificare nuovi
esemplari in base alla loro distanza dalla tendenza centrale.
Si sviluppò così la teoria dei prototipi di Rosch, secondo cui una categoria è rappresentata nella mente
da un prototipo: la rappresentazione di uno o più esemplari medi molto tipici, cioè con molti attributi
frequentemente presenti in numerosi esemplari della categoria. In questa teoria, i concetti di maggior
rilievo psicologico, detti concetti di base, sono quelli per cui riusciamo ad estrarre dalle nostre
osservazioni un cluster (grappolo) di attributi dotati di alta cue validity (validità di indizio), che indica
quanto un certo attributo consenta di riconoscere un oggetto come appartenente o meno a una
categoria; concetti che apprendiamo più precocemente e facilmente di quelli sovraordinati o
subordinati, caratterizzati da minor diagnosticità.
8.6.1.3 Concetti che procedono da altri concetti: la ricombinazione concettuale
Se molti concetti si formano grazie all’osservazione e la valutazione di esempi, al crescere delle nostre
conoscenze se ne formano altri da combinazioni di concetti già acquisiti: processo fondamentale sia per
la creatività umana, sia per la comprensione del linguaggio.
Sgombrando il campo da conoscenze precedenti, le interpretazioni tipiche di concetti combinati mai
sentiti prima non sono totalmente libere, ma sono comprese in quattro categorie:
- Interpretazioni relazionali, che stabiliscono l’esistenza di qualche relazione tra il concetto
modificatore e il concetto testa. Esempio: una matita letto è una matita che si mette accanto al
letto per scrivere messaggi;
- Interpretazioni basate su sovrapposizioni di proprietà, che attribuiscono a un concetto una
proprietà dell’altro concetto. Esempio: una matita letto è una matita a forma di letto;
- Interpretazioni ibride, per cui il referente è l’unione del concetto modificatore con il concetto
testa. Esempio: un pesce lampada è un pesce abissale molto luminoso tipicamente portato in
vasi di vetro per essere usato come lampada;
- Interpretazioni a riferimento diretto, che associano la combinazione a un concetto già noto.
Esempio: una matita letto è una scatola di matite.
Il referente dell’interpretazione coincide spesso con la testa linguistica.
Una delle teorie di come avvenga la ricombinazione concettuale, secondo Costello e Keane, sostiene
che è guidata da tre criteri:
- Diagnosticità: ogni interpretazione deve contenere predicati diagnostici di entrambi i concetti.
Esempio: un cactus è più facilmente interpretabile come un pesce con le spine e non come
pesce verde, perché l’attributo spine ha maggior cue validity rispetto all’attributo verde;
- Plausibilità: ogni interpretazione deve descrivere un oggetto la cui esistenza è plausibile in base
alla frequenza dei suoi attributi in altri concetti conosciuti. Esempio: un “maiale angelo” è visto
34
come un maiale con le ali sulla schiena e non sulla coda, perché in altri concetti conosciuti, le ali
sono sulla schiena;
- Informatività: ogni interpretazione deve comunicare qualcosa di nuovo. Esempio: una “matita
letto” non può essere interpretata come una “matita di legno”, perché l’interpretazione non
fornisce informazioni nuove né sulle matite, né sui letti.
8.6.1.4 Concetti che modificano altri concetti: induzione basata su categorie
L’apprendimento di concetti può contribuire a costruirne altri, ma anche a modificarne altri ancora.
I principali studi empirici e modelli teorici dell’induzione basata su categorie hanno stabilito che la
forza di una conclusione induttiva di questo tipo dipende da diversi tipi di somiglianza tra le categorie
menzionate nelle premesse e quella menzionata nella conclusione. Nel modello della somiglianza-
copertura di Osheron e colleghi, la forza di una conclusione induttiva basata su categorie è determinata
da due fattori:
- Grado di somiglianza tra le categorie nelle premesse e quella nella conclusione, che dipende
dal numero di attributi in comune tra i concetti nelle premesse e quello nella conclusione;
- Grado di copertura delle premesse rispetto alla conclusione, che si riferisce all’estensione del
campionamento descritto nelle premesse, rispetto a quello necessario per includere la categoria
menzionata nella conclusione.
8.6.1.5 Altri tipi di rappresentazioni concettuali
Molti studiosi sostengono l’idea che nella memoria semantica non esista solo un tipo di
rappresentazioni concettuali, ma molti. Oltre alle regole e ai prototipi, vanno ricordate altre proposte:
- Combinazione nucleo concettuale + prototipo: il prototipo è basato su attributi diagnostici
e molto salienti, e costituisce la base della “funzione di riconoscimento”; in alcuni casi di
difficile classificazione si rende disponibile una versione “basata su regole” dello stesso
concetto, in grado di descriverne gli attributi necessari e sufficienti;
- Concetti come regole con eccezioni: gran parte dei concetti si basano su regole, che però
non sono perfette (regole imperfette modello bayes); per i teorici che hanno sviluppato
questa prospettiva le eccezioni sono codificate individualmente, trattenendole in memoria con
tutti i loro attributi;
- Concetti come collezioni di esemplari: una gran parte del nostro sistema concettuale non è
radicata in una memoria semantica separata da altre memorie, e neanche derivata per astrazione
dai singoli ricordi delle esperienze passate trattenuti in memoria episodica. Ma i concetti
coinciderebbero con l’insieme di tutti i ricordi degli esemplari conosciuti di una certa categoria.
Un nuovo esemplare è classificato attraverso un processo di stima di somiglianza basato in due
fasi:
• Una fase di confronto dell’esemplare con tutti i ricordi episodici incontrati in passato, in
cui l’output è un insieme di ricordi che superano una certa soglia di somiglianza con il
nuovo esemplare; se tutti ‘appartengono alla stessa categoria, il processo si interrompe e
il nuovo esemplare è riconosciuto come membro di quella categoria;
• Se invece i ricordi rievocati nella prima fase appartengono a più di una categoria, il
processo parallelo iniziale è seguito da un successivo giudizio analitico di somiglianza; il
nuovo esemplare sarà accreditato alla categoria in cui era stato classificato l’esemplare
rievocato che gli somiglia di più.
- Concetti come collezioni di regole incerte revisionate bayesianamente: quando un
individuo ipotizza una regola per definire un concetto, non è sicuro se sia corretta o sbagliata,
né di quante accezioni possa ammettere, quindi può sviluppare molte ipotetiche regole che
andranno a far parte della rappresentazione del concetto; se tutte le regole sono concordi, la
classificazione è rapida e accurata, se sono discordi è lenta e inaccurata. Se c’è un feedback sulla
correttezza o meno della classificazione, la fiducia nelle regole viene aggiornata bayesianamente,
finché una regola non si rivela più forte e affidabile delle altre;
- Concetti come teorie: aggregazioni di schemi di conoscenza causale (teorie) posso avere un
ruolo importante nella definizione di alcuni concetti;
35
- Sistema concettuale come simulatore quasi-percettivo: il sistema concettuale è soprattutto
un simulatore, cioè è in grado di creare modelli di situazioni, sviluppando concetti ad hoc,
costruiti sul momento in vista di specifiche situazioni e degli scopi delle nostre azioni. Molti
concetti sono calati nel contesto delle nostre azioni (grounded cognition, Barsalou); a questo
proposito Barsalou e colleghi hanno dimostrato che molte rappresentazioni concettuali sono
compenetrate di caratteristiche percettive e motorie: nel riconoscere un oggetto, attiviamo le
operazioni che potremmo svolgere con esso in quel contesto, e le corrispettive aree motorie nel
cervello.
8.6.2 La categorizzazione
La categorizzazione coinvolge meccanismi in parte abduttivi e in parte deduttivi. Ha due obiettivi:
- Semplificare le informazioni in ingresso, riconoscendo pattern complessi di stimolazione come
esempi di concetti noti (funzione di semplificazione o riconoscimento). Questa può
procedere in due modi:
• Per stime di somiglianza, che interviene quando i concetti sono rappresentati da
prototipi o da insiemi di esemplari, ed è abduttiva;
• Applicando regole, in questo caso possiamo usarle in stile deduttivo per riconoscere
singoli esemplari (inferenza modus ponens).
- Arricchire quegli esemplari generalizzando loro alcune proprietà del concetto (funzione
inferenziale o di generalizzazione). Questa si svolge in stile deduttivo e parte da due
premesse:
• L’esito del riconoscimento;
• Regole che descrivono l’associazione di un attributo al concetto, che generano
conclusioni di tipo modus ponens.
8.6.2.1 Due vie per categorizzare può voler dire due diversi esiti per la funzione di
riconoscimento
Il riconoscimento basato su regole è frequente quando la familiarità con un concetto è scarsa. Quando
la familiarità aumenta, interviene il più rapido riconoscimento basato su somiglianze. Entrambe le
procedure possono produrre errori. Nel primo caso, ciò accade quando la regola è poco adeguata, o
ammette eccezioni; nel secondo caso, gli errori possono avvenire perché è stata stimata male la
diagnosticità di un indizio, o per la propensione a ignorare le probabilità a priori.
Il maggior ricorso a classificazioni basate su somiglianze o regole distingue tra individui esperti in un
dominio e meno esperti.
8.6.2.2 Regole e somiglianze possono attivarsi insieme
Un individuo, nel classificare uno stimolo, si può avvalere sia di regole che di somiglianze. I risultati
degli esperimenti su questo argomento mostrarono che, la stima di somiglianza può interferire con il
giudizio di classificazione anche quando sono disponibili regole semplici, precise, che il partecipante è
addestrato ad utilizzare.
8.6.2.3 La categorizzazione basata su somiglianze approssima sempre correttamente
l’esito di un processo bayesiano?
La stima di somiglianze è la soluzione che l’evoluzione ha fornito al sistema cognitivo per approssimare
in modo rapido gli esiti di un giudizio bayesiano. Ma se nel riconoscimento percettivo, che cerca di
trasformare stimoli sensoriali in quadri percettivi, i suoi risultati sono sorprendentemente precisi, in
classificazioni di livello più alto, si espongono all’errore della “fallacia della probabilità a priori”. Nel
classificare basandosi su somiglianze verso i prototipi, il nostro sistema cognitivo corre il rischio di
categorizzare un concetto, nel caso in cui quel concetto sembri appartenere a quella categoria,
ignorando le probabilità a priori.
36
8.6.2.4 La funzione inferenziale (o di generalizzazione) della categorizzazione
Non sempre le informazioni che conosciamo su uno stimolo specificano il valore di tutti gli attributi
rilevanti per il concetto di riferimento, ma la classificazione procede ugualmente, basandosi sugli
attributi disponibili (funzione inferenziale).
Questa funzione è basilare per il sistema cognitivo: ci basta percepire pochi dettagli e, se sono
sufficienti per classificare lo stimolo, si rende subito disponibile alla mente un gran numero di
conoscenze riposte nel concetto che abbiamo attivato. Una volta classificato lo stimolo, può attivarsi un
meccanismo deduttivo di proiezione, cioè di generalizzazione da categorie a casi specifici (modus
ponens). La classificazione attuata con questo metodo, però, potrebbe anche rivelarsi falsa.
Lo stesso stile è utilizzato per inferenze di secondo ordine, creando vere e proprie catene inferenziali. Si
chiama distanza semantica il numero di passaggi inferenziali necessari per stabilire se questo tipo di
proposizioni sono vere. Più è ampia la distanza, più i tempi di risposta saranno lunghi.
8.6.2.5 I falsi ricordi e gli stereotipi sociali
A volte dimentichiamo di aver utilizzato inferenzialmente delle informazioni su un certo stimolo, invece
di averle percepite direttamente (ad esempio attribuendo una caratteristica ad un oggetto solo perché
siamo convinti che faccia parte di una certa categoria di oggetti, ma in realtà non ricordiamo se
effettivamente quell’oggetto ha quella caratteristica). Nella psicologia della testimonianza, questo
meccanismo contribuisce alla creazione di falsi ricordi; nella psicologia sociale, contribuisce ai fenomeni
di stereotipia.
Gli stereotipi sociali sono prototipi concettuali, molto radicati e culturalmente mediati, che
comprendono attributi salienti; nei casi in cui ci riferiamo a gruppi sociali, cui sentiamo di non
appartenere, spesso avvengono delle distorsioni, cioè consideriamo “tipici” e “diagnostici” attributi che
non lo sono. Da questo ne risulta l’evitamento sociale, che contribuisce alla ghettizzazione di gruppi
stigmatizzati da tratti, che anche se salienti, sono presenti solo in alcuni individui di quel gruppo.
37
Il confirmation bias è la tendenza a convincersi della correttezza di un’ipotesi più di quanto sia
giustificabile in base alle informazioni disponibili.
38
Ogni test dicotomico sulle previsioni è descritto da due parametri: la probabilità di ottenere risposta
positiva (complementare alla probabilità di ottenere risposta negativa); la forza diagnostica delle due
risposte, presenza della previsione o assenza della stessa.
Questi parametri permettono di calcolare la diagnosticità attesa di una domanda, che è la media della
forza diagnostica delle sue due risposte, in valore assoluto.
La diagnosticità attesa è in grado di determinare l’effettiva utilità logica di un test, quindi quale preferire
tra due o più test, per discriminare tra un’ipotesi e il suo complemento in modo razionale.
39
- Controllo positivo e “selezione ottimale” di informazioni (modello Optimal Data
Selection – ODS sta per proposte analoghe). Alcuni analisti hanno dimostrato che in situazioni
in cui le ipotesi che esploriamo sono specifiche e circoscritte, e altrettanto lo sono le regole che
dobbiamo scoprire (assunti di rarità), attenersi ad uno stile di controllo positivo ottimizza il
contenuto di informazioni reperibile durante l’esplorazione, rispetto all’attenersi di una strategia
di controllo negativo. Il fatto che il controllo positivo sia emerso come una delle tendenze più
forti nell’esplorazione potrebbe aver costituito un utile adattamento a un ambiente dove le
ipotesi che richiedono controllo sono abbastanza specifiche. Questo non esclude che,
l’adattamento generale a uno stile di controllo positivo non comporti notevoli distorsioni di
giudizio in alcuni contesti.
- Controllo positivo e contesti epistemici: il caso delle ipotesi iperspecifiche. Se chi controlla
adotta una strategia positiva, la sua esplorazione si muove entro la regola ipotizzata. In questo
caso, se l’ipotesi è totalmente infondata, troverà solo falsificazioni. Se la regola ipotizzata è
generica o imprecisa, potrà trovare anche delle conferme. Nel caso in cui trovi solo un
sottoinsieme di casi confermanti, le falsificazioni lo aiuteranno a correggere le sue ipotesi.
Ipotesi iperspecifiche controllate positivamente daranno luogo esclusivamente o soprattutto a
conferme. Nella vita reale, sono un esempio di ipotesi troppo specifiche erroneamente
confermate a causa della strategia di controllo positivo, tutti quei ritualismi associati a qualche
obiettivo senza che contribuiscano a raggiungerlo. Quindi un individuo otterrà frequenti
conferme, per esempio ad una superstizione, che potrà radicarsi come abitudine. Fuori
dall’ambito delle superstizioni, le ipotesi iperspecifiche erroneamente confermate grazie allo stile
di controllo positivo possono avere importanti effetti sociali.
- Controllo positivo e acquiescenza. L’acquiescenza è la tendenza a dire sempre sì in alcuni
contesti sociali (per esempio quando vogliamo essere gentili, o quando percepiamo che la
persona che ci domanda ha un potere e uno status superiore o potrebbe nuocerci.
- Controllo positivo e pseudodiagnosticità. Il controllo positivo, spingendo alla ricerca e al
controllo di dettagli probabili qualora l’ipotesi sia vera, è il principale meccanismo che induce, in
alcuni casi, alla formulazione di giudizi o domande pseudodiagnostiche. Casi in cui ci chiediamo
se una conseguenza osservata sia vera, perché sappiamo che la probabilità della conseguenza in
presenza dell’ipotesi è particolarmente alta, trascurando il fatto che non sappiamo niente della
probabilità della conseguenza in assenza dell’ipotesi. In questi casi la diagnosticità effettiva della
conseguenza non può essere stimata, e quindi la conseguenza è inutile ai fini di controllo. Il
controllo positivo è una strategia pressoché necessaria per un efficiente controllo di ipotesi in
molti ambienti. In altri casi può produrre tendenze, anche molto forti, a confermare
repentinamente ed eccessivamente le ipotesi controllate.
8.7.4.3 Preferenza per i test estremi
I test estremi sono anche asimmetrici falsificanti: la risposta che conferma l’ipotesi è più probabile di
quella che la falsifica, ma più debole. Quindi, se usati ripetutamente consentono di raccogliere molte
conferme deboli, e poche falsificazioni forti dell’ipotesi. Le persone che li adottano, quindi, finiranno
col riporre troppa fiducia nell’ipotesi: cioè, la strategia di controllo estremo, se associata a insensibilità
nella stima della forza degli esiti del test, può facilmente causare un confirmation bias.
8.7.4.4 Optare per test asimmetrici confermanti
Trope e Thompson, in compiti di controllo di ipotesi relative ad attribuzioni sociali, individuarono una
tendenza a preferire test asimmetrici confermanti, con bassa probabilità di raccogliere conferme forti
e alta probabilità di individuare falsificazioni deboli. Questa preferenza sembra emergere solo quando
attribuiamo un’elevata probabilità a priori dell’ipotesi, grazie a un qualche stereotipo.
Per questi studiosi, la preferenza per la domanda simmetrica o quella asimmetrica dipende dagli
stereotipi attivati. Anche una strategia asimmetrica confermante può provocare il confirmation bias, ma
per ragioni opposte a quelle già spiegate: le risposte falsificatorie sono frequenti, ma talmente deboli che
potremmo facilmente ignorarle.
40
Sacchi, Rusconi e Russo hanno trovato che, in compiti dove le ipotesi da controllare riguardano tratti di
personalità di persone appartenenti al proprio gruppo sociale, o ad un altro, la strategia di controllo
interagisce con il tipo di tratto e il tipo di gruppo: preferiamo domande asimmetriche confermanti per
controllare tratti positivi di persone del proprio gruppo, e tratti negativi di persone di un altro gruppo.
Al contrario, optiamo per strategie più simmetriche quando controlliamo la presenza di un tratto
negativo in una persona del nostro gruppo, e di un tratto positivo in una persona che non appartiene al
nostro gruppo.
Questa e altre ricerche sembrano indicare che le preferenze per controlli asimmetrici, sembrano almeno
in parte modulate da aspetti motivazionali, evocati dal contenuto delle ipotesi da controllare.
41
CAP 9. RAGIONARE PER RISOLVERE PROBLEMI
9.1 Tra pensiero e azione
Si è spesso evidenziato l’aspetto adattivo dei processi conoscitivi umani; “adattarsi” nella vita di tutti i
giorni spesso significa arrovellarsi per risolvere problemi: usare il proprio ingegno e la propria capacità
di ragionamento per cercare di modificare situazioni che ci danneggiano, o per rimuovere gli ostacoli
che ci impediscono di raggiungere qualche obiettivo. Questo è un modo di intendere il problem
solving. I fattori principali che esistono tra l’individuare un problema e la sua soluzione (o mancata
soluzione) sono il tipo di rappresentazione del problema che costruiamo, e i processi di ragionamento,
di esplorazione e di esecuzione attuati nella ricerca di soluzioni.
Nella vita reale, non percepiamo i cambiamenti qualitativi che avvengono: da uno stile di pensiero
abduttivo, supportato da recuperi di conoscenze induttive e ricordi specifici; ad uno stile deduttivo,
che stabilisce le conseguenze di ogni nuova informazione; a fasi di controllo, che stabiliscono se quelle
conseguenze si verificano; e a far interagire dati di pensiero con dati tratti dai sensi e dall’elaborazione
percettiva e attentiva. Ma lo percepiamo, invece, come un processo continuo, fluido, dove processi
mentali e azioni interagiscono. Quando il meccanismo si inceppa, ad esempio non riuscendo a risolvere
il problema, però, notiamo qualche difficoltà, ed è anche per questo che gli studi psicologici si sono
molto soffermati sugli errori. Grazie a questa cooperazione tra diverse forme di pensiero e azione, i
processi cognitivi aiutano a risolvere problemi, rimuovere ostacoli, e ad adattarci all’ambiente.
Didascalia 9.1 Alcuni processi coinvolti nella soluzione di un problema
Le prime tre componenti del problem solving sono:
- Rilevazione del problema, che è un confronto tra i propri obiettivi e l’ambiente attuale
(esempio: vorrei il libro; non lo trovo da nessuna parte);
- Impianto logico, che è di tipo ipotetivo-deduttivo e può bastare per risolvere problemi astratti,
ma non pratici;
- Operazioni concrete, che sono in interazione con l’ambiente. Possono non generare sotto-
problemi, detti ostacoli di esecuzione, ma in alcuni casi succede (esempio Sherlock → potrebbe
correre dei rischi nello svolgere un test).
La conclusione del problema è valida se le premesse sono tutte vere, ma per capire se lo sono realmente
vanno analizzate le altre due componenti del problem solving:
- Rappresentazione del problema: è la conseguenza delle iniziali congetture sul problema, e
rappresenta ciò che sappiamo in quel momento. Lo stupore della rilevazione del problema ci
induce a chiedercene la ragione, quindi cerchiamo spiegazioni (abduzione); le nostre
conoscenze suggeriscono che ci sono varie spiegazioni possibili, quindi recuperiamo anche
strutture causali apprese induttivamente, e relative alle proprietà del mondo fisico ad esempio;
quindi analizziamo la nostra memoria per cercare di risolvere il problema. A questo punto
abbiamo costruito una rappresentazione del problema, o spazio del problema, composta da
diverse possibilità: possono essere luoghi, quindi controllarle richiede la loro esplorazione;
possono essere azioni a mia disposizione, che possono avvicinarmi alla soluzione del problema
(operatori). L’esecuzione di azioni volte a controllare o modificare l’ambiente presuppone di
avere a disposizione conoscenze causali su quell’ambiente: quanto più sono povere e
inadeguate, tanto più i tentativi di soluzione si configureranno come una ricerca per prove ed
errori; se sono ricchi di conoscenze accurate, la soluzione può essere raggiunta in modo rapido
e fluido (problem solving degli esperi);
- Ricerca della soluzione: è anch’essa la conseguenza di un ragionamento induttivo volto alla
spiegazione. La ricerca della soluzione è iterativa, cioè controllata una possibilità, occorre
procedere a controllare le altre; il controllo si costituisce come una ricerca positiva di
informazioni. Se risolvo il problema in modo fluido, diretto, dallo stato di partenza all’obiettivo
senza mai tornare indietro, si parla di backtracking. Se non lo risolvo, mi convinco
42
deduttivamente di aver sbagliato qualcosa; in questo caso se non ho più tempo, risorse
cognitive, o adeguata motivazione, abbandono il problema. Se invece posso investire ancora
risorse, intraprendo la fase di revisione di ipotesi: ricomincio da capo, cercando si stabilire come
generare un’altra rappresentazione del problema (ristrutturazione del compito).
43
9.2.3 Fenomenologia del problem solving
Köhler, e poi Duncker e Wertheimer descrissero una fenomenologia del problem solving, cioè
manifestazioni comportamentali frequentemente osservate durante la risoluzione di alcuni tipi di
problemi, detti problemi per insight:
- Impasse: il partecipante ha esplorato tutte le possibilità a sua disposizione, ha prodotto una
serie di tentativi senza raggiungere un buon esito. Si blocca e può abbandonare il compito;
- Fissità o fissazione: il partecipante tenta più volte una strategia rivelatasi inefficace. Non riesce
a distaccarsi da vecchie ipotesi per sviluppare nuove possibilità;
- Incubazione: una pausa tra diversi tentativi di soluzione e durante la quale non ci si dedica al
problema, può aiutare a trovare nuove possibilità di soluzione;
- Aha-Erlebnis (“esperienza ah-ah”): indica il momento in cui “si accende la lampadina”, che si
può svelare improvvisamente dopo tutti gli altri stati.
9.2.3.1 Ma sei proprio fissato! Effetti di fissità
Il fenomeno di fissità indica un’influenza negativa di precedenti apprendimenti sulla possibilità di
affrontare un problema con mente sgombra, aperta a soluzioni nuove e creative. Conoscenze
precedenti, apprendimenti passati, e assunti spontanei verso la struttura del problema impongono
vincoli che possono impedire il raggiungimento della soluzione. Duncker illustrò un tipo particolare di
fissità, la fissità funzionale, che definì come un “blocco mentale che impedisce di usare un oggetto in
un modo nuovo”; dimostrò questo grazie a degli esperimenti, tra i quali il problema della candela:
presentava una candela, una scatola di puntine e una scatola di fiammiferi; diceva ai partecipanti di
attaccare la candela al muro in modo che illuminasse la stanza. La maggior parte entrava in una fase di
impasse e rinunciava dopo alcuni tentativi; pochi di loro riuscirono a ristrutturare il problema
creativamente. Nei casi in cui la soluzione si verificava, sembrava uscire fuori improvvisamente,
accompagnata da Aha-Erlebnis. Questo tipo di sblocchi improvvisi sono detti soluzioni per insight
(intuizione).
Altri studiosi suggerirono, ponendo altri problemi, che se la fissità funzionale deriva da conoscenze
precedenti, allora individui con minor disponibilità di conoscenze precedenti dovrebbero esserne meno
soggetti.
German e Defeyter sostenevano che se le conoscenze precedenti sono fondamentali, è anche vero che
a volte possono “imbrigliare” la fantasia. Infatti, i risultati estratti dai loro test suggerivano che i
bambini piccoli, meno vincolati da schemi di conoscenza acquisita, possono meglio di altri vedere
situazioni problematiche con occhi nuovi, e risolverle più creativamente.
Abraham Luchins, studiò glie effetti di fissità dovuti all’Eistellung (impostazione soggettiva o mental
set): il modo in cui ci poniamo di fronte ad un problema può determinare ostacoli per la sua soluzione.
Questo è stato illustrato dimostrando che soluzioni precedentemente offerte a problemi simili possono
meccanizzare il ragionamento volto alla soluzione di un nuovo problema: dal pensiero produttivo, che
affronta problemi nuovi, si passa ad uno stile di pensiero riproduttivo, cioè la meccanica applicazione di
schemi e regole appresi in passato
9.2.3.2 Meglio dormirci sopra: l’incubazione
Wallas ipotizzò che ignorare il problema per un po’ aiuti ad uscire da un’impasse o da una fissazione.
Sio e Ormerod hanno fatto una meta-analisi su questo fenomeno e, i risultati ottenuti mostrano che
esiste un effetto significativo del tempo di incubazione: è maggiore per i problemi che richiedono una
soluzione creativa, e cresce in base al tempo dedicato al problema prima dell’incubazione.
Gli effetti dell’incubazione possono essere dovuti ad elaborazione inconscia, anche durante il sonno: la
nostra mente continua ad elaborare il problema subliminalmente, mentre ci dedichiamo ad altro.
Possono essere dovuti anche ad un tipo particolare di oblio: durante il tempo di incubazione tendiamo
a dimenticare le informazioni relative a quali strategie abbiamo tentato, ai presupposti che abbiamo
considerato, e a tutte quelle altre “gabbie mentali” che determinano la fissità.
44
9.2.3.3 Ho visto la luce! Ristrutturazione per insight
Spesso la revisione della rappresentazione iniziale di un problema, dopo alcuni tentativi falliti, può
avvenire tramite consapevole, progressiva esplorazione di possibilità alternative; ma altre volte, le
ipotesi e le possibilità si esauriscono, e il problema ci sembra impossibile da risolvere. Nel secondo caso
può giungerci una fortunata intuizione improvvisa, ristrutturante il materiale di pensiero. Il termine
insight si riferisce a questa ristrutturazione o ricentramento improvviso del campo percettivo.
Per i gestaltisti, questo è un processo creativo, e l’esperienza soggettiva corrispondente è quella di una
scoperta o illuminazione improvvisa (Aha-Erlebnis); ma è rimasto a lungo il dubbio se l’insight fosse
veramente il prodotto di un processo di scoperta qualitativamente diverso, o una delle manifestazioni
fenomeniche del processo di ricerca passo dopo passo della soluzione. Ad esempio, le scimmie di
Köhler potevano non aver risolto i loro problemi con un improvviso insight creativo, ma attraverso il
graduale recupero dalla memoria di strategie apprese in passato e adattate al nuovo problema. Oggi
sappiamo che gli animali sono in grado di fare ragionamenti causali e strumentali, e che molti primati
sanno usare alcuni strumenti, costruirne altri, e riconoscere le loro proprietà rilevanti per un compito,
anche in assenza di esperienze precedenti. Comunque, la comprensione animale dell’uso di strumenti
sembra qualitativamente diversa da quella umana: è più basata sulle relazioni tra attributi concreti e
visibili, che sulla rappresentazione e ristrutturazione di relazioni astratte.
Janet Metcalfe e colleghi studiarono due diversi tipi di problemi: alcuni erano problemi per insight e
altri erano tipici problemi incrementali, per cui la soluzione era raggiunta passo dopo passo. Durante
la ricerca di soluzioni, i partecipanti dovevano esprimere la loro fiducia a priori verso le loro capacità di
risoluzione. I risultati suggerirono che, le soluzioni incrementali derivano da un processo controllato,
sugli esiti del quale il solutore può fare previsioni affidabili; le soluzioni per insight (o pop-out) derivano
da processi fuori dal controllo consapevole del solutore, e sul loro esito non sono possibili previsioni
accurate.
In altri studi basati sull’individuazione di aree cerebrali attive nei due diversi compiti, scaturirono delle
dissociazioni tra aree cerebrali maggiormente attive nei processi di insight e quelle più attive nelle
soluzioni incrementali. Questi risultati appoggiano l’idea che i processi su cui si basa l’insight siano,
almeno in parte, qualitativamente diversi da quelli legati all’esplorazione seriale.
Bowden e Jung-Beeman sostengono che le soluzioni per insight sono basate sulla costruzione di nuove
associazioni tra materiale prima non connesso. Qualcosa, però, accomuna i due tipi di soluzioni, infatti
se la soluzione per insight si presenta improvvisamente alla consapevolezza, sembra che si sviluppi
gradualmente nel tempo, in proporzione alla quantità di informazione che si è resa disponibile. Per
chiarire questo punto, applicarono un secondo esperimento, del quale i risultati indicano che anche alla
base di soluzioni che compaiono improvvisamente vi sia un processo di elaborazione incrementale,
simile a quello che avviene nelle revisioni consapevoli e seriali della rappresentazione del problema.
Quel processo, però è inconsapevole, e probabilmente avviene in parallelo e non serialmente.
Per rispondere al come possa aver luogo la ricerca inconscia delle idee nuove, dal punto di vista
computazionale, è stata illustrata una proposta ispirata alla teoria neodarwiniana dell’evoluzione naturale
(processo di ricombinazione e mutazione di geni in molte forme di vita diverse, selezionate sotto la
pressione di stimoli ambientali: processo in grado di produrre soluzioni sempre nuove e intelligenti ai
problemi di adattamento). Il processo si svolge in due stadi:
- Generativo, che formula in modo non deterministico idee arbitrarie, combinando insieme a
caso gli elementi di conoscenza preesistenti;
- Valutativo, che agisce da filtro e si basa su criteri prestabiliti (obiettivi); il filtro valuta le idee
prodotte, gli attribuisce una forza proporzionale alla loro capacità di contribuire alla
ricombinazione di nuove idee in futuro; le idee che sopravvivono servono da input per una
nuova fase generativa.
9.2.3.4 Ma che goffo! Ostacoli di esecuzione
Nel modello di Ohlsson è il rilassamento dei vincoli uno dei fattori determinanti nel consentire
l’emersione di una soluzione nuova e creativa, ma questo fattore non è sempre sufficiente. La
rimozione dei blocchi mentali e il rilassamento dei vincoli consente, più che di risolvere il problema, di
45
esplorare un maggior numero di possibilità; se poi attraverso queste possibilità riusciamo a giungere alla
soluzione, questo è anche dovuto alla presenza o meno di ostacoli di esecuzione: potremmo non
riuscire a svolgere con efficacia le operazioni resesi disponibili.
46
9.3.1.1 La mappa: lo spazio degli stati
Dato un problema ben definito, l’insieme di tutte le possibilità che si possono ottenere applicando ai
vettori tutti gli operatori disponibili, è lo spazio degli stati: uno spazio esaustivo, combinatorio, una
virtuale “mappa completa del territorio” da percorrere per avvicinarsi al goal. Tutti i giochi da tavolo
possono essere descritti come uno spazio degli stati, ma per molti di questi lo spazio degli stati, cioè
tutte le possibili combinazioni che si possono realizzare in una partita, è sì finito, ma vastissimo.
Il modo più semplice per esemplificarlo è la versione più semplice della torre di Hanoi di Edouard
Lucas, gioco utilizzato in alcuni protocolli di valutazione neuropsicologica. Le regole sono: spostare
tutti i dischi sul terzo piolo nello stesso ordine in cui sono sul primo, muovere un disco per volta, non
mettere mai un disco più grande sopra uno più piccolo. Lo spazio degli stati della versione più semplice,
a tre dischi, è come minimo di 8 passaggi.
Per Newell e Simon, lo spazio del problema è la comprensione iniziale del problema, che permette di
generare lo spazio degli stati che connettono la condizione iniziale con quella terminale; loro estraevano
la rappresentazione del problema usata dai solutori umani dai loro protocolli, poi simulavano lo spazio
del problema nel programma GPS, cercando di ricreare le modalità con cui il partecipante umano aveva
cercato una via verso la soluzione.
9.3.1.3 Una bussola più rozza: l’hill-climbing
Newell e Simon identificarono altre strategie di ricerca euristica, compreso l’hill-climbing
(arrampicamento sulla collina). Questa non richiede memoria, ma richiede di sapere solo quale sia
l’obiettivo, e quale sia lo stato attuale. Si può paragonare ad uno scalatore cieco, che per raggiungere la
vetta fa solo passi in salita, seguendo il ragionamento che sale sempre e non scende mai, prima o poi
arriverà. Tecnicamente si tratterebbe di confrontare il vettore che descrive lo stato iniziale, con quello
che descrive lo stato terminale, valutando la distanza di ogni parametro del primo da ogni parametro del
secondo; di scegliere, poi, una mossa che riduca la distanza di almeno uno dei parametri, senza
aumentare quella degli altri. L’hill climbing è molto efficiente, ma può essere poco efficace, perché può
non incrementare molto la possibilità di raggiungere la vetta. Tecnicamente questa strategia può portare
al raggiungimento dei massimi locali, cioè punti in cui ogni operazione possibile aumenta la distanza
dall’obiettivo, che non coincidono con la soluzione.
Il problema può essere in parte attenuato quando si è in grado di distinguere lo stato terminale dai
massimi locali, e in caso di massimo locale si consente il backtracking, cioè il tornare indietro lungo la
via percorsa e ripartire da lì.
9.3.2 Ripiegare, ripiegare! Il backtracking
Quando ci accorgiamo che una via imboccata non può portare alla soluzione, ci rimane solo di tornare
indietro (backtracking) o abbandonare il problema.
Nella prospettiva di Newell e Simon, il backtracking è un vero e proprio ripiegamento, che può essere
difficile da attuare durante l’hill climbing, e il doverlo fare può generare impasse e abbandono del
compito. Se riusciamo a tornare indietro, possiamo esplorare una possibilità non ancora perseguita; in
qualche caso, ad esempio nei problemi di insight, questo può richiedere una ristrutturazione: pensare
nuove possibilità di azione, o ridefinire gli obiettivi.
Simon arrivò a considerare la ristrutturazione per insight, descritta dall’approccio gestaltico, come una
ridefinizione dello spazio problema: ricerca entro il meta-spazio costituito da tutti i possibili spazi con
cui si può descrivere un problema.
47
è attraverso l’evocazione di conoscenze precedenti, con le quali, un modo per influenzare il problem
solving che consente di connettere ragionamento produttivo e riproduttivo, è il ragionamento per
analogia.
9.4.1 Il ragionamento per analogia
Il ragionamento per analogia consiste nell’individuare alcune speciali somiglianze tra un insieme di
conoscenze passate relative ad un problema già risolto e un problema nuovo con cui ci stiamo
confrontando. In base a quelle somiglianze ipotizziamo che la vecchia soluzione possa, una volta
adattata, applicarsi anche al nuovo caso. Questo è stato dimostrato con il problema del generale che
deve abbattere una fortezza, e con il problema del dottore che deve distruggere un tumore.
Le fasi in cui può essere scomposto un ragionamento per analogia sono:
- Fase di recupero: è la fase in cui ci chiediamo come risolvere il problema nuovo (bersaglio),
che fa da cue (indizio) per recuperare dalla memoria una o più sorgenti di analogia (dominio di
conoscenze già acquisite);
- Fase di mapping o di allineamento strutturale: fase in cui si cerca di stabilire un isomorfismo
parziale (mettere in corrispondenza almeno parte della struttura delle conoscenze sorgente con
parte della struttura bersaglio);
- Fase di transfer o trasferimento di conoscenza: se l’isomorfismo parziale stabilito è
convincente, si cerca di estenderlo per via ipotetica, quindi alcuni elementi del dominio sorgente
non presenti nel dominio bersaglio sono trasferiti e copiati sul dominio bersaglio. Il transfer,
quindi, genera quindi inferenze induttive relative al problema bersaglio;
- Fase di apprendimento: se l’analogia ha successo e il nuovo problema è risolto, l’isomorfismo
sviluppato può essere deprivato dei suoi contenuti specifici (si rendono liberi i parametri
associati agli argomenti di ogni relazione). In questa forma astratta, può essere appreso e
depositarsi in memoria; da questo ne risulta uno schema, cioè un insieme di regole che
possono, poi, aiutare a risolvere altri problemi di struttura analoga (schemi dominio-
specifici).
9.4.1.1 A cosa serve l’individuazione di analogie?
Per aumentare la probabilità che le conoscenze reclutate siano adeguate, è necessario che i due domini
siano strutturalmente simili. Grazie alla capacità di indivuare analogie possiamo interagire con molte
situazioni per le quali non abbiamo conoscenze specifiche; il modello orbitale di idrogeno, ad esempio,
si ispira ad un’analogia con il sistema solare (analogie complesse). Ogni volta che ci troviamo in un
ambiente nuovo, sviluppiamo analogie con altrettanti ambienti nuovi, riservando gli aggiustamenti ad
un momento successivo (analogie semplici). L’individuazione di analogie, come tutti i processi
induttivi, genera ipotesi e non certezze, quindi può condurre a conclusioni errate, che richiedono un
controllo. Solo se si dimostrano adeguate possono essere ricordate e apprese in forma di schema.
9.4.1.3 La forza di un’analogia
Gentner e colleghi hanno individuato che, un allineamento analogico è tanto più forte quanto più:
- Le relazioni messe in corrispondenza hanno argomenti anch’essi in corrispondenza (criterio
della connettività parallela);
- Ogni elemento in una struttura è allineabile solo ad uno degli elementi nell’altra struttura
(criterio della biunivocità);
- L’analogia si basa principalmente su allineamenti di relazioni, piuttosto che di componenti
superficialmente identiche (criterio del focus sulle relazioni);
- L’analogia coinvolge sistemi altamente interconnessi da relazioni interne (criterio della
sistematicità).
9.4.1.5 Il recupero spontaneo di analogie
Nella maggior parte degli esperimenti sul pensiero per analogia, la possibile sorgente è fornita ai
partecipanti dallo sperimentatore, qualche tempo prima del problema da risolvere; nella vita reale
sviluppiamo analogie sondando la nostra memoria e attivando qualche possibile fonte.
48
Holyoak e Thagard hanno elaborato una “teoria pragmatica” dell’analogia, secondo la quale nel cercare
una sorgente di analogia tra i concetti disponibili in memoria, le persone provano a soddisfare in
parallelo tre requisiti:
- Somiglianza superficiale: l’analogia dipende dalla somiglianza dei componenti del dominio
sorgente con quelli del dominio bersaglio;
- Somiglianza strutturale: l’analogia dipende dalla somiglianza strutturale tra dominio sorgente
e bersaglio;
- Somiglianza di obiettivi: l’analogia dipende dalla somiglianza degli obiettivi conseguiti nel
dominio sorgente con quelli da conseguire nel dominio bersaglio.
Questi requisiti sono vincoli flessibili, che il sistema prende in considerazione parallelamente;
l’importanza relativa a questi può variare in base all’età degli individui (ad esempio i bambini tendono a
fare analogie sulle somiglianze superficiali, e durante la crescita anche sulle altre: relation shift).
9.4.1.6 Dalle analogie agli schemi di ragionamento
Per Holyoak e colleghi, lo sviluppo e l’uso di un’analogia può risolversi nell’apprendimento di uno
schema di ragionamento astratto, che successivamente può essere flessibilmente applicato a contesti
strutturalmente simili, ma superficialmente dissimili da quelli in cui lo schema è stato acquisito.
Lo stabilire una prima analogia tra due domini di conoscenza permette di estendere l’analogia con
maggiore facilità ad altri domini. La prima o le prime analogie astraggono uno schema, o mappa
concettuale, libero da vincoli di contenuto. Può quindi essere applicato a qualsiasi contenuto, purché
con struttura simile (schemi dominio-specifici). Cheng e Holyoak svilupparono questa proposta nella
teoria degli schemi pragmatici di ragionamento.
Via via che le persone acquistano esperienza in una particolare area, acquisiscono un numero via via
crescente di schemi, che diventano sempre più facili da recuperare per risolvere problemi nuovi. Questa
acquisizione è la caratteristica fondamentale che distingue la prestazione di un esperto (expertise) da
quella di un non esperto.
9.4.2 I’m Wiston Wolfe. I solve problems
Quando non riusciamo a risolvere un problema importante, cerchiamo un esperto che ci aiuti;
soprattutto un esperto dell’area in cui si è presentato il problema.
Con expertise si intende ciò che rende qualcuno molto abile, grazie al precedente addestramento ina
certa area di compiti. Un esperto ha diverse conoscenze precedenti in un particolare dominio, che
possono prendere due pieghe:
- Negativa, nella misura in cui determinano fissità, rigidità, meccanizzazione del pensiero e
mental set;
- Positiva, nella misura in cui gli schemi, anziché causare rigidità e meccanizzazione, favoriscono
la rapida soluzione di problemi, impossibili per gli altri.
Questa sorta di meccanizzazione è l’effetto negativo delle conoscenze precedenti, che può comportare
errori di giudizio, di decisione, e di categorizzazione.
Ogni area di expertise è a sé stante, ma ci sono cose che accomunano tutti gli esperti e li differenzia dai
non esperti.
9.4.2.1 Gli esperti sono più intelligenti degli altri?
Se intendiamo come intelligenza l’insieme di capacità cognitive di base, gli esperti di una data area, nella
media, non sono diversi da qualsiasi non esperto di quell’area; per esserlo è necessario l’apprendimento
guidato dall’esperienza.
Chase e Simon ipotizzarono che gli esperti giocatori di scacchi, erano tali perché, possedevano una gran
quantità di configurazioni di pezzi note e depositate in memoria a lungo termine (i chuncks, grappoli
di informazione); questo gli consentiva di riconoscere velocemente lo stato di una partita, mandarlo a
memoria più velocemente, ricordarlo meglio, e selezionare solo poche mosse accettabili.
Gobet e Waters perfezionarono questo concetto; secondo loro i giocatori esperti avrebbero acquisito
degli schemi (templates), in grado di connettere tra loro in modo sensato molti pezzi di una
configurazione su una scacchiera. Così gli basterà attivare due o tre di questi schemi per riconoscere
49
una configurazione di gioco; le risorse cognitive risparmiate, inoltre, possono essere dedicate all’analisi
delle altre mosse.
La stessa conclusione sembra discendere dai numerosi studi sull’expertise medica: la principale
distinzione tra gli stili di ragionamento di un medico esperto e uno non esperto è che il primo si avvale
principalmente di processi impliciti e automatici, mentre il secondo più di processi espliciti e analitici.
Ciò che sembra accomunare gli esperti di diverse aree sono poche caratteristiche non legate a specifici
tratti individuali:
- Vaste conoscenze facilmente accessibili, accumulate per esperienza nell’arco di molti anni di
attività, e sedimentate in schemi dominio-specifici;
- Maggior ricordo all’attivazione automatica di schemi (pensiero implicito);
- Il risparmio di risorse cognitive consentito dall’attivazione automatica degli schemi permette
agli esperti di dedicare più tempo e risorse ad approfondimenti analitici della situazione, se
necessari (pensiero esplicito).
Se i primi due punti non sono ben coniugati con il terzo, la disponibilità di conoscenze precedenti può
determinare solo meccanizzazione, rigidità, e tendenza alla conferma.
Se parte dell’ideazione creativa alla base di un insight è legata alla rielaborazione inconscia di
conoscenze precedenti, gli esperti, disponendo di conoscenze precedenti molto più vaste, sono anche i
migliori candidati per lo sviluppo di idee nuove e creative nella loro area di competenza.
50
9.5.3 I sillogismi con connettivi proposizionali
9.5.3.1 La spiegazione sintattica
La via più diretta e intuitiva per cercare di creare una buona teoria formale della psico-logica (teorie
della logica mentale) consiste nel prendere un linguaggio logico ben formalizzato, modificarne il
numero di regole in modo che la lunghezza delle derivazioni risulti proporzionale alla difficoltà di quelle
stesse inferenze per la mente umana, ed eventualmente aggiungere qualche schema erroneo.
Sono state create diverse teorie della logica mentale, una delle più complete è di Braine e O’Brien.
Questa versione prevede la possibilità che si possa ragionare deduttivamente anche in altri modi, oltre
che tramite regole, ed è più aperta a valutazioni pragmatiche. Implementa una versione psicologica del
calcolo naturale, scomponendo il ragionamento in due tipi:
- Routine di ragionamento diretto, che si basa su circuiti logici in grado di implementare
automaticamente alcune regole inferenziali (una implementa ad esempio il modus ponens); gli
schemi indiretti includono strategie supposizionali, come l’introduzione del condizionale e la
riduzione all’assurdo; la comprensione linguistica le depriva dei contenuti superficiali,
estraendone la struttura logica; dopodiché la routine diretta esplora la struttura delle premesse:
se ino schema vede soddisfatta la sua condizione di applicazione, genera automaticamente la
conclusione, la aggiunge alla memoria di lavoro, e segna le premesse coinvolte come “già
utilizzate”;
- Routine di ragionamento indiretto, che non è automatica, ma la sua attivazione richiede una
decisione consapevole e il coinvolgimento di risorse attentive; gli schemi indiretti sono appresi e
qualora uno non sia stato acquisito, non può essere utilizzato.
9.5.3.2 La spiegazione semantica
Le odierne teorie che cercano di descrivere come effettivamente ragioniamo, sostengono che la
percezione costituisce modelli isomorfi del mondo fisico, e che la comprensione linguistica dimentica
rapidamente la sintassi superficiale e profonda delle frasi, la loro semantica logica, e mantiene solo
modelli del loro significato. Questa teoria è spiegata tramite dei principi:
- Principio di iconicità: ogni modello è iconico, cioè è un isomorfismo alla struttura del
corrispondente significato;
- Principio di possibilità: ogni modello rappresenta una possibilità in cui la premessa è vera;
- Principio di verità: nella rappresentazione iniziale, si rappresentano esplicitamente gli asserti
dichiarati veri nella premessa;
- Principio di economicità o dei modelli impliciti: gli asserti veri si rappresentano
esplicitamente nel minor numero possibile.
Una volta costruiti i modelli mentali del significato delle premesse (fase di comprensione), il
ragionamento consiste nell’integrarli (fase di integrazione), e nel cancellare alcuni modelli alla luce si
altri. La conclusione è una descrizione del modello o dei modelli che risultano dalla fase di integrazione,
con il requisito di essere parsimoniosa e nuova.
Alla fase di produzione della conclusione iniziale segue, potenzialmente, una fase iterativa di ricerca di
controesempi o elaborazione dei modelli impliciti (fulcro della potenziale razionalità logica degli esseri
umani).
9.5.4 I sillogismi categorici o “aristotelici”
Un sillogismo (argomentazione logica per arrivare ad una conclusione) categorico è composto da due
premesse e una conclusione. È valido se la conclusione è necessariamente vera alla luce delle premesse,
altrimenti è invalido.
I termini del sillogismo sono gli argomenti delle proposizioni; quelli che compaiono in una sola
premessa sono detti estremi; quello che compare in entrambe è il termine medio.
La conclusione del sillogismo deve stabilire una relazione quantificata tra i termini estremi delle
premesse, senza menzionare quello medio.
51
9.5.4.1 L’approccio semantico alla spiegazione del ragionamento su sillogismi categorici
La teoria dei modelli mentali nacque per rendere conto del ragionamento con sillogismi categorici. Le
quattro fasi di ragionamento per questi sono uguali a quelle del ragionamento con connettivi
proposizionali:
- Comprensione delle premesse, attraverso la costruzione di un modello di ciascuna; si
costruisce una qualche rappresentazione mentale isomorfa alla struttura premessa, che può
variare in base alla strategia di ragionamento scelta (principio delle variazioni strategiche);
- Integrazione dei modelli che rappresentano le due premesse, per costruire un primo modello
del problema;
- Estrazione della conclusione iniziale, cioè una descrizione del primo modello del problema;
si esamina il modello del problema alla ricerca di una relazione con le premesse;
- Ricerca iterativa di controesempi, o modelli alternativi del problema inizialmente rimasti
impliciti; si esamina se esistano altre possibilità per rappresentare le premesse, per le quali la
conclusione iniziale si riveli falsa.
La conclusione corretta scaturisce spontanea in poco tempo. Se il solutore interrompesse la ricerca
dopo aver costruito il primo modello, riporterebbe la conclusione corretta; e se cercasse controesempi,
non ne troverebbe. Un sillogismo categorico è difficile quando l’unica possibilità inizialmente resa
esplicita per comprenderlo non supporta la conclusione corretta; è facile quando la sua
rappresentazione iniziale supporta la conclusione corretta.
9.5.4.2 Le regole euristiche nei sillogismi categorici: l’effetto “atmosfera” e il principio
del matching
Non sempre il ragionamento sui sillogismi aristotelici è volto alla comprensione dell’effettivo significato
delle premesse, né si basa su elaborazioni e rielaborazioni mentali di possibilità. Spesso ci avvaliamo di
regole euristiche, che non danno garanzia di correttezza, ma sono molto moderate dal punto di vista
cognitivo. Una delle più importanti fu individuata da Woodworth e Sells, che proposero la teoria
dell’effetto atmosfera: nel risolvere un sillogismo aristotelico, chi adotta questa euristica non utilizza
nessun processo di ragionamento simile alla logica deduttiva, e risponde affidandosi a caratteristiche
superficiali delle premesse.
Le due regole euristiche che producono l’atmosfera del sillogismo sono:
- Se almeno una delle due premesse è particolare, la conclusione suggerita è particolare, altrimenti
è universale;
- Se almeno una delle due premesse è negativa, la conclusione suggerita è negativa, altrimenti è
affermativa.
Wetherick e Gilhooly hanno ipotizzato un meccanismo euristico simile all’effetto atmosfera, ma in
grado di adattarsi un po’ meglio ai risultati empirici: le persone preferiscono produrre una conclusione
che contenga uno dei quantificatori presenti nelle premesse. Se le premesse hanno lo stesso modo, il
quantificatore della conclusione sarà identico a quello delle premesse. Se le premesse hanno modi
diversi, viene scelto il quantificatore più “conservativo”, cioè quello che indica la minor corrispondenza
possibile tra gli estremi. Questa è l’euristica del matching (corrispondenza), che emula in larga misura le
predizioni dell’effetto atmosfera, ma con maggior precisione rispetto ai dati empirici.
9.5.5 I sillogismi lineari
Un sillogismo lineare è un’inferenza basata su relazioni che godono di proprietà extralogiche ben
definite. Una forma particolare di questi, i sillogismi spaziali, si avvale di relazioni tra posizioni
fisiche; allo stesso modo si possono produrre sillogismi temporali.
De Soto, London e Handel proposero che nel risolverli costruiamo rappresentazioni analogiche
ancorate alle dimensioni di uno spazio mentale, isomorfo allo spazio fisico.
Questi studiosi avevano osservato che i sillogismi determinati, che ammettono un unico ordinamento
dei termini generano meno errori, e risposte più rapide, dei sillogismi indeterminati, che ammettono
due ordinamenti dei termini. Successive ricerche hanno permesso di stabilire che le persone cercano di
costruire una rappresentazione univoca delle relazioni descritte, cioè che richieda un solo modello
mentale. Per costruirla occorre inserire nel modello un assunto arbitrario, che può generare errori:
52
invece di rappresentare tutte le possibilità, tendiamo a rappresentarne una sola; in base a quella, ci
riteniamo certi di una conclusione che, in realtà, è possibile, ma non necessaria. Di solito, però,
riusciamo a ricostruire una rappresentazione alternativa: questo tipo di “riaggiustamenti successivi”
illustra bene in principio di economicità, o dei modelli impliciti.
9.5.6 Il dibattito tra teorie semantiche e teorie sintattiche
Le teorie semantiche e sintattiche sono state, per anni, contrapposte per un dibattito su quale fosse la
base della competenza logica umana.
Oggi possiamo concludere che:
- La teoria dei modelli mentali (semantica): i suoi principi base le permettono di interfacciarsi con
altri processi di pensiero, come quelli induttivi e abduttivi, con l’apprendimento e l’uso di
concetti e la categorizzazione, e persino con la percezione e la comprensione linguistica. Al suo
attivo ha un’importante classe di previsioni empiriche originali, puntualmente verificate: quella
delle inferenze illusorie. Questa teoria spiega in modo naturale ragionamenti con premesse non
linguistiche, e i sillogismi lineari; si applica molto bene al problem solving, permettendo di
descrivere lo spazio del problema come un insieme di rappresentazioni mentali di diverse
possibilità, la ricerca di un percorso al suo interno come la manipolazione di queste possibilità, e
l’insight come processo di esplicitazione di modelli inizialmente impliciti.
- La teoria della logica mentale (sintattica): si presta meglio alla formalizzazione, e quindi a
formulare previsioni molto precise, ma in abiti molto ristretti.
9.5.7. Gli effetti delle conoscenze precedenti nella soluzione di problemi deduttivi
L’influenza delle conoscenze precedenti sulla soluzione dei problemi deduttivi è stata illustrata da due
effetti:
- Il belief bias (errore sistematico dovuto alle conoscenze), che fu il primo ad essere considerato
bias. A parità di validità, una conclusione sillogistica è più facilmente accettata se l’individuo la
ritiene vera, mentre è accettata con maggiore difficoltà se l’individuo la ritiene falsa. Evans,
Barston e Pollard dimostrarono che il belief bias si manifesta soprattutto su sillogismi invalidi.
In compiti di produzione, cioè quando i partecipanti sono liberi di generare la loro conclusione
a partire dalle premesse, il belief bias ha effetto sui sillogismi che ammettono conclusioni valide
sia su quelli che non ne ammettono; inoltre, è stato osservato che conclusioni incompatibili con
le premesse, per quanto credibili, non sono praticamente mai né prodotte, né accettate. La
spiegazione più appropriata del belief bias, quindi, sembra di natura semantica. Il solutore cerca
di costruire il modello di una sola possibilità, in cui siano vere tanto la conclusione suggerita
dalle sue conoscenze precedenti, quanto le premesse. Se ci riesce, accetta la conclusione; se non
ci riesce, quindi la conclusione suggerita dalle conoscenze precedenti è incompatibili con le
premesse, non accetta la conclusione suggerita, e può dedicarsi a costruire modelli alternativi.
Come conseguenza, tendiamo a ragionare in modo più logico, e meno prono al belief bias,
quando le conoscenze precedenti suggeriscono una conclusione impossibile alla luce delle
premesse.
- L’attivazione di regole dominio-specifiche: le conoscenze precedenti e l’expertise si
declinano come schemi di regole acquisite depositate in memoria a lungo termine. Quando
sono disponibili certi schemi, il ragionamento è semplificato: da produttivo, diventa in gran
parte riproduttivo. Importanti risultati sono derivati da numerosi studi sul ragionamento con
condizionali deontici, che si sono avvalsi, anche, di versioni deontiche del compito di
selezione di Wason. I condizionali deontici esprimono norme di comportamento: sistemi di
leggi che regolano l’esistenza delle società umane (“se non finisci la zuppa non avrai il dolce”)
ne sono manifestazioni complesse e articolate. Un condizionale deontico può essere violato o
rispettato, ma non falsificato o verificato; questo rende questo tipo di ragionamento con
condizionali deontici diverso dal ragionamento con implicazioni logiche.
In forma deontica, il compito di Wason, prevede una regola che prescrive un qualche
comportamento, e quattro carte che descrivono possibili comportamenti. In questo caso, la
regola è sempre vera, i partecipanti devono trovare quali carte esplorare per stabilire se la regola
53
viene, o meno, rispettata o violata. Nella prima versione deontica di questo compito, venivano
presentate quattro buste: una chiusa, una aperta, e altre due che mostravano il dorso, una delle
quali aveva un francobollo da 50 lire e l’altra da 40. La regola era: se una busta è chiusa, allora
deve avere un francobollo da 50 lire.
In questa versione, la percentuale di scelte corrette salì dal 10% del compito delle 4 carte,
all’85%: questo effetto di facilitazione, secondo Cheng e Holyoak, è dovuto, non tanto dalla
familiarità con le regole deontiche specifiche utilizzate nei compiti, quanto piuttosto dalla
familiarità con regole dello stesso tipo (le persone, fin dalle prime fasi di sviluppo del linguaggio,
incontrano diversi esempi di condizionali deontici, e stabiliscono analogie tra i vari esempi
incontrati.
Inoltre, stabilire un’analogia non consente solo di trasferire conoscenze da un dominio all’altro,
ma anche di astrarre lo schema della struttura che accomuna i due domini. Questi schemi
pragmatici di ragionamento consentono di estendere le analogie a nuovi problemi
superficialmente diversi, ma strutturalmente simili: gli schemi si comportano come insiemi di
regole inferenziali applicabili solo a determinate situazioni, quindi regole dominio-specifiche.
Per esempio, stabilire un’analogia tra regole superficialmente simili come “se non mangi la
zuppa non avrai il dolce” e “se non mangi l’arrosto non avrai le patate” può consentire ad un
bambino di astrarre uno schema generale di “permesso”, che gli consentirà, successivamente, di
comprendere nella stessa maniera una regola superficialmente diversa.
54
CAP 11. LE EMOZIONI
11.1 La complessità dell’esperienza emotiva
11.1.1 Che cosa è un’emozione?
In base alle proposte dei principali studiosi dell’esperienza emotiva, possiamo definire le emozioni
come risposte complesse ad eventi particolarmente rilevanti per la persona, caratterizzate da determinati
vissuti soggettivi e da un’articolata reazione biologica. Il fatto di essere risposte intense, temporalmente
circoscritte e di breve durata, le distingue dagli stati d’animo e dall’umore, caratterizzati da una bassa
intensità e da una durata e un decorso temporale più lunghi.
Gli stati d’animo e l’umore possono essere suscitati anche da situazioni generiche e scarsamente
definite (come le condizioni atmosferiche), o da semplici sensazioni (tipo un odore).
Davidson e altri dimostrarono come le emozioni influenzino soprattutto le azioni delle persone,
organizzandole in reazioni adattive e particolari eventi, mentre gli stati d’animo influenzano
maggiormente i processi attentivi e di valutazione degli stimoli.
I sentimenti condividono con gli stati d’animo il fatto di essere più duraturi e meno circoscritti
temporalmente delle emozioni, però i sentimenti sono focalizzati e sono rivolti in maniera
relativamente stabile verso un preciso oggetto o classi di oggetti.
Stati d’animo e sentimenti possono predisporre a certe emozioni, in base a particolari eventi con un
elevato significato personale.
Quello di affetto, infine, è un termine molto ampio e generico, usato di solito per indicare il carattere
“non-cognitivo”, ma affettivo, dell’esperienza emotiva, e che consiste soprattutto nella qualità positiva
o negativa degli eventi che provocano le emozioni.
11.1.2 Le componenti delle emozioni
Le emozioni sono caratterizzate da reazioni fisiologiche complesse e da particolari espressioni e
manifestazioni, soprattutto a livello facciale. Sul piano cognitivo implicano una valutazione
dell’evento e delle risorse a disposizione per il suo fronteggiamento. Sul piano dell’azione, le emozioni
attivano o inibiscono, orientano e sorreggono specifiche forme di comportamento, anche in vista del
raggiungimento di obiettivi con un forte significato personale. Ogni emozione, infine, è caratterizzata
da una forte connotazione soggettiva, che ne fa in certa misura un evento unico e peculiare in ciascun
individuo. Le componenti dell’esperienza emotiva sono:
- Eventi emotigeni. Esempio: “sono arrabbiato. Mi hanno derubato”
- Reazioni fisiologiche. Esempio: “il cuore mi batteva forte per la paura”
- Valutazione cognitiva. Esempio: “sono spaventato. Con quel gesto voleva minacciarmi”
- Motivazione. Esempio: “ero spinto solo dalla rabbia”
- Comportamento. Esempio: “gli saltai al collo dalla grande gioia”
- Risposte espressive. Esempio: “sgranai gli occhi dalla sorpresa”
- Vissuto soggettivo. Esempio: “mi sento triste”
11.1.3 Modelli dimensionali e modelli categoriali
Rispetto alla struttura e all’organizzazione delle emozioni sono state fatte diverse proposte che si
rifanno a due tipi di modelli: i modelli dimensionali e i modelli categoriali.
I modelli dimensionali individuano una serie di fattori, o dimensioni, che definiscono uno spazio
affettivo universale all’interno del quale è possibile collocare le diverse emozioni; la maggior parte di
questi modelli crede nell’esistenza di due dimensioni, e che la similarità delle emozioni è data dalla
vicinanza che hanno all’interno dello spazio affettivo definito da queste due dimensioni: la valenza e
l’attivazione. La valenza indica quanto un’emozione è positiva o negativa; il grado di attivazione
(arousal) si riferisce all’intensità, bassa o elevata, delle risposte fisiologiche coinvolte.
I modelli categoriali si basano sull’assunto che emozioni differenti siano fenomeni qualitativamente
distinti; ipotizzano, quindi, l’esistenza di categorie discrete di emozioni, che rappresentano ognuna una
famiglia di emozioni, cioè un insieme di esperienze che hanno in comune diverse caratteristiche (ad
esempio: gioia per il raggiungimento di obiettivi, e gioia per i successi di un amico, sono diverse, ma
55
hanno in comune molte caratteristiche, quindi si considerano della stessa categoria emozionale “gioia”).
Per individuare queste categorie, gli studiosi hanno analizzato il linguaggio utilizzato dalle persone per
indicarle, oppure hanno indagato i fattori biologici loro associati.
Il primo metodo ha evidenziato l’esistenza di un’organizzazione gerarchica con un livello base
composto da: rabbia, paura, gioia, amore, tristezza.
Gli autori che hanno considerato i fattori di tipo biologico, sostengono che a diverse emozioni siano
associati meccanismi biologici distinti, in particolare specifici circuiti neurali sviluppati come forme di
adattamento; quindi le emozioni hanno un carattere di universalità.
56
Il concetto di emozioni di base o primarie accomuna tutti gli autori della prospettiva evoluzionistica.
Ogni emozione primaria è una risposta associata a specifiche situazioni e stimoli, e non implica una
valutazione dello stimolo o della situazione che la genera, se non in modo automatico e inconsapevole.
11.2.2 L’espressione delle emozioni
L’interesse per l’espressione delle emozioni ha dato origine ad un sistema di ipotesi standard, o
programma delle espressioni facciali delle emozioni, secondo cui le configurazioni espressive facciali
per manifestare le emozioni sono Gestalt unitarie, universalmente condivise, sostanzialmente fisse, di
natura categoriale, specifiche per ogni emozione e controllate da specifici e distinti programmi
neuromotori innati. La teoria neoculturale di Ekman è una declinazione dell’ipotesi standard; sostiene
che ogni emozione attivi uno specifico programma facciale, attraverso una serie di “istruzioni”
codificate dal sistema nervoso e da quello endocrino, che la dota di invariabilità e universalità; sostiene
anche che l’espressione delle emozioni sia regolata da una serie di display rules, o regole
d’espressione, apprese nel corso dello sviluppo, che regolano la manifestazione delle emozioni,
soprattutto davanti agli altri. Le regole d’espressione sono:
- L’accentuazione, che intensifica l’espressione;
- L’attenuazione, che la rende meno intensa;
- La neutralizzazione, che la inibisce (quando non vogliamo mostrare ciò che proviamo);
- La simulazione, che la nasconde, facendola sembrare un’altra.
Ekman, nei suoi studi, ha utilizzato un ampio materiale iconografico di fotografie, che mostrava alle
popolazioni di numerose culture, che hanno fornito conferme alle sue ipotesi: poste di fronte alle foto,
le persone individuano con precisione l’emozione espressa, scegliendo dall’elenco delle sei emozioni
fondamentali.
Alcune ricerche di Ekman sono state condotte con un sistema di codifica oggettiva, sviluppato da lui, il
Facial Action Coding System (FACS), che consiste nella precisa analisi di singoli movimenti muscolari
facciali definiti unità di azione; ognuna di queste è definita da numero e nome, per esempio
“movimento che gonfia le guance”, “movimento che genera fossette”. Da sole o in combinazione, le
unità d’azione consentono di coprire tutte le espressioni facciali visibili.
In contrapposizione con Ekman, Russell ha sottolineato la scarsa validità ecologica degli stimoli
proposti da Ekman, perché le foto mostravano espressioni “pure”, volontarie, con pattern motori tipici
di ogni emozione; e la debolezza del disegno di ricerca utilizzato che prevedeva una scelta forzata, cioè i
soggetti dovevano scegliere tra una lista predefinita di termini.
Russell propose l’ipotesi dell’universalità minima, secondo cui esisterebbe un certo grado di
somiglianza transculturale nella decodifica e interpretazione delle espressioni facciali delle emozioni,
senza l’implicazione di un sistema di segnalazione innato e universale.
Alcune ricerche dimostrano che il grado di riconoscimento è più elevato per alcune emozioni rispetto
ad altre, e che è maggiore quando attore (chi esprime emozioni) e decoder (che le riconosce)
appartengono alla stessa cultura. Questi risultati hanno portato alla formulazione della Dialect Theory,
secondo cui ci sono differenze “dialettali” nel modo di esprimere le emozioni attraverso il volto, come
per la lingua.
Ekman e Rosenberg sostengono che il nostro volto sia uno strumento di espressione piuttosto
trasparente; e che quattro elementi consentono di distinguere un’espressione vera da una ingannevole:
- Morfologia, perché alcuni muscoli sono scarsamente controllabili;
- Simmetria, perché le espressioni sincere sono più simmetriche di quelle false;
- Durata, perché più lunga o più breve nelle espressioni false di quella caratteristiche delle
espressioni sincere;
- Pattern temporale, perché più fluido e graduale nelle espressioni sincere.
La centralità dell’espressione facciale nell’esperienza emotiva ha portato alcuni autori a formulare
l’ipotesi del feedback facciale, secondo cui sarebbero le espressioni a causare le emozioni, e non
viceversa; questa ipotesi sostiene che il feedback facciale possa amplificare, o attenuare, l’intensità
dell’emozione, se viene esagerata l’espressività in senso compatibile, o incompatibile, con l’emozione
stessa (ad esempio, contrarre gli zigomi amplifica la felicità; socchiudere gli occhi induce uno stato
emotivo negativo).
57
Banse e Scherer hanno dimostrato che le emozioni non si esprimono solo con il volto, ma anche con la
postura, l’andatura, il tocco e soprattutto la voce. Molte emozioni, infatti, sembrano caratterizzate da un
profilo vocale distintivo; inoltre, alcune sono più riconoscibili di altre, ad esempio: la rabbia e la paura
sono le più identificabili e sono caratterizzate dall’aumento di intensità della voce e dalla variabilità della
frequenza fondamentale; il disgusto, invece, è quella meno riconoscibile dalla voce.
58
Il circuito proposto da Papez è una prima evoluzione del modello a centro unico; egli ipotizzò che oltre
al talamo e l’ipotalamo fossero coinvolte altre strutture cerebrali, in particolare l’ippocampo e la
corteccia cingolata.
MacLean arricchì questa proposta con la teoria del cervello uno e trino. Sosteneva che il cervello
umano ha ereditato la struttura e l’organizzazione di tre tipi di cervello: dei rettili; dei mammiferi
antichi; e dei mammiferi evoluti. Ognuno con competenze e modalità di funzionamento diverse, e
ciascuno legato al diverso periodo della filogenesi in cui si è evoluto; secondo lui il cervello si è
sviluppato in piani gerarchici: tra il primo piano (più antico), costituito dal cervello rettiliano, e il terzo
ci sarebbe il sistema limbico (secondo piano), la cui funzione è quella di gestire informazioni interne ed
esterne per garantire il soddisfacimento dei bisogni fondamentali di autoconservazione e di
conservazione delle specie.
A partire dagli anni ’80 e ’90 alcuni autori iniziarono a dubitare dell’esistenza di un unico sistema
neurale regolatore.
Per esempio, Panksepp ha individuato quattro sistemi di comando delle emozioni:
- Sistema dell’aspettativa, che viene attivato da situazioni di rottura dell’equilibrio omeostatico
del corpo a causa di presenza o assenza di incentivi ambientali; la sua funzione è attivare
risposte finalizzate a reperire oggetti adeguati a soddisfare i bisogni dell’organismo. Le emozioni
associate sono tutte positive (gioia, speranza):
- Sistema della rabbia, che genera comportamenti di attacco e aggressione fisica e verbale,
associati ad emozioni negative etichettabili come rabbia e collera;
- Sistema della paura, che media i comportamenti di fuga di fronte a stimoli pericolosi (paura e
ansia);
- Sistema del panico, che corrisponde alla tristezza e al dolore scatenati in situazioni di
separazione e di isolamento sociale.
11.3.2.3 “L’errore di Cartesio”
Questo è il titolo del libro scritto da Damasio, in cui ha presentato la sua visione sulle emozioni.
Damasio sosteneva che Cartesio avesse sbagliato nell’ipotizzare una netta separazione tra realtà psichica
(res cogitans) e realtà fisica (res extensa), cioè tra mente e corpo.
La sua teoria delle emozioni è definita come centralista e neojamesiana: centralista perché considerava il
cervello come il centro coordinatore delle emozioni; neojamesiana perché egli attribuisce una grande
rilevanza al corpo nella genesi dell’emozione e dell’esperienza soggettiva che l’accompagna.
Secondo Damasio, l’emozione è un fenomeno mentale che ha come “teatro” il corpo, dal momento
che ha origine dall’attività sinergica del sistema integrato mente-cervello e corpo. L’esperienza
soggettiva delle modificazioni corporee associate alle emozioni, per lui, è il “sentimento”, che si associa
all’emozione vera e propria. Damasio distingue le emozioni in:
- Primarie, intendendo risposte innate e preorganizzate dell’organismo a determinate qualità degli
stimoli ambientali; sono sempre spontanee e non possono essere attivate intenzionalmente.
Sono riconducibili a cinque gruppi, corrispondenti alle emozioni di base: gioia, tristezza, rabbia,
paura e disgusto; ogni gruppo comprende emozioni che differiscono per sfumature di intensità;
- Secondarie, intendendo risposte a stimoli complessi il cui valore emotigeno non è intrinseco,
ma deriva dall’esperienza e dall’apprendimento dell’individuo.
Particolarmente interessante nella teoria di Damasio è la relazione ipotizzata tra emozioni e processi di
ragionamento e di decisione. Il pensiero è costituito in gran parte da immagini connotate
emotivamente, la cui funzione principale è quella di anticipare le conseguenze degli eventi.
Nel processo di decisione ha luogo una preliminare selezione automatica che conduce a scartare le
alternative connotate da emozioni negative; questo processo è reso possibile dai marcatori somatici, che
differenziano le opzioni in piacevoli e spiacevoli. Quindi, le emozioni hanno un ruolo fondamentale nei
processi decisionali.
Damasio arrivò, grazie a degli esperimenti, alla conclusione che se in alcune circostanze un eccesso di
emotività può essere responsabile di comportamenti antisociali e svantaggiosi per l’individuo stesso,
anche deficit emotivi possono alterare notevolmente il comportamento della persona,
compromettendone irrimediabilmente l’adattamento sociale.
59
11.4 La prospettiva cognitivista
11.4.1 Le teorie attivazionali-cognitive
Gli studiosi che guardano le emozioni da una prospettiva cognitivista hanno cercato di individuare cosa
valutiamo esattamente quando proviamo un’emozione, indagando i processi di elaborazione mentale e
di attribuzione di significato associati all’esperienza emotiva.
Secondo i cognitivisti, le informazioni non sono dotate di significato emotivo intrinseco, ma lo
assumono a seguito dei processi cognitivi di attribuzione che vengono messi in atto dalla persona.
Le teorie attivazionali-cognitive rappresentano una specie di transizione dalla prospettiva
evoluzionistica a quella propriamente cognitivista; la più famosa è quella bifattoriale di Schacther e
Singer, secondo cui l’emozione è costituita da:
- Un’attivazione fisiologica indifferenziata (primo momento del processo emotivo);
- I processi cognitivi di attribuzione di significato attraverso i quali la persona cerca di individuare
le cause dell’attivazione che sta provando.
Tutte le emozioni condividono la stessa attivazione fisiologica e la loro diversificazione dipende solo dai
processi cognitivi che cercano di individuarne le cause. Per Schacther e Singer, l’emozione ha luogo
solo quando si verifica uno stato di attivazione per cui non è rintracciabile una spiegazione non
emotiva: se il cuore batte forte dopo una corsa non proviamo un’emozione, ma se batte forte senza
cause valide, cerchiamo di individuare questa attivazione, attribuendole una valenza emotiva. Gli autori
aggiungono che, per valutare lo stato di attivazione gli individui utilizzano le informazioni che solo a
loro disposizione.
Autori successivi hanno cercato di capire quali eventi siano in grado più di altri di scatenare la reazione
fisiologica tipica delle emozioni. Pribram e Mandler ritengono che l’elemento mancante nella teoria di
Schacther e Singer sia costituito dalla percezione di un ostacolo al comportamento motivato, cioè al
comportamento finalizzato al soddisfacimento di bisogni o al raggiungimento di obiettivi. L’attenzione
agli eventi di facilitazione o ostacolo a ciò che la persona vuole, sposta il focus dei processi valutativi
dall’interno dell’organismo (sede dell’attivazione fisiologica) a un esterno fatto di risorse e ostacoli,
caratterizzati da un elevato significato per la persona. Sui processi che valutano questo esterno, si
incentrano le teorie dell’appraisal o teorie della valutazione.
11.4.2 le teorie dell’appraisal
Il modello principale delle teorie dell’appraisal è quello introdotto da Arnold, secondo cui la
valutazione da cui hanno origine le emozioni è una specie di bilancio che la persona fa dei vantaggi e
degli svantaggi potenziali delle situazioni in cui si trova, che porta a valutazioni positive o negative.
Secondo lui, le valutazioni emotive sono immediate, automatiche, e non implicano necessariamente il
totale riconoscimento dell’oggetto valutato.
Lazarus ha proposto una teoria cognitivo-relazionale-motivazionale, nella quale ipotizza che la
valutazione degli stimoli rilevanti per la sopravvivenza abbia sempre delle implicazioni sul piano della
motivazione individuale. In questa teoria, le valutazioni emotive si distinguono in primarie e secondarie:
le prime riguardano la valutazione immediata della rilevanza positiva o negativa di uno stimolo in
relazione agli interessi e agli scopi della persona; le seconde si riferiscono alle sue possibilità e capacità
di affrontare lo stimolo e di gestirlo al meglio.
Le valutazioni secondarie sono divise in:
- Potenziale di coping focalizzato sul problema, relativo alla possibilità e capacità di gestire le
circostanze dello stimolo/evento in base a ciò che la persona vuole soddisfare o raggiungere;
- Potenziale di coping focalizzato sulle emozioni, riferito alla possibilità e capacità di gestire
lo stimolo/evento cambiando le proprie reazioni emotive;
- Responsabilità, “chi o che cosa è responsabile di ciò che è accaduto?”
- Aspettative per il futuro.
Il sistema di valutazioni è riconducibile ad alcune categorie interpretative, che Lazarus chiama “temi
relazionali centrali”, che corrispondono a specifiche tipologie di interpretazione delle situazioni
ambientali in relazione al benessere della persona; a ciascun tema corrisponde un’emozione (paura –
confrontarsi con un pericolo; gelosia – risentimento per qualcuno per il pericolo di perdita affettiva;
60
felicità – fare progressi per uno scopo). Ai diversi temi relazionali corrispondono sia emozioni
considerate di base, come la paura e la rabbia, sia emozioni più complesse, come la gelosia e la colpa.
Entrambe si basano su un principio psicobiologico: siamo biologicamente fatti in modo che certe
valutazioni si associno a certe emozioni; ma, il fatto che interpretiamo un certo stimolo in base ad uno
o più temi relazionali non è determinato biologicamente, ma dipende dalla personalità individuale, dai
processi di apprendimento e dalla cultura di appartenenza.
Anche secondo Roseman le diverse emozioni dipendono da un numero limitato di processi valutativi
relativi ad elementi delle situazioni che hanno una certa rilevanza per il benessere della persona; e sono
relativi alla valutazione di: ricompensa o punizione; presenza o assenza di ciò che si desidera; probabilità
di avere ciò che si desidera; meriti o colpe delle possibili conseguenze della situazione; responsabile
della situazione; carattere atteso o inatteso della situazione; risorse della persona per gestire la
situazione.
Scherer ha proposto la teoria con dei controlli e sottocontrolli, nella quale i processi valutativi alla base
delle emozioni non corrispondono a processi cognitivi indipendenti, ma ad un insieme di controlli che
si susseguono in un ordine preciso: controllo della novità; della piacevolezza o spiacevolezza; della
rilevanza; del potenziale di adattamento; della compatibilità dello stimolo con regole e norme sociali, e
con l’immagine ideale di sé.
Per Scherer le espressioni facciali non sono innate, mentre lo sono probabilmente le specifiche azioni
facciali associate a ciascun controllo.
Scherer sostituisce l’emozione primaria con l’emozione modale; secondo lui, infatti, non esistono
emozioni basiche o più rilevanti, ma esistono emozioni statisticamente più frequenti di altre. Ciò che è
innato, secondo lui, sono le componenti elementari delle emozioni, cioè i vari processi valutativi e le
loro conseguenze sui cinque sistemi dell’organismo.
Le teorie dell’appraisal sono state molto criticate, soprattutto perché certi studiosi credono nella rapidità
e automaticità dell’esperienza emotiva, e non credono che questo sia possibile per la complessità dei
processi valutativi.
Ortony e colleghi hanno proposto un’articolazione in due fasi dei processi valutativi alla base delle
emozioni: la prima è di valutazione rapida e automatica, dalla quale derivano giudizi, come “positivo o
negativo”; dopodiché avviene una valutazione che coinvolge molti processi valutativi, che coincidono
in gran parte con quelli visti in precedenza. Le due fasi di valutazione sono state indagate tramite
reappraisal (rivalutazione), una strategia di regolazione emotiva basata sul cambiamento del significato
attribuito allo stimolo che ha dato origine all’emozione.
11.4.3 La rappresentazione cognitiva delle emozioni
Per comprendere cosa resta dell’esperienza emotiva nella mente della persona che l’ha provocata,
diversi studiosi hanno ipotizzato che l’emozione sia concettualizzata e rappresentata come una categoria
sfocata organizzata intorno ad un prototipo, descrivibile come un insieme astratto di caratteristiche
condivise e possedute in grado diverso dai membri della categoria. La categoria entro la quale sono
organizzate le emozioni gode di alcune proprietà principali:
- A livello più astratto, o sovraordinato, è concettualizzata come positiva o negativa;
- A livello intermedio, o basico, comprende un prototipo, cioè l’insieme delle caratteristiche che
definiscono il concetto, e una serie di esemplari, alcuni molto prototipici come la rabbia, la
paura, la tristezza, e altri meno come il coraggio, l’invidia e la gelosia;
- A livello subordinato comprende emozioni che rappresentano delle espressioni specifiche delle
emozioni basiche.
Molto meno chiari sono i criteri che regolano la somiglianza all’interno delle diverse categorie; una
possibile spiegazione chiama in causa un’altra forma di rappresentazione in memoria, lo script. Lo
script è una struttura schematica basata su una concatenazione di regole, atta a conservare, in memoria
procedurale, una sequenza di azioni e fasi più o meno costanti e tipiche. Ad esempio, conserviamo in
memoria procedurale le informazioni relative al come e al quanto facciamo certe cose; lo script è in
grado di cogliere meglio del prototipo la struttura interna delle emozioni. Al loro interno gli script
comprendono la rappresentazione di tutti gli elementi dell’esperienza emotiva: antecedenti personali e
situazionali, risposte fisiologiche, espressive, cognitive e comportamentali.
61
La concettualizzazione e la rappresentazione delle emozioni sono state indagate anche dalla prospettiva
della emodied cognition (cognizione incorporata), anche detta grounded cognition, secondo la quale gli
specifici stati relativi alla percezione dell’esterno, all’enterocezione e all’azione, che sono attivi quando la
persona fa una certa esperienza, verrebbero riattivati quando la persona pensa alla stessa esperienza.
62
Mesquita e Ellsworth hanno osservato come la solitudine possa assumere una connotazione positiva in
diverse culture occidentali, dove è percepita come un’opportunità di privacy, mentre per gli eschimesi
vuol dire isolamento sociale.
La paura è per tutti l’emozione di minor durata, mentre la tristezza dura più a lungo.
La rabbia è la più intensa, seguita da gioia, tristezza e paura.
Studi successivi hanno dimostrato che anche la differenza tra emozioni positive e negative non ha lo
stesso grado di polarizzazione in tutte le culture: molti paesi occidentali danno una forte valorizzazione
della positività associata alla riuscita personale, la felicità è percepita come un diritto e l’individuo cerca
di raggiungerla e conservarla, come una buona immagine di sé. In molti paesi orientali, sono invece
valorizzati il gruppo sociale e i legami di appartenenza; sperimentano più frequentemente emozioni
socialmente connotate, come compassione e colpa, rispetto ad emozioni che possono sfavorire le
relazioni sociali, come l’orgoglio e la collera.
63
Affini a quelle basate sugli istinti sono le teorie che mettono al centro della spiegazione del
comportamento le pulsioni. Queste vengono definite omeostatiche, perché l’organismo viene visto
come un sistema finalizzato a raggiungere e a mantenere una condizione di equilibrio, o omeostasi;
quando l’equilibrio si rompe si crea una carenza biologica che va compensata e che viene sentita, a
livello psicologico, come una pulsione. La pulsione, quindi, è una spinta che induce l’organismo a
cercare gli oggetti in grado di colmare lo stato di carenza, e a ripristinare l’omeostasi.
Freud definisce la pulsione come un concetto limite tra lo psichico e il corporeo, che deriva da
un’eccitazione somatica, e attiva un comportamento che aiuta ad eliminare la tensione.
Per Hull, qualunque tendenza comportamentale deriva dalla combinazione tra pulsione ed abitudine.
Egli riteneva che la direzione del comportamento derivasse da un’abitudine appresa a rispondere ad
uno stimolo con una certa risposta, e che la forza di questa abitudine dipendesse dalla frequenza con cui
la risposta è stata rinforzata. La pulsione (drive), per Hull, è una componente energizzante dell’azione,
che è in grado di dare avvio a diversi comportamenti sulla base delle abitudini apprese.
Hull, grazie ai suoi esperimenti con i ratti, mise in evidenza come l’idea di un’unica componente di
spinta fosse troppo semplice per spiegare efficacemente il comportamento motivato, per questo iniziò a
considerare anche l’aspettativa e l’incentivo.
12.1.2.2 I bisogni
Murray ha proposto il concetto di bisogno come principale dimensione motivazionale, in grado di dare
origine ad azioni organizzate e orientate al raggiungimento di uno scopo. Secondo lui, il bisogno è una
specie di “forza psicologica” che si trova nel cervello e guida l’azione, influenzando i processi di
attenzione, percezione e pensiero, in modo da modificare una situazione non soddisfacente.
I bisogni si dividono in:
- Primari (o viscerogeni), come la fame e la sete, che sono innati e agiscono nella direzione di
ridurre la tensione generata dalla mancanza di bisogno;
- Secondari (o psicogeni), come il bisogno di riuscita e di affiliazione, sono acquisiti durante lo
sviluppo individuale, e non sono sempre finalizzati ad una diminuzione della tensione, ma a
volte possono addirittura aumentarla.
I bisogni individuali sono sempre in interazione con le pressioni, che corrispondono per lui al potere
delle situazioni di favorire od ostacolare il conseguimento di un obiettivo. Le pressioni si distinguono
in:
- Alpha, le pressioni oggettive, come il vivere in un luogo isolato per chi ha bisogno della
vicinanza e dell’accettazione degli altri;
- Beta, le pressioni percepite, come la “percezione” di isolamento che può essere presente anche
quando siamo in mezzo a tante persone.
L’interazione tra bisogni e pressioni dà luogo a dei temi, che determinano le scelte delle persone e la
direzione della loro condotta. Visto che le persone non hanno sempre piena consapevolezza dei loro
temi, il metodo più appropriato per analizzarli consiste nell’impiego di test di tipo implicito: test che
raccolgono indizi indiretti, senza porre domande dirette. Murray ha elaborato il test proiettivo, Test di
Appercezione Tematica (TAT), per il quale si chiede ai partecipanti di elaborare delle storie, su cosa stia
succedendo, nelle immagini che vengono presentate loro.
Un altro importante psicologo fu Maslow, che riteneva che le persone siano intrinsecamente spinta alla
crescita psicologica e all’autorealizzazione, e che la spinta corrisponda al più elevato livello dei bisogni.
Egli ha elaborato una teoria gerarchica, dove ha collocato 5 tipi di bisogni, da quelli fisiologici di base
a quelli più evoluti di autorealizzazione.
64
Maslow ipotizza anche una sequenza nel soddisfacimento dei bisogni: la gerarchia può essere percorsa
solo dal basso verso l’alto; per sperimentare un bisogno superiore, bisogna prima aver soddisfatto quelli
precedenti. Numerose sono le situazioni in cui alcuni bisogni possono essere sacrificati a vantaggio di
altri, oppure bisogni diversi spingono in direzioni opposte. I bisogni sono anche influenzati dagli
stimoli ambientali, che possono modificarne l’insorgenza e l’intensità. Ad esempio, la vista di una
bevanda fresca d’estate fa aumentare la sete; la visione di persone attraenti può sollecitare il bisogno di
sessualità, che è un bisogno quasi completamente sganciato dalla sua finalità evolutiva.
12.1.2.3 I motivi
Il termine motivo è stato introdotto negli anni ’50 da McClelland, che ha introdotto un’altra distinzione
tra motivo e motivazione: il motivo è una preoccupazione ricorrente (concern), che orienta i processi
attentivi e percettivi, e selezione ed energizza il comportamento, orientandolo verso il raggiungimento
di determinate mete. I motivi non sono sempre tutti attivati, cioè non si sperimenta
contemporaneamente e continuamente l’attivazione di tutti i motivi. L’attivazione è la motivazione, che
è un impulso a mettere in atto azioni e comportamenti, che possono essere diversi in base alle
interpretazioni che le persone danno agli stati interni e alle circostanze.
McClelland distingue tre motivi: il motivo alla riuscita, all’affiliazione e al potere.
Il motivo alla riuscita è caratterizzato dal desiderio di eccellenza e dalla paura del fallimento: il
desiderio di eccellere porta ad affrontare sfide impegnative per ottenere risultati positivi; la paura di
fallire conduce a rifiutare occasioni di mettersi alla prova, perché potrebbero portare all’insuccesso. Le
persone cercano di fare le cose nel miglior modo possibile, preferiscono misurarsi con compiti
moderati, amano avere feedback, analizzano le situazioni e amano i modi nuovi di fare le cose.
Il motivo all’affiliazione è animato dal desiderio di protezione, che spinge ad instaurare e mantenere
relazioni interpersonali, e dalla paura del rifiuto, che porta a fuggire per non rischiare di essere esclusi.
Le persone preferiscono incentivi come l’approvazione e l’accettazione, ascoltare e collaborare, e non
competere, non amano posizioni di comando e non amano essere al centro dell’attenzione.
Il motivo al potere è caratterizzato da una parte dal desiderio di dominare e controllare gli altri, e
dall’altra la paura della dipendenza, che induce a rinunciare a certe situazioni per non rischiare di essere
dominati dagli altri. Le persone hanno una forte spinta verso l’autoaffermazione, sono attratte da
posizioni ad elevato status socioeconomico, sono disposte a intraprendere attività rischiose e sacrificare
legami, amano essere al centro dell’attenzione e la competizione.
La prevalenza di un motivo e il suo sviluppo, dipendono soprattutto da fattori di tipo sociale, infatti,
secondo McClelland i motivi sono appresi prima di tutto come risultato alle esperienze precoci e dei
processi di socializzazione. Anche lui ha molto utilizzato la TAT, perché sosteneva che solo strumenti
di tipo proiettivo possono cogliere gli aspetti motivazionali di cui la persona non ha piena
consapevolezza; questi aspetti motivazionali inconsapevoli, definiti motivi impliciti, però, non
riempiono tutta la sfera motivazionale; esistono anche elementi di cui la persona è consapevole, e che è
in grado di elencare e descrivere: motivi espliciti o immagini di sé riferite alla sfera motivazionale.
I motivi impliciti sono a base biologica, e hanno effetti a lungo termine nella vita della persona; i motivi
espliciti corrispondono a rappresentazioni cognitive delle proprie motivazioni che vengono apprese
durante lo sviluppo e hanno effetti a breve termine, dal momento che orientano preferenze e guidano
comportamenti nell’esperienza quotidiana. Questi possono essere analizzati con questionari e interviste.
12.1.3 Motivazione e volizione
Interruzioni imposte, ostacoli e difficoltà possono rendere molto difficile portare avanti un
comportamento, anche quando è mosso da spinte o attrazioni molto forti. A volte è necessario
“stringere i denti” e “farsi forza” per andare avanti; per descrivere questi processi alcuni autori hanno
utilizzato il concetto di volizione, introducendo una distinzione tra motivazione e volizione: le
componenti motivazionali rendono conto della formazione delle intenzioni e avviano il
comportamento; quelle volizionali, invece, lo mantengono nel corso del tempo, e sono quindi più
connesse alla realizzazione delle intenzioni. Tra i modelli teorici che considerano questa distinzione, il
più famoso è il modello Rubicone di Heckhausen, ispirato all’episodio in cui Cesare nel 49 a.C.
attraversa con le legioni in armi il fiume Rubicone dando inizio alla guerra civile; il modello fa una
65
distinzione tra i processi precedenti alla decisione di compiere una certa azione (prima di attraversare il
fiume), e quelli successivi (dopo l’attraversamento).
Per lui, i processi predecisionali sono di natura motivazionale, mentre quelli successivi, sono di tipo
volizionale, e durano finché l’azione non si è conclusa.
Le fasi del modello sono:
- Motivazionale predecisionale, in cui la persona valuta le alternative e fa una scelta, dando
origine all’intenzione;
- Due fasi volizionali, la preazionale e l’azionale, in cui l’intenzione viene avviata e poi
realizzata;
- Motivazionale postazionale, in cui la persona valuta se ha realizzato ciò che voleva, e in caso
contrario cerca di individuare le cause del fallimento. A questo punto può decidere se insistere o
dedicarsi ad altro.
La distinzione tra motivazione e volizione ha contribuito a mettere in evidenza come l’azione motivata
non sia solo il frutto dell’attivazione di un bisogno o un motivo, ma racchiude una serie di processi in
cui la persona ha un ruolo attivo si selezione, programmazione, realizzazione e valutazione.
66
Per differenziare i costrutti di controllo, Skinner ha introdotto una distinzione tra agenti, cioè i soggetti
del controllo, mezzi, le azioni che gli agenti mettono in atto per controllare gli eventi, e fini, gli esiti
desiderati dagli agenti.
Il legame tra agente e mezzo corrisponde all’autoefficacia di Bandura, e riguarda la convinzione che
l’agente ha di essere in grado di controllare il mezzo a disposizione; il legame tra mezzo e fine
corrisponde alle aspettative di esito. Il legame diretto tra agente e fine corrisponde ad un senso generale
di controllo.
I deficit di controllo, cioè le sensazioni di non essere in grado di controllare eventi o situazioni, possono
riguardare aspetti diversi.
12.2.3 Obiettivi, progetti e valori
I costrutti di controllo sono centrali nei processi di autoregolazione, attraverso i quali le persone
regolano il proprio comportamento in base agli obiettivi.
Gli obiettivi sono un importante oggetto di indagine per gli studiosi della motivazione, infatti gran
parte del nostro comportamento è mosso nella direzione di ciò che vogliamo ottenere. Gli obiettivi
possono essere diversi in base a: livello di definizione, risorse richieste per il loro raggiungimento,
possibilità di articolazione in sotto-obiettivi, probabilità del loro effettivo raggiungimento.
Gli obiettivi si distinguono dai desideri, perché i primi sono rappresentazioni di ciò che le persone
vogliono ottenere, e verso cui dirigono il loro comportamento; i secondi, invece, corrispondono a
qualcosa che le persone vogliono fortemente ma che hanno connotazioni generiche e spesso poco
realistiche; infatti, gli obiettivi sono caratterizzati da:
- Concretezza ed elevata definizione;
- Specificità di contesto;
- Collocazione temporale;
- Misurabilità, cioè è possibile quando un obiettivo è stato raggiunto.
Nella teoria del goal setting di Locke e Latham, gli obiettivi si distinguono per:
- Il livello di difficoltà o sfida che comportano per la persona;
- L’ampiezza. Alcuni obiettivi sono particolarmente ampi e implicano un’articolazione in sotto-
obiettivi più ristretti;
- La prossimità temporale. Alcuni obiettivi sono a breve termine, altri a medio e altri a lungo
termine;
- Il significato che rivestono per la persona.
Simili agli obiettivi sono gli striving e i personal project, che si estendono sul lungo periodo e
possono riguardare anche ambiti diversi della vita della persona; la loro presenza dota di significato la
vita delle persone, il cui benessere di lunga durata è generalmente il frutto della partecipazione a
progetti desiderati e valorizzati.
Anche i valori, che sono principi guida che determinano cosa è desiderabile, importante e giusto per
una persona, hanno un’importante valenza motivazionale, perché le persone sono spinte a comportarsi
in sintonia con i propri valori e a stabilire obiettivi in base ad essi.
Schwartz ha sviluppato una tassonomia costituita da dieci valori di base: autodirezione, stimolazione,
edonismo, successo, potere, sicurezza, conformismo, tradizione, benevolenza, universalismo.
Questi sono collocati in uno spazio definito da due dimensioni:
- L’apertura al cambiamento, costituita dai valori di autodirezione e stimolazione, contrapposta
al conservativismo, formato dai valori di tradizione, conformismo e sicurezza; questa
dimensione riflette un conflitto tra l’enfatizzazione dell’indipendenza del proprio pensiero e
delle proprie azioni e la preferenza per una remissiva autolimitazione, finalizzata al rispetto della
tradizione e alla protezione della stabilità sociale;
- L’autoaffermazione, costituita dai valori di successo e potere, contrapposta
all’autotrascendenza, costituita dai valori di benevolenza e universalismo. Questa dimensione
riflette, invece, un conflitto tra l’accettazione degli altri e l’impegno per il loro benessere, e la
ricerca del successo personale e del dominio sugli altri.
67
12.2.4 Modelli sociocognitivi ampliati
Eccles, per capire quali elementi motivazionali influenzino l’impegno e il successo in ambito scolastico,
ha elaborato un modello che considera diversi fattori: le aspettative di esito proprie e altrui,
l’attribuzione di causalità rispetto al fallimento e ai successi passati, l’autoefficacia percepita nella
gestione di attività di apprendimento, l’adeguatezza degli obiettivi che vengono stabiliti, la percezione di
facilità o difficoltà dei compiti da svolgere e il valore attribuito alla riuscita.
Schwarzer ha proposto un modello focalizzato al cambiamento comportamentale connesso alla salute,
il modello HAPA (Health Action Process Approach), nel quale pone come predittori dell’intenzione a
cambiare: l’autoefficacia percepita, le aspettative relative al cambiamento e la percezione del rischio.
L’intenzione di smettere di fumare è influenzata dalla percezione di essere in grado di smettere
(autoefficacia percepita), da ciò che mi aspetto che succeda se smetto (aspettative relative al
cambiamento) e da quanto ritengo che il fumo metta a rischio la mia salute (percezione del rischio).
Nelle aspettative hanno un ruolo rilevante le emozioni anticipate, positive e negative, connesse al
cambiamento; la prospettiva di smettere di fumare può, infatti, dar luogo a vissuti anticipati di orgoglio
e soddisfazione, che aumentano l’intenzione di smettere, così come alla previsione di stati di
nervosismo o depressione, che invece riducono fortemente l’intenzione.
Tra l’intenzione di cambiare e l’effettivo cambiamento del comportamento, Schwarzer introduce la
pianificazione, ovvero l’elaborazione e implementazione di piani strategici finalizzati a definire il come e
il quando del cambiamento. Se si vuole smettere di fumare bisogna stabilire come cambiare le abitudini
quotidiane, come comportarsi se altri ci invitano a fumare, come gestire lo stress e le preoccupazioni
che ci inducono a fumare, quando dire addio all’ultima sigaretta.
Molti studi indicano come variabile chiave l’importanza della pianificazione, il modello HAPA, ad
esempio, indica che nelle diverse fasi del cambiamento comportamentale entrano in gioco diversi tipi di
autoefficacia percepita: in una prima fase conta il sentirsi in grado di cambiare; nella seconda fase
diventa importante il sentirsi in grado di gestire i piani di cambiamento, che spesso implicano il saper
affrontare ostacoli e difficoltà; nella terza fase, quando il cambiamento è stato realizzato, entrano in
gioco le convinzioni di saperlo mantenere nel tempo e saper gestire eventuali ricadute. Questo modello
è stato molto utilizzato per ricerche e interventi su comportamenti connessi alla salute.
68
La discrepanza tra i diversi Sé, inoltre, dipende dal grado di rilevanza e di accessibilità delle loro
caratteristiche; non tutte sono importanti allo stesso modo nel definire il nostro Sé, e non tutte sono
sempre accessibili alla nostra consapevolezza.
12.3.2 Teorie implicite e obiettivi
Secondo Dweck, le persone elaborano delle teorie implicite sulle proprie caratteristiche alle quali
associano diversi gradi di modificabilità. Più precisamente, ci sono persone che hanno concezioni:
entitarie, secondo cui “si è come si è”, e i margini per cambiare le proprie caratteristiche sono ridotti; o
incrementali, secondo cui “si diventa come si è”, e ci sono maggiori possibilità di cambiamento anche
per caratteristiche che potrebbero sembrare doti o limiti naturali.
Gli entitari, in genere, si preoccupano di dimostrare ciò che sono e ciò che valgono, vedono le
valutazioni degli altri come giudizi sul loro essere, ai quali sono molto sensibili; inoltre, si pongono
obiettivi di prestazione (o di giudizio).
Gli incrementali, invece, sono orientati all’accrescimento delle loro caratteristiche e vedono le
valutazioni come giudizi sulla prestazione, grazie ai quali migliorarsi, gli errori e i fallimenti vengono
attribuiti allo scarso impegno o alle strategie sbagliate, che possono essere corrette o migliorate; inoltre,
si pongono obiettivi di padronanza (o apprendimento).
Alla distinzione tra obiettivi di prestazione e di padronanza, Elliot e McGregor hanno aggiunto quella
tra obiettivi di approccio e di evitamento. Gli obiettivi di approccio spingono la persona ad
affrontare compiti, attività e situazioni, mentre quelli di evitamento inducono ad evitarli; entrambi i tipi
di obiettivi possono combinarsi con quelli di prestazione e padronanza.
Anche se le persone hanno degli orientamenti piuttosto generalizzati ai diversi ambiti delle loro vite, la
ricerca dimostra come alcuni fattori di contesto possono influenzare gli obiettivi che esse stabiliscono e
perseguono.
69
quando riceviamo una ricompensa; la dopamina ci consente anche di distinguere tra gli stimoli e gli
eventi ambientali quelli che hanno valore di rinforzo, orientando il nostro comportamento nella loro
direzione.
Secondo Berridge e Kringelbach il sistema della ricompensa comprende due sottosistemi, che possono
attivarsi anche indipendentemente: il sistema del piacere nell’ottenere ricompense e il sistema del
volere alcune cose più di altre. Solitamente i due sistemi agiscono insieme, cioè desideriamo le cose che
ci arrecano piacere; ma ci possono essere anche casi di dissociazione nei quali desideriamo cose che non
ci fanno stare particolarmente bene: caso tipico delle dipendenze.
12.4.3 Ricercare sensazioni
Alcune persone amano le attività varie ed estreme, si sentono sfidate dall’aspettativa di affrontare il
rischio e di superare i propri limiti.
Zuckerman chiama sensation seeking (ricerca di sensazioni), il bisogno che alcuni hanno di essere
stimolati da nuove e complesse esperienze, e da emozioni continue ed intense.
Le persone maggiormente sensation seeker tendono ad ignorare il rischio, lo negano o lo minimizzano
e si sperimentano in attività rischiose di vario genere: fisiche, sociali o finanziarie. Elevati livelli di
sensation seeking sono tipici anche di alcune scelte professionali, come la carriera militare, e di
condizioni di dipendenza da droghe e attività antisociali.
Studi recenti hanno confermato l’influenza genetica sulla sensation seeking e l’associazione positiva con
i livelli di testosterone, che spiegherebbero il maggiore livello di sensation seeking riscontrato nei
maschi rispetto alle femmine.
La ricerca di novità che caratterizza la sensation seeking è in certa misura espressione di quella che
Berlyne definì curiosità epistemica, alla cui base pose il bisogno di conoscere e di esplorare il mondo
fisico e quello immateriale. Nel sensation seeker non sono importanti l’obiettivo e il risultato, ma ciò
che si prova cadendo giù.
70
- Stadio della regolazione integrata, che caratterizza lo svolgimento di un’attività che è
espressione di sé o comunque in armonia con il Sé. Il controllo e la regolazione sono totalmente
interni. La persona si sente competente e ritiene importante ciò che fa.
Il continuum motivazionale si trova nell’ambito della teoria dell’autodeterminazione di Deci e Ryan,
secondo cui le persone sono realmente motivate a fare qualcosa quando hanno la possibilità di scegliere
autonomamente attività che sono espressioni di sé e che permettono il coinvolgimento delle proprie
capacità, nella direzione di un crescente sviluppo psicologico e relazionale. Questi due studiosi
ritengono che le persone abbiano una naturale spinta all’autorealizzazione che si raggiunge solo quando
alcuni bisogni psicologici innati e universali trovano piena soddisfazione; questi bisogni sono
competenza, autonomia e relazionalità.
12.5.2 Il flow
La presenza di motivazione intrinseca è una delle caratteristiche del flow (flusso), o esperienza ottimale,
una particolare condizione di assorbimento e coinvolgimento nell’attività, descritta grazie a una serie di
interviste fatte a sportivi e artisti. È stato osservato che gran parte degli intervistati riconosceva un
particolare stato di esperienza, chiamato “esperienza di flow”, caratterizzato da:
- Chiarezza di direzione e azione. La persona sa dove e come andare in una direzione;
- Senso di controllo sulla situazione e sull’attività svolta;
- Percezione di fluidità e di mancanza di ostacoli nello svolgimento dell’azione;
- Concentrazione spontanea e senza sforzo;
- Esperienza temporale distorta. La persona non sa da quanto è concentrata nell’attività;
- Perdita di consapevolezza di sé. La persona vive uno stato di totale coinvolgimento.
La principale condizione che rende possibile questa esperienza è il bilanciamento tra elevate
opportunità di azione e sfide offerte dall’ambiente (challenges) e adeguate capacità personali di
affrontarle (skills). A situazioni di sbilanciamento tra queste due si associano esperienze di noia o ansia:
la noia si presenta quando le capacità eccedono le sfide dell’ambiente; l’ansia quando si verifica il
contrario.
La chiarezza degli obiettivi e la disponibilità di feedback sono ulteriori elementi che facilitano
l’esperienza di flow, che ha una forte valenza motivazionale, soprattutto perché la positività dello stato
affettivo e della gratificazione, a questo associate, permettono che la persona tenda nel tempo a
ricercare attività che hanno condotto al flow, per poterle svolgere ancora (processo di selezione
psicologica). Tramite questo processo le persone costruiscono un proprio tema di vita, costituito
dall’insieme delle attività, degli interessi, e degli obiettivi più ricercati e coltivati nel corso della vita.
71
13.2.1 L’approccio normativo: una logica della decisione
L’obiettivo dell’approccio logico-normativo consiste nell’individuare dei formalismi per definire le
scelte, in modo da poter raggruppare quelle che, rispettando un numero di assiomi di coerenza
interna e uno o più criteri di scelta (regole decisionali), possono essere definite razionali, intese come
logiche, o internamente coerenti. Adattando queste scelte ad un contesto, le scelte razionali sono anche
quelle ottimali o vantaggiose per chi le utilizza.
Si studiano le decisioni come se gli individui facessero i calcoli necessari per scegliere, decidere e agire
nel rispetto di alcuni assiomi di razionalità. Il protagonista dei modelli economici di questo tipo è un
agente o decisore virtuale, il cui comportamento è relativamente semplice e definibile da un insieme di
assiomi. L’agente decisore viene chiamato homo oeconomicus, ed è dotato di un definito ordinamento
di preferenze sulle alternative a disposizione; è anche in grado di formare aspettative probabilistiche ed
elaborare informazioni secondo le leggi del calcolo delle probabilità.
I tipi di scelte si distinguono in: quelle in condizioni di certezza, che sono quelle fra corsi d’azione
alternativi che comportano sempre un esito sicuro; e quelle in condizioni di incertezza, che sono quelle
in cui le conseguenze di almeno una delle alternative non è sicura, ma legata a gradi di probabilità, e si
dividono in rischiose (quando i gradi di probabilità degli esiti sono definiti) e incerte in senso proprio
(quando si sa che un esito è possibile ma non si sa in quale probabilità).
In condizioni di incertezza, l’homo oeconomicus è un massimizzatore dell’utilità attesa. La Teoria
dell’utilità attesa (sviluppata in seguito da Savage con la Teoria dell’utilità attesa soggettiva) costituisce
il fondamento storico di questo approccio. La nozione di utilità è associata a quella di valore atteso: il
valore è una misura assoluta e oggettiva; l’utilità, invece, è una misura relativa, associata ad un valore. Il
valore atteso di un’opzione di scelta consiste nella valutazione delle conseguenze di quella scelta,
considerando il momento in cui quelle conseguenze si verificheranno, e le probabilità che si verifichino
effettivamente.
I modelli normativi si occupano soprattutto dei risultati aggregati dei comportamenti di molti agenti, o
di molte scelte fatte da uno stesso agente. In certi casi fare una scelta che massimizza il valore atteso,
può portare anche all’aumento del rischio, infatti, la massimizzazione del valore atteso non può
costituire l’unica regola decisionale di un modello razionale. È necessario, quindi, considerare anche il
valore personale attribuito dal decisore in un certo contesto, insieme al valore oggettivo associato agli
esiti di una scelta. Il concetto di valore atteso è stato così affiancato, grazie a Bernoulli, da quello di
utilità attesa, per cui una funzione di utilità è intesa come misura della soddisfazione associata agli esiti
monetari di una scelta, e introduce il concetto di utilità marginale decrescente; nel considerare
l’utilità associata ad un esito monetario, incrementi successivi della stessa entità di questo stesso esito
determinano un incremento di utilità sempre minore per l’individuo.
Molto tempo dopo, von Neumann e Morgenstern rielaborarono la Teoria dell’utilità attesa, nella loro
Teoria dei giochi e comportamento economico, per cui la massimizzazione dell’utilità attesa è il
criterio razionale nella scelta tra una serie di alternative definite “rischiose”, in quanto inserite in un
contesto decisionale caratterizzato dall’incertezza, ma con gradi di probabilità ben definiti. Alla base c’è
l’idea che un agente, di fronte ad una decisione da prendere, sia sempre in grado di esprimere
preferenza, o indifferenza, tra uno stato e un altro, e riesca sempre a stabilire un ordinamento di
preferenze tra le combinazioni probabilistiche di questi stati. Questa teoria, quindi, prevede che una
qualche funzione di utilità, che può variare in base all’atteggiamento verso il rischio dell’agente e in base
al tipo di ambito in cui si presenta la scelta, permetta di convertire le caratteristiche di un’opzione in
utilità. La funzione di utilità è razionale se rispetta i criteri di coerenza interna:
- Principio della transitività. Se in una scelta, un agente, preferisce un esito A ad un esito B, e un
esito B ad un esito C, allora dovrà preferire A a C;
- Principio della dominanza. Se in una scelta l’alternativa A è preferita a B in tutte le
rappresentazioni possibili, allora necessariamente A sarà preferita a B sempre;
- Principio dell’invarianza. L’ordine delle preferenze tra opzioni di scelta non cambia in base al
modo in cui sono presentate, quindi la presentazione del problema decisionale non ha nessun
effetto sull’ordinamento di preferenze;
72
- Principio dell’indipendenza. L’ordine delle preferenze tra opzioni di scelta è indipendente dalle
alternative irrilevanti.
Savage si soffermò sui problemi decisionali in condizioni di incertezza in senso proprio, con la sua
Teoria dell’utilità attesa soggettiva: la principale differenza rispetto alla prima teoria consiste
nell’introduzione del concetto di probabilità soggettiva. Savage nota che in molti casi anche i valori di
probabilità associati agli esiti non sono oggettivamente dati, ma il risultato è in gradi di fiducia.
13.2.2 Alcune critiche all’approccio normativo
Nonostante il modello normativo resti un fondamentale metro di paragone della razionalità delle scelte
umane in ambiti professionali, nel corso del tempo si notò che non era molto in grado di predire la
direzione di alcune scelte umane. Si sentì, quindi, l’esigenza di creare modelli che fossero più in grado di
catturare i principali fattori che caratterizzano non tanto la scelta “ideale”, ma la scelta umana così come
essa si svolge; da qui vennero introdotti alcuni fattori umani che influenzano le scelte e che sono
indagati empiricamente.
Simon è tra i primi ad affermare che la comprensione del comportamento di scelta tra individui richiede
lo studio di fattori cognitivi che portano a comportamenti di scelta diversi da quelli considerati razionali
nei modelli normativi. Per Simon, l’attività cognitiva dei singoli decisori è caratterizzata da razionalità
limitata: esistono numerosi limiti cognitivi che si esprimono nell’incertezza e nell’ambiguità dei criteri
cui attenersi nel prendere decisioni. In presenza di fattori come la complessità dei problemi, la
disponibilità di un numero ridotto di informazioni ed esperienze, e il tempo limitato per scegliere, i
decisori ricercano esiti soddisfacenti rispetto a certi livelli di aspirazione, invece di perseguire
l’ottimizzazione dei risultati conseguibili. Da queste critiche nacque l’approccio descrittivo allo studio
della descrizione umana.
13.2.3 L’approccio descrittivo e la Teoria del prospetto
Tversky mostrò che il principio di transitività è spesso disatteso, arrivando addirittura ad affermare che
in alcuni ambiti decisionali è proprio l’intransitività delle preferenze a costituire la condizione più
frequente delle scelte individuali.
Un’altra proposta fu quella di Lichtenstein e Slovic, che si concentrò sul rovesciamento delle
preferenze: osservarono che gli individui, in numerosi esperimenti, di fronte alle stesse opzioni tendono
ad assumere un atteggiamento avverso al rischio (cercando di massimizzare la probabilità di vincita, per
quanto piccola) in compiti di scelta, mentre si dimostrano propensi al rischio (cercando di massimizzare
la vincita, anche riducendone la probabilità) in compiti di valutazione.
A partire dagli anni ’70 numerose prove empiriche evidenziariono la bassa euristicità del modello
normativo per la comprensione delle scelte individuali; così si consolidò l’approccio descrittivo, che si
proponeva di descrivere il modo in cui le persone effettivamente ragionano, prendono decisioni e
formulano giudizi.
Tra i tentativi di sviluppare la Teoria dell’utilità attesa in senso psicologicamente realistico, il migliore è
stato quello della Teoria del prospetto di Kahneman e Tversky, che introduce all’utilità attesa delle
modifiche che permettono di catturare le divergenze tra comportamento decisionale atteso in un agente
razionale e comportamento effettivo osservato nei decisori umani. L’idea alla base della teoria è che gli
individui valutino le alternative di scelta in termini di scarto da un punto di riferimento, e che queste
valutazioni siano differenti in base al fatto che si tratti di guadagni o perdite rispetto a quel punto di
riferimento, quindi uno stesso prospetto può avere utilità diverse per ogni decisore.
Secondo la Teoria del prospetto, il processo decisionale si articola in due fasi: la strutturazione del
problema decisionale e la conseguente valutazione. Nella prima fase, il decisore procede a un’analisi
del problema attraverso:
- La codifica delle opzioni di scelta, in termini di guadagno o perdita rispetto al punto di
riferimento;
- La segregazione, che porta a separare le decisioni che implicano rischi da quelle che non li
implicano;
- La cancellazione, che prevede l’eliminazione dalle descrizioni delle opzioni delle componenti
condivise dalle varie alternative;
73
- La combinazione, attraverso cui le alternative che portano ad esiti identici vengono raggruppate
e valutate complessivamente;
- La semplificazione, che si ottiene arrotondando le probabilità e i risultati attesi percepiti come
simili;
- La rilevazione di dominanza, che prevede l’eliminazione dei prospetti dominanti e la
focalizzazione per la decisione sui soli prospetti dominanti.
Nella seconda fase, il decisore confronta i diversi prospetti decisionali e sceglie quello con valore più
alto, che è assegnato ad ogni opzione secondo la funzione di valore. La Teoria del prospetto e la Teoria
dell’utilità attesa si differenziano per: la nozione di valore, il concetto di peso decisionale e il ruolo della
rappresentazione decisionale.
La funzione di valore è una funzione di utilità razionale in accordo con la teoria di von Neumann e
Morgenstern, ma riflette anche un’importante innovazione: l’argomento della funzione non è il valore
oggettivo di un esito, ma il differenziarsi dell’esito oggettivo dal punto di riferimento individuale, subito
nella fase di strutturazione dei prospetti; questo, dal punto di vista psicologico, si traduce in due delle
proprietà delle decisioni umane:
- gli individui hanno una sensibilità marginale ai guadagni e alle perdite che diminuisce man mano
che ci si allontana dal punto di riferimento;
- gli individui sono maggiormente sensibili alle perdite rispetto ai guadagni (effetto di avversione
alle perdite).
Il secondo elemento fondamentale della teoria del prospetto è il concetto di peso decisionale, che indica
il modo in cui le persone considerano le probabilità associate agli esiti di una scelta (probabilità
soggettiva).
Se il punto di riferimento spesso coincide con la posizione attuale del decisore, in altri casi può
spostarsi, e questo spostamento può essere influenzato dal modo in cui si presenta il prospetto
decisionale, e può determinare cambiamenti nell’atteggiamento verso il rischio, a seconda che gli esiti di
un prospetto siano mentalmente rappresentati come possibili guadagni o perdite.
13.2.4 Gli effetti di incorniciamento
Il terzo elemento distintivo riguarda il ruolo della rappresentazione mentale del problema decisionale,
connesso all’operazione di codifica. Alcuni cambiamenti nei punti di riferimento, con i conseguenti
cambiamenti di preferenze, sono causati da effetti di incorniciamento; lo stesso problema decisionale
può condurre a decisioni differenti a seconda del modo in cui è descritto (decision frame)
Uno dei punti di forza della teoria del prospetto è stato quello di individuare una serie di fenomeni
precedentemente non considerati, e comunque non facilmente catturati nel modello normativo.
74
13.3 Eurustuche di giudizio ed errori
L’incertezza è uno degli aspetti fondamentali della vita quotidiana.
Nell’ambito della decisione e dell’azione umana, il programma di ricerche più vasto è quello delle
euristiche e bias di Kahneman e Tversky; secondo i risultati di questo programma, le persone sono
incapaci, in molti casi, di analizzare completamente le situazioni che prevedono giudizi di natura
probabilistica, e non hanno risorse computazionali adeguate per lo svolgimento delle stime richieste dai
principi di calcolo probabilistico e statistico. Quando queste giudicano delle probabilità, si affidano a
delle euristiche, cioè delle scorciatoie mentali che semplificano il compito, ma che in alcuni casi
inducono ad esprimere giudizi erronei.
Il concetto di euristica fu introdotto da Simon nell’ambito degli studi sul problem solving. Lui le
considerava strategie, principi ed espedienti che permettono agli individui di affrontare e gestire la
complessità dei problemi.
Secondo Tversky e Kahneman, essendo strategie semplificate, le euristiche sono inappropriate, perché
si basano su valutazioni automatiche e quindi sono messe in atto non solo per compiti complessi, ma
anche per rispondere a problemi molto semplici.
Analizzando il tipo di informazioni di cui si avvale ogni strategia euristica, è possibile prevedere in quali
contesti, e attraverso quali meccanismi, quella strategia porterà a giudizi sistematicamente e
prevedibilmente erronei: i bias.
Le tre strategie euristiche più studiate, per quanto riguarda i giudizi probabilistici, sono quelle della
rappresentatività, della disponibilità, e dell’ancoraggio e aggiustamento.
13.3.1 L’euristica della rappresentatività
L’euristica della rappresentatività porta a valutare la probabilità di un evento in base al grado in cui
questo rappresenta la sua fonte o il processo che lo produce.
L’esempio più noto è il problema di Linda: esperimento in cui i partecipanti dovevano leggere la
descrizione di una donna e ordinare dal punto di vista probabilistico otto possibili attività che
riguardavano la donna descritta; la descrizione era ideata in modo da risultare rappresentativa per una
categoria di persone e non per un’altra. I risultati ottenuti indicavano che la congiunzione delle due
categorie veniva ordinata dalla maggioranza dei soggetti in una posizione più alta rispetto ad uni dei
suoi costituenti, quello meno rappresentativo. La risposta dei soggetti rappresentava un’evidente
violazione della regola di congiunzione, che deriva direttamente dalla regola di estensione: la
congiunzione di due eventi non può mai essere più probabile di ciascuno dei suoi costituenti (fallacia
dell’intersezione).
L’euristica della rappresentatività sembra essere responsabile anche della fallacia delle probabilità di
base.
13.3.2 L’euristica della disponibilità
L’euristica della disponibilità consiste nel valutare la probabilità di un evento in base alla sua
disponibilità, cioè in base alla facilità con cui esemplari o casi di tale evento possono venire in mente. Il
concetto di disponibilità fa riferimento a due diversi processi: la facilità di recupero in memoria e la
facilità di costruzione/immaginazione dei casi dell’evento che si deve stimare.
In molte situazioni questa euristica può condurre a stime abbastanza accurate, per il fatto che gli esempi
più frequenti di un evento sono in genere più facili da ricordare e da immaginare rispetto a quelli meno
frequenti. Il recupero di casi o esempi, però, è influenzato anche da altri fattori che non hanno niente a
che fare con l’effettiva occorrenza degli eventi e, di conseguenza, ci sono varie situazioni in cui questa
euristica porta a errori di giudizio (giudizi di probabilità che si discostano in maniera significativa dalle
probabilità reali).
75
BOX. Euristica della disponibilità e distorsioni di giudizio nelle decisioni
mediche: un esempio
La ricerca sperimentale nell’ambito della psicologia della decisione ha mostrato come spesso anche
gli esperti abbiano difficoltà nell’elaborazione di giudizi probabilistici normativamente corretti.
Un esempio è lo studio di Poses e Anthony, che analizzarono le decisioni dei medici in un contesto
che prevedeva un giudizio sulle probabilità di infezioni batteriche in pazienti ospedalizzati a cui
erano prescritte delle emoculture: i medici dovevano decidere la terapia antibiotica da utilizzare in
base alla stima diagnostica che il paziente avesse, o meno, un’infezione batterica. I risultati hanno
mostrato che l’euristica della disponibilità ha un effetto significativo sulle diagnosi: le valutazioni
intuitive della probabilità di infezione da parte dei medici non furono accurate, perché quasi tutti
sovrastimarono la probabilità; c’è stata una scarsa capacità di discriminazione dei medici tra pazienti
con, e senza, infezione. L’influenza dell’euristica della disponibilità su queste percezioni errate fu
rifiutata da una serie di dati: ci fu un legame tra alcune variabili associate al ricordo, da parte dei
medici, di esperienze cliniche passate e i loro giudizi; fu rilevata una correlazione positiva tra la
proporzione degli individui sotto antibiotici che i medici ricordavano tra i loro pazienti, e le stime di
probabilità di infezione batterica sui singoli pazienti coinvolti nello studio.
I risultati ottenuti suggerirono l’esistenza di una distorsione valutativa: i medici assegnarono stime di
probabilità di infezione più basse a pazienti ritenuti più a rischio di morte, nel caso fossero stati
effettivamente colpiti da quell’infezione. Effetto noto come wishful thinking: si ritiene più bassa di
quanto sia la probabilità di un evento indesiderabile, e si ritiene più alta la probabilità di un evento
desiderabile.
L’euristica della disponibilità può in molti casi condurre a giudizi di buona qualità (ad esempio, nel
giudizio di eventi legati da nessi causali può permettere di riconoscere in tempo reali cambiamenti
nella prevalenza della malattia), ma va considerato anche che i casi in cui essa può allontanare il
giudizio da quello corretto, favorendo diagnosi sbagliate, con conseguenze anche gravi per la vita.
76
sistematicità degli errori rilevati, infatti, non è facilmente spiegabile come errori dovuti a
qualcosa di poco prevedibile si ripetano ogni volta con determinati problemi di ragionamento.
- Gli errori sono dovuti alla presenza di limiti computazionali dei quali spesso non si tiene
conto (ipotesi dei limiti computazionali). Anche se ci sono studi che evidenziano una
correlazione tra le abilità cognitive dei soggetti e le loro prestazioni in alcuni problemi di
giudizio, per altri problemi di giudizio e di ragionamento i risultati mostrano che non c’è
correlazione tra le abilità cognitive generali e l’aderenza alle regole della logica e della
probabilità.
- Gli errori sono dovuti a una scelta sbagliata, da parte degli sperimentatori, delle norme a cui
fare riferimento (ipotesi del modello normativo errato). Questa critica riguarda la scelta delle
norme attraverso le quali poter valutare come razionali o meno le scelte e i giudizi degli
individui. Questa ipotesi prevede che sia proprio la scelta di un modello normativo sbagliato ad
aver portato i soggetti a prestazioni apparentemente deludenti. L’ipotesi frequentista è l’esempio
più noto in letteratura: viene criticata la teoria normativa della probabilità utilizzata come
parametro per valutare le prestazioni dei soggetti.
- Gli errori sono dovuti a una interpretazione dei problemi, da parte dei soggetti, diversa da
quella intesa (e attesa) dagli sperimentatori (ipotesi della costruzione del compito alternativa).
Secondo questo punto di vista, si ritiene che i soggetti forniscano effettivamente risposte
normativamente corrette, ma a problemi diversi da quelli intesi dallo sperimentatore. La causa
dell’errore non risiede nei soggetti, ma nel problema stesso, e in alcune sue caratteristiche che
portano a una sua interpretazione non univoca.
13.3.5 Gli sviluppi del dibattito sulla razionalità: il modello dei due sistemi di pensiero e
la nuova concezione delle euristiche
Nel tentativo, da parte di diversi studiosi, di costruire un modello teorico della cognizione umana
comprendendo le diverse prospettive sul dibattito della razionalità umana, è nata la proposta di un
modello cognitivo che prevede l’azione di due sistemi di pensiero distinti, che si riferisce ad una
famiglia di teorie, tutte accomunate da sostanziali concordanze sull’ipotesi di due processi distinti di
pensiero: il sistema 1 e il sistema 2.
Il sistema 1 è descritto come intuitivo, basato su processi largamente inconsci, automatico, veloce; una
specie di sistema esperenziale che prevede elaborazioni esclusivamente euristiche, associative, o basate
su un solo modello mentale, e che non richiede un grande utilizzo di risorse cognitive.
Il sistema 2 è un potenzialmente razionale, consapevole, controllato, relativamente lento, con
elaborazione di tipo analitico basata su regole o sulla costruzione di molteplici modelli mentali, e che
richiede l’utilizzo di maggiori risorse cognitive.
77
13.4.1 Definizione di rischio
Uno dei modi possibili di definire il rischio è legato alla teoria formale delle probabilità, e implica la
possibilità di calcolare il rischio in modo obiettivo, attraverso, per esempio, il prodotto della probabilità
di una perdita per l’entità della stessa.
Un secondo tipo di definizione si focalizza sulla percezione “ingenua” dei rischi; sono teorie
descrittive, strettamente connesse ad una visione soggettiva delle probabilità. Il rischio è determinato
dalla possibilità di perdite, dalla rilevanza di queste perdite, e dall’incertezza associata a queste.
Una terza prospettiva si focalizza sul processo o meccanismo attraverso il quale si può verificare, per
l’individuo, l’evento indesiderato. È stato sottolineato come l’esperienza del rischio preveda una
mancanza di “controllo percepito” per i soggetti associata ad un esito ritenuto indesiderabile dagli
stessi: in questo caso, il rischio è rappresentato proprio dall’impossibilità di impedire ed evitare il
verificarsi dell’evento dannoso per il soggetto.
Le diverse definizioni di rischio prevedono comunque, quasi sempre, la presenza di tre elementi: una o
più conseguenze associate all’oggetto del rischio, che possono avere un impatto sull’uomo sia a breve
che a lungo termine; la probabilità associata al verificarsi di queste; e il contesto specifico in cui si
possono manifestare quelle conseguenze.
È stata evidenziata la differenza tra rischio oggettivo e soggettivo: il rischio oggettivo è calcolabile
tramite le leggi della probabilità; il rischio soggettivo è rappresentato dalla valutazione individuale e
personale del rischio.
Per Sandman, per esempio, il rischio è dato dalla somma del pericolo e dell’offesa: il pericolo è ciò che
causa l’evento dannoso per il soggetto, mentre l’offesa racchiude tutto ciò che concerne la percezione
del rischio da parte del pubblico dei non esperti.
13.4.2 Lo studio della percezione del rischio
Ciò che influenza la percezione del rischio dipende dall’origine del rischio stesso, e differisce secondo il
pubblico considerato. Oltre al contesto sociale, influenzano la percezione del rischio fattori come la
posizione sociale degli individui, le loro credenze culturali, i loro valori individuali o di gruppo.
La maggior parte delle ricerche sulla percezione del rischio che hanno studiato la base comune dalla
quale prendono forma i comportamenti esposti a rischi, hanno cercato di individuare la differenza tra il
pubblico dei non esperti e quello degli esperti.
Lo studio della percezione del rischio è stato attuato con diversi metodi di indagine: studi sperimentali,
studi di natura correlazionale-psicometrica e studi condotti con metodi qualitativi.
13.4.3 Le determinanti cognitive della percezione del rischio
Gli aspetti del rischio più considerati dai non esperti, impegnati a valutare la rischiosità di particolari
oggetti o azioni sono:
- Il potenziale catastrofico. Con cui si intende l’insieme delle conseguenze dannose del
verificarsi dell’evento dannoso, ad esempio il numero medio di morti in seguito ad un evento
rischioso correla con la rischiosità percepita;
- Le circostanze del rischio (caratteristiche qualitative). La percezione del rischio è influenzata
dalla volontarietà del rischio (un rischio provocato dall’uomo è più negativo di uno naturale);
dalla controllabilità; dalla dilazione nel tempo delle conseguenze; dal danno percepito per le
generazioni future; dalla familiarità con il rischio; dall’uguaglianza rispetto all’esposizione al
rischio e la percezione di esclusività dei benefici associati all’attività rischiosa.
- Le credenze rispetto alla causa del rischio. Prima di interpretare le informazioni che
provengono dall’esterno, gli individui operano una selezione sulla base delle proprie attitudini e
delle proprie credenze personali; i rischi naturali sono percepiti come più accettabili rispetto a
quelli artificiali;
- La credibilità delle istituzioni volte a controllare l’impatto dei rischi. Che agisce per tutti i
rischi che vengono presi dalla società senza il consenso individuale di ogni cittadino, e senza la
possibilità di intervenire sui rischi attraverso un intervento personale. Questi rischi sono
accettati se le persone hanno certezza che la mancanza del proprio controllo sia compensata
dalla presenza di un corretto controllo istituzionale.
78
Lo studio dei giudizi intuitivi sul rischio ha il merito di aver evidenziato la componente affettiva nella
percezione del rischio, e la funzione delle emozioni nella decisione.
79
(arousal) alto lo predispone ad acquisire un minor numero di informazioni, a ridurre il processo
di ricerca, considerando solo gli elementi più importanti.
- Emozioni come elementi motivatori. L’affect ha un ruolo nel condizionare il
comportamento degli individui spingendoli al mantenimento di uno stato d’animo positivo, è in
grado di influenzare i meccanismi di approccio-evitamento, e rappresenta uno dei principali
motori del processo motivazionale decisore.
- Emozioni come filtri. Le emozioni possono filtrare le informazioni, rendendole più o meno
salienti. Gli individui tendono a filtrare gli stimoli focalizzando l’attenzione su aspetti della
decisione più congruenti con il proprio stato d’animo. La condizione emotiva suscitata dal
contesto decisionale induce il decisore a recuperare le informazioni più coerenti con la
situazione che sta vivendo.
- Emozioni come “valuta comune”. Le emozioni permettono il confronto tra informazioni
diverse: attraverso la traduzione di complicate analisi costi-benefici in valutazioni affettive
semplici, le persone sarebbero più in grado di confrontare le diverse alternative di scelta e
verrebbero quindi facilitati nella scelta. Sarebbe la complessità dei contesti decisionali a rendere
irrealizzabile una comparazione analitica delle alternative di scelta e a rendere appropriato
l’affidamento a valutazioni di tipo affettivo (concetto di razionalità affettiva).
80