Sei sulla pagina 1di 80

CAP 1.

DISCORSO SUL METODO


1.2 I criteri di scientificità della psicologia generale
La psicologia generale cerca di scoprire leggi del comportamento per cui, data una o più cause, è
possibile prevedere uno o più comportamenti, con un certo grado di probabilità.
Secondo Karl Popper, il metodo scientifico a cui dobbiamo fare riferimento è il metodo scientifico
ipotetico-deduttivo: viene identificato il problema tramite osservazioni informali o in base all’analisi
sistematica di dati raccolti, dopo vengono generate congetture esplicative o ipotesi di ricerca (Popper
sosteneva che non è importante in base a cosa vengono formulate le ipotesi, l’importante è che
comportino tutte previsioni univoche su fatti osservabili e che siano, quindi, empiricamente
confutabili), dopodiché viene effettuata un’osservazione sistematica; l’esito può corroborare o
confutare l’ipotesi generata, richiedendo di modificarla o di generarne un’altra, e questo può dare il via
al ciclo che corrisponde all’evolversi della scienza.
Le teorie scientifiche sono insiemi internamente coerenti di ipotesi esplicative confutabili, ma non
ancora confutate; sono basare su costrutti teorici: concetti inosservabili, che consentono di formulare
leggi che catturano e spiegano regolarità osservabili.
Nella scienza, quando due teorie sono contrapposte, la migliore è quella con maggior potere esplicativo.
Se due teorie, che prevedono anche costrutti e leggi diversi, fanno le stesse previsioni su una classe di
fenomeni, sono scientificamente indistinguibili; salvo preferire la teoria più parsimoniosa, quella che fa
le previsioni con maggiore eleganza formale: cioè utilizzando il minor numero di costrutti inossorvabili,
un criterio epistemico detto rasoio di Ockham.

1.3.1 La scomposizione in variabili


Per controllare la correttezza di una teoria psicologica vanno esaminate sistematicamente le previsioni,
che possano guidare lo sviluppo di esperimenti. Va descritto, quindi, un qualche fenomeno nei termini
di uno o più eventi specifici, che devono essere caratterizzati da proprietà definite, misurabili e che
possono assumere diversi valori: le variabili. Quindi, l’esperimento in psicologia è il controllo della
relazione tra due o più variabili.
Le variabili vengono definite in modo operazionale, cioè in base alle operazioni da effettuare per
misurarne il valore.
Si distinguono:
- Variabili inosservabili, associate a concetti teorici, come il grado di felicità, di concentrazione
ecc. Un concetto teorico inosservabile è considerato scientificamente studiabile solo se implica
delle conseguenze concrete e osservabili, che consentono di operazionalizzarlo;
- Variabili osservabili secondarie, che sono indizi delle variabili inosservabili, servono cioè ad
operazionalizzare le variabili inosservabili, possono essere i tempi di risposta ad un test ecc.
1.3.1.1 I tipi di variabili e le scale di misura
Le variabili si dividono in:
- Variabili quantitative o continue, la cui dimensione varia lungo un continuum (es. tempo di
reazione in millisecondi, peso in chili, altezza in cm);
- Variabili qualitative o discrete, che possono avere solo un valore finito (es. veloce o lento,
pesante o leggero, alto o basso ecc.)
La natura di queste variabili dipende da come si sceglie di misurarle. Le scale di misura utilizzate per
misurare le variabili sono: nominale, ordinale, intervalli equivalenti e rapporti equivalenti.
Per essere utile, la misurazione di una variabile deve soddisfare criteri di validità, affidabilità e sensibilità.
Una misura è:
- Valida, se è diagnostica verso il costrutto da misurare;
- Affidabile o attendibile, se genera risultati coerenti in condizioni simili;
- Sensibile, se genera risultati diversi quando misura cose diverse.
Le misure non sono perfette, ma possono presentare degli errori, che possono essere casuali o
sistematici. I casuali non sono associati regolarmente a qualche variabile o strumento di misura; gli

1
errori sistematici o bias, invece, sono errori di direzione ed entità costanti o quasi, e in alcuni casi sono
associati solo a certi valori della variabile.
1.3.2 Le strategie di ricerca
Le strategie di ricerca sono modalità sistematiche di raccolta di informazioni, che possono portare al
modo più idoneo a rispondere al problema affrontato. Possono essere:
- Descrittive, che permettono di descrivere il comportamento di persone o animali in
determinati contesti, basandosi sull’osservazione sistematica. Questo tipo di strategia non
permette di identificare le cause o le ragioni delle variazioni di un certo comportamento. Tra
queste si trovano i questionari e le inchieste. Nel momento in cui i dati descrittivi raccolti
vengono codificati su scale numeriche, le ricerche basate su questionari e inchieste possono
entrare a far parte anche di ricerche correlazionali.
- Correlazionali che, come le precedenti, osservano determinati fenomeni senza creare
modifiche. Misurano quantitativamente alcune variabili che possono essere rilevanti per i
fenomeni studiati, per stabilirne il grado di associazione reciproca (tramite il coefficiente di
correlazione).
- Sperimentali, che comprendono osservazioni sistematiche e misurazioni, ma prevedono anche
la modificazione volontaria e controllata dei valori assunti da alcune variabili. Il disegno
sperimentale (il progetto dell’esperimento), dichiara quali variabili devono essere manipolate in
qualità di potenziali cause (variabili indipendenti) e su quali variabili ci si attende un effetto
(variabili dipendenti); la relazione tra questi tipi di variabili indica una possibile relazione causa-
effetto. In molti casi si utilizzano disegni sperimentali fattoriali, in cui lo sperimentatore
manipola contemporaneamente più variabili indipendenti, dette fattori, per cui devono esistere
condizioni sperimentali separate per ogni possibile combinazione dei livelli delle variabili
indipendenti di interesse (disegno ortogonale). Quando uno studio prevede alcune variabili
manipolate non dallo sperimentatore, ma dalla natura fisica o sociale, prende il nome di quasi-
esperimento. L’esperimento dovrebbe essere costruito in modo che gli unici elementi a variare
siano le variabili indipendenti e le reazioni dei partecipanti, per questo il concetto fondamentale
del metodo sperimentale è quello del controllo. Spesso non è possibile esercitare un controllo
completo, quindi si è esposti a rischi di validità o affidabilità.
1.3.3.1 I tipi di validità e di minacce alla validità
Esistono diversi tipi di validità:
- Validità interna, che riguarda la relazione tra variabili dipendenti e indipendenti; una minaccia
per questo tipo di validità è il poter confondere altre variabili che possono covariare
parallelamente alla variabile indipendente con la variabile indipendente da prendere in
considerazione.
- Validità di costrutto, che riguarda la relazione tra i risultati e la teoria; per aumentare questa
validità è necessaria la corretta definizione operazionale delle variabili. La scelta di
un’operalizzazione diversa dello stesso costrutto porterà a risultati e conclusioni diverse, quindi
potrebbero essere necessari nuovi esperimenti operazionalizzando le stesse variabili teoriche in
modi diversi.
- Validità esterna, che riguarda l’estensione dei risultati di una ricerca ad altre situazioni. Per
rendere possibile una validità esterna è importante selezionare un sufficiente campione di
partecipanti, rappresentativo rispetto alle popolazioni di interesse.
- Validità statistica, che è legata sia alla validità interna che a quella esterna. Per aumentare
entrambe le validità, gli esperimenti vanno condotti su vasti campioni di osservazioni. Nella
statistica sono possibili cause dipendenti dal caso o meno, e per distinguere se la variazione
osservata nella variabile dipendente sia attribuibile al caso o agli effetti della variabile
indipendente si utilizzano le tecniche di statistica inferenziale.

2
1.3.3.2 Il controllo
Il tentativo di ridurre le minacce alla validità coincide con l’aumento del grado di controllo
sperimentale: lo sperimentalista deve cercare di limitare il più possibile l’effetto delle diverse sorgenti di
variabilità per cercare di aumentare la precisione delle previsioni.
Un elemento fondamentale di un disegno sperimentale corretto è la definizione di un giusto punto di
paragone con cui confrontare gli effetti di una variabile indipendente.
Facendo un esperimento su un gruppo di persone, chiamato gruppo sperimentale, è molto utile
“utilizzare” un gruppo di controllo, con partecipanti selezionati a caso dalla stessa popolazione dei
partecipanti al gruppo sperimentale, e che verrà sottoposto ad un trattamento diverso o a nessun
trattamento rispetto agli altri, per vedere se i risultati dell’esperimento saranno uguali o differenti per i
due gruppi. La differenza tra le risposte è chiamata punto di paragone o linea di base.
1.3.3.4 Le variabili di disturbo
Quando una variabile non di interesse per l’esperimento può influenzarne ugualmente i risultati è detta
variabile di disturbo. Questa non correla con la variabile indipendente, ma può comunque avere effetti
sulla variabile dipendente. Uno dei metodi per neutralizzare le variabili di disturbo è trattarle come vere
e proprie variabili indipendenti, bilanciandole tra ed entro i soggetti.
1.3.3.5 Gli effetti delle aspettative
Il sapere di far parte di un esperimento, sia da parte del partecipante che dello sperimentatore, può
influenzare gli effetti delle variabili indipendenti; questo costituisce una delle più grandi minacce alla
validità di un esperimento psicologico.
L’effetto delle aspettative del partecipante riguarda il fatto che sa che sta prendendo parte ad un
esperimento, quindi di essere osservato, e questo può influenzare il suo comportamento (effetto
Hawthorne). Visto che non informare i partecipanti del fatto che stiano prendendo parte ad un
esperimento è vietato da regole etiche, in alcuni casi può essere molto utile informarli dell’esperimento,
ma non dire loro se faranno parte del gruppo sperimentale o del gruppo di controllo (procedura a
singolo cieco).
Inoltre, ci sono situazioni in cui è importante tenere all’oscuro anche gli sperimentatori, per impedire
che interpretino i risultati come in linea con le previsioni (tendenza alla conferma), o che influenzino i
partecipanti a reagire nel modo previsto (effetti Rosenthal o effetti delle aspettative dello
sperimentatore)

BOX. L’effetto placebo


Uno degli effetti più noti dell’aspettativa è l’effetto placebo.
Esempio: se a due gruppi diamo del materiale da studiare, dando al primo gruppo una pillola
stimolante e al secondo niente, e controlliamo quanto ricordano del materiale dopo un po’ di
tempo, molto probabilmente il primo gruppo avrà una prestazione migliore, qualsiasi sia la sostanza
della pillola (vero stimolante, zucchero, gelatina ecc.). Questo accade perché i partecipanti che
hanno ricevuto la pillola generano un’aspettativa di efficacia della sostanza, e questa di per sé è in
grado di causare l’effetto.
Questo effetto si presenta per molti tipi di trattamento, anche non farmacologico; nei trattamenti
farmacologici, inoltre, si presenta anche per farmaci utili per risolvere stati di malessere fisico e non
psicologico o psichiatrico.
Per un esperimento sull’effetto placebo è utile mettere in atto sia la procedura del singolo cieco, sia
la procedura per evitare gli effetti Rosenthal (in questo caso si parla di metodo del doppio cieco).
Questo ha permesso di dimostrare che circa il 50% dell’effetto di alcuni farmaci antidepressivi è
dovuto all’effetto placebo.

3
1.3.4 Esaminare i risultati di una ricerca
Vista la variabilità del comportamento umano, la psicologia individua leggi probabilistiche e non
deterministiche, cercando regolarità statistiche, che vengono espresse con nessi probabilistici tra eventi
e comportamenti. I risultati di ogni ricerca, quindi, sono un insieme di misurazioni numeriche che deve
essere elaborato statisticamente, dopodiché sarà possibile verificare se i risultati supportano o
confutano le ipotesi iniziali.
Per l’analisi dei risultati si utilizzano prima di tutto le statistiche descrittive, cioè procedure
matematiche utili per descrivere i risultati in modo sintetico.
Poi si utilizzano le tecniche statistiche inferenziali, che servono a stimare quanto sia probabile che
una differenza di una certa entità tra le condizioni si presenti per puro caso.
1.3.4.1 Le statistiche descrittive
Una classe di misure descrittive è quella delle misure di tendenza centrale: la più comune è la media
aritmetica, che è utile anche per altre statistiche; viene utilizzata anche la mediana, utile per individuare
il valore del punto centrale in una scala di valori ordinati.
Le misure di tendenza centrale, però, non distinguono tra situazioni ad alta o bassa variabilità, quindi è
importante anche rappresentare la variabilità all’interno del gruppo utilizzando le misure di variabilità,
che sono misure di dispersione che indicano in quale grado un insieme di valori numerici differisce
internamente: la più utilizzata in psicologia è la deviazione standard, che serve a stabilire se la
differenza tra due medie tratte da due campioni sia probabilmente dovuta al caso oppure no; un altro
parametro è la varianza, che è il quadrato della deviazione standard.
1.3.4.2 Le statistiche inferenziali
I metodi della statistica inferenziale ci permettono di stimare se una differenza osservata sia un
affidabile segno di efficacia della variabile indipendente sulla variabile dipendente.
La statistica inferenziale è un insieme di procedure matematiche, tra le quali la più diffusa è l’analisi
della varianza (ANOVA); uno dei risultati di queste procedure è un valore di probabilità (p), che
corrisponde alla probabilità che la differenza osservata tra due medie possa essere dovuta al caso.
Il valore di p non è mai nullo, cioè non avremo mai l’assoluta certezza che la differenza osservata
indichi un reale effetto della variabile indipendente sulla variabile dipendente, e non un intervento del
caso (artefatti) ; ma più il valore di p è basso (in psicologia α <0,05 – 5% la differenza è detta
statisticamente significativa), più la differenza viene imputata alla manipolazione della variabile
indipendente, e in questo caso il nostro approccio sarà conservativo (tenderemo a non accettare
risultati che non siano davvero affidabili).
Il rischio degli errori di primo e secondo tipo, la grande variabilità dei risultati e tutte le ricerche che
sono state condotte per esplorare i fenomeni maggiormente di rilievo per le principali teorie, hanno
consentito la comparsa di sempre più numerose meta-analisi, cioè tecniche statistiche che accettano
come input i parametri statistici che hanno descritto i risultati di molte precedenti ricerche su un certo
argomento; analizzandoli tutti insieme la meta-analisi riesce a stabilire se il fenomeno sia davvero
affidabile, o se costituisca un probabile artefatto.

1.4.2 I livelli della spiegazione in psicologia (il mestiere del teorico)


Per spiegare i processi che nel pensiero umano portano a generare ipotesi esplicative, idee creative e a
risolvere problemi concettuali, partiamo dalle domande che si pone il teorico.
Secondo David Marr, queste domande possono essere scomposte in tre livelli della spiegazione:
- Teoria computazionale, che si occupa di capire l’obiettivo della computazione, il perché è
appropriato e qual è la logica della strategia con cui può essere perseguito. Questo è un livello
funzionalista: per prima cosa nel cercare di capire un processo mentale dobbiamo chiederci
quali siano le sue funzioni, così da aumentare la nostra comprensione su quel processo;
- Rappresentazione e algoritmo, che cerca di comprendere come si può attivare la teoria
computazionale, e quale è la rappresentazione dell’input e dell’output e quale è l’algoritmo per la
trasformazione. Quindi, ci aiuta a costruire una teoria su come le funzioni identificate nel primo
livello siano effettivamente svolte;

4
- Implementazione hardware, che studia come realizzare fisicamente la rappresentazione e
l’algoritmo. Quindi, una volta capito quali funzioni ha un processo psicologico (1° livello), e una
volta ipotizzata e descritta una procedura formale in grado di svolgere quelle funzioni (2°
livello), potremmo chiederci quali meccanismi fisiologici, nel corpo umano, consentano di
svolgere quella procedura.
1.4.2.2 I modelli computazionali
Quando è possibile, è preferibile esporre almeno i punti da cui derivano le previsioni di una teoria con
la matematica, per non rischiare che teorie descritte solo con il linguaggio naturale vengano
reinterpretate erroneamente.
Un modo speciale, per formalizzare matematicamente una teoria psicologica è costruire una
simulazione computerizzata dei meccanismi e processi che postula; queste simulazioni si chiamano
modelli computazionali.
Tre tipologie di modelli computazionali sono:
- Modelli basati su sistemi di regole di produzione, che consiste nell’associazione tra una
qualche condizione e una qualche conseguenza (o azione). Ogni azione e ogni condizione è una
rappresentazione elementare di una caratteristica ambientale, o conoscenza, o azione. I sistemi
di produzioni sonio architetture cognitive che possono avvalersi di decine di migliaia di
produzioni, intrinsecate tra loro in schemi gerarchici, che agiscono all’unisono in modo ciclico e
possono generare autonomamente nuove produzioni;
- Modelli connessionisti, che si ispirano all’architettura distribuita e interconnessa del cervello.
Le rappresentazioni che usano sono distribuite come vettori di attivazione su più “nodi”; i
modelli più classici prevedevano almeno tre strati di nodi (input, hidden o nascosto, output). Il
peso della connessione tra due nodi indica “quanta parte” dell’attivazione del nodo dello strato
precedente contribuisce all’attivazione del nodo dello strato successivo. Questi modelli si
autostrutturano per imparare a computare in modalità distribuita la funzione che desideriamo
simulare. Vengono presentati diversi stimoli (vettore input), ognuno dei quali diffonde la sua
attivazione nella rete attraverso il vettore hidden, fino al vettore output, che ha come pattern di
azione la risposta a quegli stimoli. Se la risposta non è quella desiderata, un algoritmo detto
regola delta calcola la differenza tra il vettore output effettivo e quello atteso per la risposta
corretta.
- Modelli con agenti artificiali, con cui si programmano alcuni “individui virtuali” con le
funzioni comportamentali cui siamo interessati, poi si programma anche un modello
dell’ambiente in cui devono interagire e si lasciano, così, liberi di interagire. Alla fine della
simulazione si analizzano i risultati e si può verificare se sono emersi o meno i comportamenti e
le caratteristiche che prevede la nostra teoria.

CAP 4. LA PERCEZIONE
4.1 Introduzione
La percezione è l’insieme dei processi grazie ai quali, a partire da stimolazioni sensoriali, otteniamo
informazioni sull’ambiente e guidiamo le azioni.
Questi processi iniziano con la codifica delle informazioni derivanti dall’ambiente esterno, sulla quale la
nostra mente forma una sua interpretazione.

4.2.1 La catena psicofisica


La catena psicofisica è composta da: Stimolo distale → Stimolo prossimale → Percetto.
Lo stimolo distale è l’oggetto fisico corrispondente all’insieme di caratteristiche misurabili con
strumenti opportuni.
Lo stimolo prossimale rappresenta le proprietà degli eventi neurali che avvengono al livello della
superficie recettoriale e che codificano l’informazione in ingresso.

5
Il percetto è l’esito finale della catena, cioè ciò che vediamo.
4.2.2 Il ciclo percezione-azione
Il ricercatore che ha cercato di chiarire al meglio la natura ciclica della percezione è stato James Gibson,
secondo cui la percezione non è una sequenza unidirezionale di eventi, come nella psicofisica, ma un
processo ciclico: interpretando gli stimoli in ingresso (input), gli organismi producono
rappresentazioni coscienti dell’ambiente esterno (percetti); le rappresentazioni vengono utilizzate per
guidare i movimenti esplorativi, grazie ai quali si rendono disponibili nuovi stimoli prossimali, che
possono risultare in nuovi percetti e così via.

Attività esplorative

Stimoli distali Stimoli prossimali Percetti

4.3.1 Il costituirsi dei percetti: l’unificazione – segregazione


La formazione di unità percettive segregate (o organizzazione percettiva), cioè il processo in cui gli
oggetti vengono percepiti come oggetti unitari e segregati dagli altri oggetti e zone, è un processo
cruciale perché i singoli elementi presenti nello stimolo prossimale non hanno informazioni sufficienti
per la costituzione di percetti unitari e organizzati.
La struttura dell’informazione ottica è caratterizzata da omogeneità (regioni) e disomogeneità
(contorni), ma ombre, riflessi ecc., possono provocare confusione tra queste due; quindi, la sola
codifica di contorni e regioni non è sufficiente per produrre unità percettive unitarie.
Per questo il sistema percettivo deve raggruppare contorni e regioni, processo che è stato studiato e
descritto dalla scuola della Gestalt, precisamente da Max Wertheimer, che identificò sette leggi
dell’organizzazione percettiva: legge della prossimità (unità tra elementi vicini); legge della
somiglianza; legge del destino comune (oggetti che si muovono in modo simile; legge dell’impostazione
oggettiva (elementi che tendono a mantenere una certa unità); legge della buona continuazione (con
meno cambiamenti di curvatura); legge della chiusura (organizzazione con margini percepiti chiusi);
legge dell’impostazione soggettiva o esperienza passata (organizzazione coerente con le conoscenze
dell’osservatore).
4.3.2 I fenomeni di completamento
A causa delle occlusioni (caratteristica della relazione tra stimoli distali e prossimali che vede la
maggioranza delle superfici ambientali opaca, quindi blocca i raggi luminosi provenienti dalle altre
superfici dietro di queste rispetto al punto di vista), gli stimoli prossimali spesso danno informazioni
incomplete sulle superfici che percepiamo; ma solo raramente ci rendiamo conto di questo.
Il processo di formazione delle unità percettive sembra essere in grado di completare l’informazione
mancante (fenomeno di completamento).
Il fenomeno di completamento può essere:
- Amodale, quando l’impressione percettiva di completezza non comporta la comparsa di parti
che non erano date nello stimolo prossimale;
- Modale, quando l’esito del completamento è la comparsa di una vera e propria superficie.
La figura illusoria che rappresenta efficacemente entrambi i tipi di completamento è il Triangolo di
Kanizsa.
I fenomeni di completamento possono essere interpretati come manifestazione dei meccanismi di
unificazione-segregazione.

6
BOX. L’importanza del movimento come attributo percettivo
Il movimento è efficace nella cattura dell’attenzione ed è anche un potente indizio di
tridimensionalità (Wertheimer indicava il principio del destino comune nei suoi “principi di
unificazione figurale”).
Utilizziamo il termine “structure from motion approach” per riferirsi al fatto che una figura si
forma grazie al movimento delle singole parti, ma anche al processo per il quale la struttura
tridimensionale di un oggetto viene recuperata o ricostruita tramite il suo movimento.
Il movimento è anche legato all’azione: le stesse aree corticali coinvolte nell’analisi percettiva del
movimento, si attivano di fronte a immagini statiche che raffigurano oggetti in movimento
(movimento implicito). Se vediamo la raffigurazione di un essere umano in movimento si attivano
le aree corticali coinvolte nella produzione del movimento (neuroni specchio).
Il movimento è anche caratterizzato da qualità che consentono di vedere le “intenzioni” del
movimento stesso (minaccioso, rilassato, incerto, insicuro ecc.)

4.3.3 Percepire un mondo stabile


Anche se lo stimolo prossimale è soggetto a continui spostamenti e distorsioni, noi percepiamo un
mondo in cui le proprietà percepite nello spazio non cambiano quando noi ci spostiamo nello spazio
(fenomeno delle costanze percettive).
Le costanze percettive si distinguono in:
- Costanza di posizione, che si riferisce alla collocazione percepita nello spazio, che non cambia
quando ci spostiamo; (movimento veloce dell’occhio, ma mondo stabile)
- Costanza di forma e grandezza, che si riferisce alla struttura tridimensionale e alle dimensioni
percepite nello spazio; (binoculari, monoculari legati al movimento, monoculari statiche)
- Costanza del colore superficiale, che si riferisce al colore percepito delle superfici, che rimane
invariato nonostante i cambiamenti di illuminazione.
Gli studiosi si sono preoccupati di quanto fosse buona la stabilizzazione del mondo percepito e per
questo, Holway e Boring idearono un esperimento con il metodo dell’aggiustamento: ponevano i
soggetti davanti a due corridoi, in uno veniva messo un disco da osservare (a distanze diverse), nell’altro
un disco da modificare per renderlo della stessa grandezza dell’altro. Questo esperimento veniva svolto
in tre condizioni: osservazione binoculare, monoculare o attraverso uno spioncino.

BOX. Percezione del movimento, tempo psicologico e stabilità dell’universo


percepito
Max Wertheimer cercava di rispondere alla domanda “cosa ci induce a percepire il movimento?”.
Il movimento stroboscopico consiste in cambiamenti delle posizioni dello stimolo, che inducono la
percezione di un movimento continuo, cioè è un movimento che viene percepito in assenza del
movimento stesso. Con l’aumento dell’intervallo di tempo della sequenza degli stimoli si passa dalla
percezione di due oggetti, alla percezione di un solo oggetto in movimento, alla percezione di due
oggetti in successione; quindi, la percezione del movimento è strettamente legata alla percezione del
tempo.

4.3.4 Riconoscere
Riconoscere gli oggetti significa attuare un collegamento tra l’informazione in ingresso e le
rappresentazioni che definiscono categorie concettuali nella memoria a lungo a termine; attraverso
questa categorizzazione, la percezione permette l’accesso all’etichetta verbale e alla conoscenza
semantica dell’oggetto, quindi anche delle sue funzioni.
Secondo Marr e Biederman, il riconoscimento avviene grazie a processi che generano una descrizione
strutturale dell’oggetto: gli oggetti sarebbero composti di parti che hanno una struttura che può essere
descritta da un numero limitato di primitive volumetriche, i geoni.

7
Il modello di Biederman prevede due caratteristiche del riconoscimento degli oggetti:
- Siamo in grado di riconoscere con facilità oggetti da molti punti di vista diversi grazie alle
proprietà che rimangono disponibili nonostante le variazioni del punto di vista.
- Falliamo quando gli oggetti sono presentati da punti di vista inusuali.
Un altro modello importante è quello di Gibson, che si riferiva al fatto che per imparare a riconoscere,
alcuni aspetti del significato e delle funzioni di un oggetto dovrebbero essere rilevabili senza attivare
rappresentazioni semantiche, ma solo grazie alla relazione tra le caratteristiche dell’oggetto e il corpo del
percipiente. A questo concetto si riferiva con il termine Affordance (to afford, rendere disponibile),
con il quale intendeva la “disponibilità a subire una certa azione” che l’informazione prossimale indica.

4.4 Misurare la percezione: i metodi psicofisici


Per lo studio scientifico, la sola introspezione presenta dei limiti, perché molti processi della percezione
sono automatici e non coscienti e perché l’utilizzo dei metodi delle scienze naturali rende necessari
l’utilizzo di strumenti quantitativi e di misure replicabili; per questo la psicologia della percezione
moderna utilizza i metodi della psicofisica.
4.4.1 La legge di Weber
Con il termine “psicofisica”, Fechner intende la necessità di descrivere relazioni tra variabili fisiche e le
corrispondenti variabili psicologiche, attraverso leggi quantitative.
Fechner iniziò lo studio sulla psicofisica partendo dalle osservazioni di Weber, che si accorse che la
sensibilità, intesa come la capacità di rilevare la differenza tra due stimoli, non è costante, ma tende ad
essere inversamente proporzionale all’intensità fisica dello stimolo di riferimento (Legge di Weber).
L’incremento minimo di peso che rende percepibile la differenza tra due stimoli è chiamato soglia
differenziale; la sensibilità diventa meno buona con l’aumentare dell’intensità del peso standard.
Questa legge era rappresentata da una formula precisa, chiamata costante di Weber.
4.4.2 I metodi fechneriani
Fechner, riprendendo le osservazioni di Weber, ha ideato tre paradigmi per la misurazione in
psicofisica: i metodi degli stimoli costanti, dei limiti e dell’aggiustamento (che vengono utilizzati per
determinare il punto di uguaglianza soggettivo o PES); e ha sviluppato il concetto di funzione
psicofisica.
Il PES è il livello di intensità per cui il partecipante è massimamente incerto del giudizio.
Il metodo degli stimoli costanti viene applicato con il confronto di un’intensità standard e altre
intensità casuali, leggermente minori o maggiori della standard, e non è ammessa la risposta uguale; le
percentuali delle risposte vengono messi in un grafico nel quale otteniamo una curva sigmoide e dalla
quale è possibile stimare la soglia differenziale e il PES.
Il metodo dei limiti è basato sempre su un giudizio discriminativo, ma qui i confronti sono presentati
in ordine ed è ammessa la risposta uguale; consente di stimare direttamente l’intervallo di incertezza.
Il metodo dell’aggiustamento corrisponde alla procedura dell’esperimento di Holway e Boring.
4.4.3 La funzione psicofisica
Fechner ha sviluppato il concetto di funzione psicofisica perché con questo riteneva di poter misurare
le variabili mentali e così risolvere il problema mente-corpo. Per fare questo partì dalla legge di Weber,
in cui a uguali incrementi in termini di soglie differenziali (variabile psicologica) corrispondono uguali
rapporti nelle unità della variabile fisica (legge di Weber-Fechner). Le funzioni psicofisiche descrivono
come le percezioni di un osservatore tipico cambieranno al variare di uno stimolo fisico.
Un altro ricercatore che ha fatto osservazioni su questo argomento fu Stevens, che sviluppò i metodi di
psicofisica diretta, perché i partecipanti, secondo Stevens, sono in grado di valutare direttamente
l’intensità percepita attribuendole un numero (metodo della stima di grandezza).
4.4.4 La teoria della detenzione del segnale
In altri studi, la sensibilità viene intesa come capacità di rilevare la presenza di un segnale in contesto in
cui è presente del rumore. Secondo la teoria della detenzione del segnale, la prestazione in un compito
psicofisico dipende dalla capacità di rilevare un segnale sensoriale, ma anche dal criterio di risposta, cioè

8
la propensione al rischio del partecipante (il soggetto più propenso al rischio tende a rispondere
“presente” anche con un grado di sicurezza basso, mentre il soggetto meno propenso al rischio tende a
rispondere “assente”). I partecipanti si dividono anche in più sensibili e meno sensibili.

4.5 Modelli contemporanei della percezione


I primi studi della scienza della percezione si dividevano in teorie dello stimolo (o ecologiche o della
percezione diretta) e teorie costruttiviste.
Le teorie dello stimolo hanno origine con Gibson, che sosteneva che in condizioni naturali, la
percezione è interamente determinata dall’informazione ottica nello stimolo; quindi secondo lui, lo
psicologo dovrebbe analizzare solo l’informazione ambientale senza ipotizzare altri processi
interpretativi.
Le teorie costruttiviste sostenevano, invece, che la sola analisi dell’informazione non è sufficiente per
spiegare perché le cose appaiono come appaiono. (Gestalt)
I modelli contemporanei includono elementi di entrambe le teorie e tengono conto dell’interazione tra
informazioni in ingresso e vincoli interni.
I modelli più influenti sono: il modello percezione-azione, che è ancorato alle strutture neurali e alla
loro interpretazione funzionale; e il modello bayesiano che ha maggiore interesse per la modellistica
computazionale.
4.5.1 Il modello percezione-azione
Questo modello rappresenta come la percezione non sia un processo unitario, ma è un insieme di
processi distinti sia dal punto di vista anatomico, sia dal punto di vista funzionale.
Secondo Milner e Goodale, le funzioni del sistema percettivo umano e i circuiti neurali che le guidano
sono organizzati intorno alla dicotomia fondamentale rappresentata dalla distinzione tra percezione per
il riconoscimento e percezione per l’azione.
Nel caso della visione, esistono circa 30 aree corticali coinvolte in processi visivi, che sono organizzate
in due proiezioni principali: la via ventrale e la via dorsale.
Milner e Goodale sostenevano che la via ventrale sia la base dell’esperienza cosciente, quindi dei
processi di costanza e riconoscimento, ed ha lo scopo di rappresentare la struttura tridimensionale del
mondo indipendentemente dal punto di osservazione (lesione: agnosia visiva, non si percepiscono le
caratteristiche di un oggetto per riconoscerlo consapevolmente); e che la via dorsale sia coinvolta nella
guida dei processi motori parzialmente inconsci, e si riferisca al corpo dell’agente e non al contesto
(lesione: atassia ottica, compromissione del controllo visivo e dei movimenti fini della mano).
4.5.2 Il modello bayesiano
Il modello bayesiano deriva dalle idee di Helmoltz: i percetti sono una specie di conclusione sul mondo
con cui entriamo in contatto attraverso i sensi, partendo da premesse esterne (stimoli disponibili) e
interne (conoscenze dell’osservatore).
Per i bayesiani la percezione è una forma di inferenza probabilistica e la sua struttura logica corrisponde
ad una regola di calcolo della probabilità: la regola di Bayes, che è alla base dei diversi approcci bayesiani
per quanto riguarda la percezione, l’apprendimento e i giudizi implicati in una decisione.
La regola di Bayes è un metodo per modificare il grado di plausibilità di una credenza, una volta
ottenute nuove informazioni. Applicata alla percezione, la regola dice che la plausibilità di
un’interpretazione percettiva (probabilità a posteriori) dipende dalla sua plausibilità prima di avere
nuove informazioni sensoriali (probabilità a priori) e dalla specificità delle nuove informazioni
sensoriali (verosimiglianza).
L’approccio bayesiano consente di affrontare matematicamente il rapporto tra percezione e
conoscenza: l’esito percettivo dipende sempre da un compromesso probabilistico tra verosimiglianza e
conoscenza a priori, ma il peso di queste componenti cambia in base alla situazione (se l’informazione è
ambigua o debole le conoscenze sono più importanti; se è più ricca è più importante lo stimolo).
Un esempio chiaro è quello della stanza di Ames, in cui una persona sembra gigante e una piccola,
perché la stanza ha una pianta trapezoidale, anche se appare normale. Questa illusione avviene perché la
probabilità, di trovarsi accidentalmente in un punto di vista del genere, è bassissima. Quindi secondo il

9
modello bayesiano, il sistema percettivo incorpora delle aspettative su regolarità statistiche che
caratterizzano oggetti, ambiente e le nostre attività eplorative.

BOX. Oggetti in movimento, causalità fisica e qualità espressive


Il movimento è la caratteristica visiva dello stimolo che ha maggiori “qualità espressive”; può
comunicare le informazioni relative alle intenzioni di chi lo compie (sicuro, minaccioso, incerto ecc).
Gli studi che si sono occupati di questo argomento vanno sotto il nome di “espressività del
movimento”. Per far sì che l’osservatore percepisca l’espressività del movimento è necessario che
nella scena visiva siano presenti due o più oggetti (“percezione degli eventi”); le qualità espressive,
quindi, sono percepite e non inferite dall’esperienza.
Esempi: filmato di Heider e Simmel, con cui conclusero che la contiguità temporale, la prossimità
spaziale, le velocità assolute e relative dei mobili e le relazioni tra i diversi movimenti degli oggetti,
producono una resa fenomenicaCAP di tipo5“sociale”
– L’ATTENZIONE
tra semplici figure geometriche.

CAP 5. L’ATTENZIONE
5.1 Che cos’è l’attenzione?
L’attenzione riguarda una varietà di fenomeni psicologici diversi fra loro, ma viene considerata
generalmente come un processo mentale che ci permette di elaborare consapevolmente una parte
limitata di informazioni, selezionandole tra tutti gli stimoli che percepiamo attraverso i sensi; ma
l’attenzione può essere rivolta anche su ricordi o pensieri.
Con il termine attenzione ci si riferisce anche alle risorse mentali o cognitive che un individuo ha a
disposizione per l’elaborazione delle informazioni e l’esecuzione di azioni; e serve anche al controllo e
all’integrazione tra più tipi di informazione per permetterci di agire nel nostro ambiente nel modo e nel
momento giusto in tutte le modalità sensoriali.

5.2 L’attenzione selettiva


L’attenzione selettiva è l’insieme dei meccanismi che permettono di concentrare le risorse mentali su
determinate informazioni, determinando ciò di cui siamo coscienti in ogni momento.
Possiamo selezionare parte dell’informazione disponibile utilizzando diversi criteri, prestando
attenzione:
- a una particolare modalità sensoriale;
- a una particolare posizione nello spazio;
- a un particolare oggetto;
- a specifiche caratteristiche sensoriali (es tutti gli oggetti di un certo colore);
- particolari classi di elementi.
5.2.1 L’attenzione selettiva uditiva
L’attenzione selettiva uditiva si manifesta soprattutto quando cerchiamo, ad esempio, di udire e
comprendere la voce di una certa persona ignorando le voci e rumori intorno. Questo è detto
fenomeno o problema del cocktail party.
Quando due messaggi diversi pronunciati dalla stessa voce sono presentati contemporaneamente alle
due orecchie, chi ascolta trova molto difficile differenziarli in base al loro significato. Cherry sostenne
che il compito diventa più facile se i due messaggi possono essere distinti in base a caratteristiche
fisiche, come differenze di posizione della sorgente del suono o del tono della voce: più aumentano le
differenze, più è facile distinguerli.
Con il compito di shadowing, Cherry notò che i soggetti che ascoltavano due messaggi, riuscivano a
ripetere completamente solo il messaggio a cui prestavano attenzione e non l’altro.

10
Ma il messaggio a cui non viene prestata attenzione non viene totalmente ignorato: i soggetti sono in
grado di riferire cambiamenti di voce in base al sesso, al tono o altri cambiamenti sensoriali, ma non
viene afferrato il significato o il cambio di lingua.
Questi risultati evidenziarono la capacità limitata di elaborazione dell’informazione del sistema
cognitivo e portarono a sviluppare i primi modelli dell’attenzione, che ipotizzano la presenza di un filtro
che seleziona parte dell’informazione e si trova tra l’input sensoriale (lo stimolo) e l’output
comportamentale (la risposta).
Broadbent ha proposto l’esistenza di un filtro subito dopo i registri sensoriali (selezione precoce), che
seleziona l’informazione in entrata sulla base di un’analisi sensoriale e/o percettiva, e l’informazione
non rilevante decade passivamente in pochi secondi (tutto o nulla).
Treisman propose un altro esperimento (shadowing): due messaggi diversi contemporaneamente, uno
ad un orecchio e uno all’altro, poi a metà frase i messaggi venivano invertiti → i soggetti ripetevano
erroneamente la parola presentata nell’orecchio disatteso subito dopo l’inversione, prima di ripetere di
nuovo il messaggio dell’orecchio atteso (affioramento o intrusione).
Es: riportare il messaggio nell’orecchio destro. I messaggi erano “John ha fatto canestro e il suo punto è
stato decisivo per la partita”, “Giovanna canta meravigliosamente, ma suona il piano in modo
incredibile”. A metà della frase i messaggi venivano invertiti, orecchio destro “John ha fatto canestro,
ma suona il piano in modo incredibile”, orecchio sinistro “Giovanna canta meravigliosamente, e il suo
punto è stato decisivo per la partita”, i soggetti ripetevano “Giovanna canta meravigliosamente, e il suo
punto è stato decisivo per la partita”.
Treisman, quindi propose una modifica della teoria di Broadbent con la teoria dell’attenuazione o del
filtro attenuato (il filtro attenua, ma non blocca, l’accesso all’informazione non selezionata): ogni
parola ha un proprio livello di soglia, che se viene superata la parola viene ripetuta, anche se è
presentata nel canale disatteso; le soglie sono caratterizzate da due proprietà, possono variare da parola
a parola, e possono essere momentaneamente abbassate dalle aspettative del soggetto (effetto del
contesto).
Duncan, invece, propose che il filtro si trova dopo i processi percettivi e prima della risposta, nella fase
decisionale (selezione tardiva): il sistema analizza tutta l’informazione, se l’informazione è rilevante
passa dal filtro.
5.2.2 L’attenzione visiva spaziale
Quando la selezione di informazioni riguarda la modalità visiva, si parla di attenzione spaziale.
5.2.2.1 L’orientamento manifesto e l’orientamento implicito
Possediamo due modalità di orientamento dell’attenzione: orientamenti manifesto (overt), che
coinvolge il movimento degli occhi; orientamento implicito (covert), con cui ci si focalizza in certe parti
del campo visivo e si elaborano di più rispetto ad altre, senza però muovere gli occhi o lo sguardo.
5.2.2.2 L’orientamento volontario e l’orientamento automatico
In genere siamo noi a decidere dove e a cosa rivolgere la nostra attenzione, ma questa può orientarsi
anche in modo automatico.
Due tipi di stimoli diversi innescano due tipi di orientamento diversi: gli stimoli che guidano
l’orientamento volontario sono gli stimoli endogeni (o centrali), quelli che guidano l’orientamento
automatico sono stimoli esogeni (o periferici).
Michael Posner ha proposto “il paradigma del suggerimento spaziale” o “paradigma di Posner”: un
soggetto viene posto davanti ad uno schermo, dove compare un punto centrale (punto di fissazione) su
cui deve mantenere lo sguardo; ai lati del punto di fissazione appaiono due cornici quadrate; il soggetto
deve rispondere più velocemente possibile alla comparsa di un bersaglio (target), premendo un tasto;
vengono registrati i tempi di risposta; prima della comparsa del target, uno stimolo centrale endoogeno
suggerisce in quale cornice è più probabile che compaia il target (cue o indizio); il soggetto sa che la
maggior parte delle volte il target compare veramente nella posizione indicata dal cue (prove valide), e
in una percentuale minore compare in un’altra posizione (prove invalide), in alcuni casi il cue non

11
segnala niente (prove neutre); i soggetti rispondono più velocemente alle prove valide, poi a quelle
neutre e poi a quelle invalide.
Il fatto che le prove valide siano più veloci viene interpretato come prova del fatto che il soggetto è
stato in grado di spostare in anticipo la sua attenzione nella posizione indicata dal cue. La differenza tra
i tempi di risposta alle prove invalide e quelli delle prove valide è detta effetto di validità.
Questo paradigma illustra anche che l’attenzione può essere orientata in modo automatico e dal fatto
che il cue possa fornire informazioni utili sulla posizione di comparsa del target: viene presentato un
cue periferico (esogeno), come un flash in una cornice, in questo caso lo stimolo non fornisce nessuna
informazione affidabile sulla posizione di comparsa del target; il soggetto sa che il cue è irrilevante; se il
soggetto fosse in grado di ignorare il cue, la sua prestazione non dovrebbe essere influenzata. I risultati
dimostrano, però, che i tempi di risposta per le prove valide sono minori rispetto alle prove invalide,
quindi lo stimolo esogeno ha attratto e orientato su di sé l’attenzione del soggetto automaticamente.
L’orientamento volontario è più lento e il suo effetto di validità dura più a lungo di quello
dell’orientamento automatico. Ci sono casi, inoltre, per quanto riguarda l’orientamento automatico, in
cui l’intervallo tra la comparsa dello stimolo esogeno e la presentazione del target è molto breve e si
verifica un’inversione dell’effetto di validità, quindi le prove invalide sono più brevi di quelle valide.
Questo fenomeno è chiamato inibizione di ritorno, che ha la funzione di evitare che l’attenzione
ritorni su posizioni del campo visivo già esplorate, facilitando così l’esplorazione di posizioni spaziali
non ancora visitate e potenzialmente interessanti.
L’orientamento automatico agisce come un riflesso, quello volontario ci permette di selezionare
intenzionalmente gli stimoli che sono rilevanti per raggiungere scopi.
È possibile evitare di farsi distrarre dalla comparsa di uno stimolo che entra improvvisamente nel
nostro campo visivo quando siamo volontariamente a fare altro: è la situazione contingente, cioè il
contesto (mental set) in cui ci si trova a controllare l’orientamento dell’attenzione. Non tutti gli stimoli
inaspettati sono in grado di catturare automaticamente la nostra attenzione, ma solo quelli rilevanti per
gli scopi del momento, però possiamo essere distratti da stimoli che, anche se irrilevanti, hanno
caratteristiche contestualmente rilevanti per il mio compito (cattura contingente dell’attenzione).
5.2.2.3 La ricerca visiva
Nella vita quotidiana non è sempre subito evidente ciò a cui siamo interessati in un dato momento,
quindi è necessario utilizzare l’attenzione selettiva per identificare le particolari caratteristiche che sono
proprie dell’oggetto che cerchiamo.
Per questo è stato creato il paradigma della ricerca visiva, che serve a determinare da cosa dipende il
modo di spostarsi dell’attenzione sui vari elementi della scena e cosa distingue una ricerca facile da una
difficile: i soggetti devono individuare un target in mezzo ad altri distrattori (la dimensione dell’insieme
è variabile), e devono premere un pulsante per la presenza del target e uno per l’assenza di questo.
I tempi di risposta dipendono dalle caratteristiche che distinguono il bersaglio dai distrattori. Quando
almeno una caratteristica è presente nel bersaglio ma non nei distrattori, la ricerca è più veloce e la sua
durata non dipende dal numero di elementi presenti; in caso di assenza del bersaglio i tempi di risposta
sono più lunghi; quando il bersaglio ha due caratteristiche, che sono presenti anche nei distrattori, il
bersaglio è più difficile da distinguere → in questo caso è necessaria una ricerca di congiunzioni di
caratteristiche, perché solo considerare insieme le caratteristiche possono discriminare il bersaglio dai
distrattori; in questo caso il tempo di risposta è proporzionale alla dimensione dell’insieme.
Per spiegare questi risultati, Anne Treisman ha proposto la teoria dell’integrazione delle caratteristiche,
secondo cui il processo di identificazione del bersaglio avviene in due stadi:
- la codifica delle caratteristiche elementari che diversificano gli oggetti di una scena, ognuna in
una mappa mentale, senza l’intervento dell’attenzione;
- l’unificazione delle informazioni relative alle varie caratteristiche di ogni oggetto, per costruire il
percetto di essi, per questo processo è necessaria l’attenzione, che viene spostata da oggetto a
oggetto.

12
5.2.2.4 L’attenzione “basata sugli oggetti”
Fin qui l’attenzione si è basata solo sullo spazio, ma esiste anche una teoria alternativa, che sostiene che
l’attenzione seleziona gli oggetti presenti nel nostro campo visivo e non porzioni di spazio per sé.
In un esperimento di Duncan, dove erano presenti due figure una sopra all’altra (una linea tratteggiata e
un rettangolo con apertura), venivano fatte due domande ai soggetti: se entrambe le domande erano
rivolte allo stesso oggetto, i soggetti rispondevano più accuratamente; se le domande erano riferite
ognuna a un oggetto diverso, le risposte erano meno accurate.
In base a questo, gli autori sostenevano che la perdita di accuratezza nella risposta sia dovuta alla
necessità di spostare l’attenzione da un oggetto all’altro; secondo questa teoria, quindi, l’attenzione
opererebbe sugli oggetti e non sulle posizioni spaziali.
Per i teorici che sono a favore dell’idea che l’attenzione sia basata solo sullo spazio, tipo Eriksen, è
valido il paradigma del flanker (fiancheggiare), in cui sono presentate delle lettere ai soggetti, che
devono rispondere in base all’identità della lettera centrale trascurando quelle ai lati; quindi i soggetti
devono, ad esempio, premere il pulsante destro, se la lettera è un X o una F, e il tasto sinistro, se la
lettera è una Y o una H. Facendo riferimento alla metafora del fuoco attentivo o dello zoom lens,
Eriksen sostiene che l’attenzione può mettere a fuoco una porzione di spazio, di circa un grado, e
analizzare l’informazione che contiene; se in questo spazio rientra solo la lettera centrale non c’è
interferenza, se invece ci rientrano più lettere, possono interferire tra loro: se sono presenti lettere che
richiederebbero una risposta diversa da quella centrale, il tempo di risposta aumenta.
Per i teorici che sono a favore dell’attenzione basata sugli oggetti, come Driver e Baylis, se lettere
lontane tra loro vengono unite percettivamente (utilizzando la legge della somiglianza o del destino
comune, della Gestalt), i risultati non sono spiegabili dall’idea che l’attenzione selezioni solo certe
porzioni di spazio, infatti utilizzando una versione modificata del paradigma del flankers, ottennero che
l’effetto di interferenza maggiore si ottiene nel caso in cui i distrattori sono più lontani dalla lettera
centrale, ma raggruppati percettivamente con questa.

5.3 L’attenzione distribuita


In molte situazioni ci troviamo a svolgere più compiti contemporaneamente, in questo caso si parla di
attenzione divisa o distribuita, che consiste nella capacità di prestare attenzione a più compiti nello
stesso momento e di distribuire le risorse disponibili per il loro coordinamento e la loro esecuzione.
Lo studio di questa attenzione è importante, perché può illustrare alcuni limiti della prestazione umana
e i limiti dei processi dell’elaborazione delle informazioni, e indicare in quali situazioni è possibile
ridurre l’interferenza tra due compiti.
Compiti simili, che richiedono le stesse abilità, sono più difficili da svolgere insieme, perché competono
per l’accesso alle risorse attentive. Con il paradigma del doppio compito si può stimare in laboratorio
se e quanto due compiti interferiscano: poter stimare la quantità di risorse necessarie per eseguire un
dato compito (carico di lavoro mentale) è importante perché può dare indicazioni sull’opportunità o la
pericolosità di eseguire certi compiti insieme (Strayer e Johnston).
Sono state elaborate diverse teorie dell’interferenza: alcune sostengono che esista un singolo processore
centrale (Kahneman); altre l’esistenza di più processori a capacità limitata. Le risorse attentive
disponibili per una tipologia di compiti sono considerate limitate e possono essere insufficienti quando
devono essere distribuite su due o più compiti che le richiedono.
Comunque esistono molte azioni che svolgiamo quotidianamente che non richiedono attenzione per
essere svolte; buona parte dell’informazione proveniente dall’ambiente è elaborata senza l’intervento
dell’attenzione, cioè automaticamente.
Esiste un fenomeno chiamato effetto di compatibilità spaziale stimolo-risposta, che consiste in una
maggiore velocità di risposta nelle condizioni compatibili, rispetto alle condizioni incompatibili
(premere il tasto destro se lo stimolo appare a destra e viceversa).
Secondo Simon, anche quando non ci sono indicazioni per quanto riguarda la posizione del tasto da
premere, se lo stimolo appare in una posizione il soggetto tende a premere il tasto nella posizione
corrispondente (effetto Simon); quindi, la posizione spaziale di uno stimolo viene codificata
automaticamente anche quando è irrilevante per il compito.

13
Un altro esempio di elaborazione automatica dell’informazione riguarda il recupero del significato delle
parole, quindi l’automaticità del processo di lettura: se dobbiamo individuare il colore dell’inchiostro
con cui è stata scritta una parola, la risposta è più veloce nel caso in cui il significato della parola
coincide con il suo colore (parola “blu” scritta con il blu), la risposta è più lenta nel caso in cui i due
non coincidano. Questa interferenza è l’effetto Stroop, che indica come sia difficile ignorare il nome e il
significato delle parole scritte, perché questi vengono recuperati automaticamente dalla memoria.
Per distinguere se un processo o un’azione siano automatici, Schneider e Shiffrin spiegarono che sono
automatici i processi che vengono svolti senza l’intervento consapevole del soggetto e che non
richiedono un suo controllo attento; questi si svolgono molto rapidamente e possono essere eseguiti
insieme ad altre operazioni o azioni; sono modificabili solo nel lungo periodo e dopo molte esperienze.
I processi controllati, invece, richiedono risorse attentive e possono essere eseguiti bene solo uno alla
volta serialmente; la loro esecuzione è più lenta, ma possono essere modificati nel breve periodo, per
cercare di adattarsi ad ambienti e situazioni nuove.
Molti dei processi controllati possono essere automatizzati grazie alla pratica e all’esercizio e possono
essere appresi e svolti successivamente senza l’intervento dell’attenzione. Secondo Logan, questa
automatizzazione avviene tramite un meccanismo di tipo associativo: la pratica di uno stimolo fa sì
che vengano immagazzinate sempre più informazioni su quello stimolo e ciò permette un recupero
veloce delle informazioni relative a questo. Quindi, la prestazione diventa automatica quando si basa sul
recupero immediato e diretto di soluzioni pregresse contenute in memoria.

5.4 Attenzione e consapevolezza


Vari studi hanno dimostrato che noi siamo consapevoli solo degli stimoli a cui prestiamo attenzione.
A questo proposito è stato utilizzato il paradigma del priming, che consiste nel proporre ai soggetti
due stimoli in rapida successione, dei quali devono dare risposta solo al secondo, per esempio
classificandolo; i risultati hanno mostrato che la velocità di risposta allo stimolo bersaglio dipende dalla
relazione tra i due stimoli: se sono semanticamente associati, la risposta è più veloce.
Successivamente questo paradigma è stato rielaborato con il priming subliminale: dopo il primo
stimolo viene presentato uno stimolo senza significato (ad esempio una schermata bianca), in modo da
non permettere l’elaborazione cosciente. Si è scoperto che l’effetto si ottiene ugualmente.
Attenzione e consapevolezza sono molto legate e nella maggior parte dei casi siamo consapevoli solo di
quello a cui prestiamo attenzione.
Due fenomeni evidenziano la nostra incapacità, in mancanza di attenzione, di identificare un oggetto o
evento, che in presenza di attenzione sarebbe stato individuato facilmente:
- la cecità da disattenzione, per cui osservatori impegnati a prestare attenzione ad un oggetto non
si rendono conto della presenza di un altro oggetto non atteso;
- la cecità al cambiamento, per cui gli osservatori non riescono ad identificare un importante
cambiamento della scena quando avviene insieme ad un evento transiente, come un movimento
oculare o uno sfarfallio dell’immagine.
Questo dimostra che l’attenzione permette la percezione cosciente di un cambiamento nella scena,
quindi se l’attenzione non si focalizza sull’area in cui avviene il cambiamento, non è possibile
identificarlo.

CAP 6. LA MEMORIA
6.1 La memoria (introduzione)
Un’informazione, per diventare una traccia mnestica ed essere conservata in memoria attraversa 3 fasi:
- fase di codifica, cioè viene rappresentata in un qualche codice, che può essere fonologico
(ricordi esperiti come parole o discorsi interni), e iconico o spaziale (ricordi sotto forma di
immagini mentali)
- fase di mantenimento, in cui l’informazione viene conservata, più o meno a lungo, in un
“magazzino” o “spazio mentale”

14
- fase di recupero, perché le memorie devono consentire di rievocare le informazioni
immagazzinate.
Atkinson e Shiffrin proposero un modello in cui distinguevano tra memorie sensoriali, che contengono
molte informazioni non elaborate e preservate per pochissimi millisecondi; memorie a breve termine,
con un contenuto di informazioni più limitato (Miller 7 più o meno due), ma preservato qualche decina
di secondo, al massimo, in mantenimento passivo; e le memorie a lungo termine, utili a preservare, e
rendere disponibili al recupero in memorie a breve termine, tutte le informazioni apprese.
In pratica, la memoria è paragonata ad un imbuto strettamente legato al tempo: nella bocca dell’imbuto
vengono registrate moltissime informazioni che vengono conservate per pochissimo tempo; poi
l’imbuto si restringe e grazie ai filtri attentivi, solo poche informazioni accedono alle memorie a breve
termine, dove rimangono un po’ di più; infine l’imbuto si restringe ancora e pochissime delle
informazioni che hanno attraversato la parte superiore vengono codificate nelle memorie a lungo
termine, e qui rimangono per anni o per tutta la vita.
I ricordi e le conoscenze ci servono per fare piani e previsioni e per meglio adattarci all’ambiente.
In questo caso esiste un altro imbuto, capovolto: creiamo molte aspettative, molto precise sul
brevissimo periodo; meno aspettative e meno precise, se pensiamo ad un futuro un po’ più distante; e
poi le previsioni diventano più scarse e imprecise nel lungo periodo.
Questo secondo imbuto è presente grazie all’elaborazione attiva delle informazioni presenti nel primo,
grazie al ragionamento, e i suoi contenuti sono depositati nella memoria prospettica, che si riferisce,
invece al futuro.
Dagli anni ’70, si cominciò a considerare la memoria a breve termine come uno “spazio mentale”
dove lavoriamo, dove cioè le informazioni provenienti dai sensi e dalle memorie a lungo termine
forniscono la base per tutti gli altri processi cognitivi; e che l’imbuto è paragonabile, non solo al tempo,
ma più che altro dal tipo e dalla quantità di elaborazione cui vengono sottoposte le informazioni.
Anche la capienza della memoria a breve termine dipende dal tipo di elaborazione: materiale più
strutturato e ordinato offre più appigli per un efficiente mantenimento e recupero, quindi è come se
occupasse meno spazio in memoria. Da ciò nacque il modello della memoria di lavoro.

6.2 La memoria di lavoro


Il concetto di memoria di lavoro nacque dall’esigenza di un nuovo modello di memoria che permettesse
di dimostrare il suo coinvolgimento in compiti cognitivi complessi, come il ragionamento e la
comprensione del linguaggio. Gli studi precedenti sul ruolo della memoria in questi processi,
sostenevano Atkinson e Shiffrin nel dichiarare che le capacità di memoria sono misurate da stime di
span (ampiezza), invece, le misure di span di memoria a breve termine non hanno forti associazioni
con la prestazione in compiti di comprensione linguistica, né per altri tipi di compiti cognitivi
complessi.
Per questo Baddeley e Hitch proposero un nuovo concetto di memoria che partecipa attivamente ai
compiti cognitivi complessi: costruirono un paradigma per stabilire se la memoria a breve termine,
intesa come carico di span, fosse veramente importante per i compiti cognitivi complessi.
Fecero quattro esperimenti in cui chiedevano ai soggetti di effettuare un compito di ritenzione di cifre e
uno di ragionamento, contemporaneamente. I risultati di questi esperimenti hanno dimostrato che
l’effetto del carico cresce al crescere della complessità del compito di ragionamento. Gli autori hanno
commentato i risultati osservando che la velocità di verifica è ridotta dalla somiglianza fonemica del
materiale del compito e che pre-carichi di memoria vicini al massimo dello span non mostrano effetti
sulla velocità di verifica, ma carichi concomitanti in memoria a breve termine hanno un forte effetto di
interferenza.
Baddeley e Hitch mettono in chiaro che “la memoria che lavora” è un sistema attivo con diversi
componenti, dedicato soprattutto al controllo dell’elaborazione delle informazioni.
Il modello prevede dei sistemi di mantenimento passivo delle informazioni: per il materiale verbale, il
loop fonologico, che ha la capacità di ripetere una stringa limitata di informazioni codificate
fonologicamente, rinfrescandole ed evitando che decadano dalla memoria a breve termine; per il
materiale visivo e spaziale, il taccuino visuospaziale. A questi si affianca un sistema esecutivo centrale,

15
che coordina le risorse attentive disponibili per l’elaborazione delle informazioni preservate nei sistemi
di mantenimento passivo. Il buffer episodico, l’ultima aggiunta, nasce per specificare dove e come
avviene l’incontro tra nuovo materiale e informazioni già presenti nella memoria di lavoro.
L’ipotesi è che nel buffer episodico avvenga il processo di binding (“legatura”), cioè la generazione di
legami tra i sistemi più specializzati del modello per dar luogo alla multidimensionalità delle
informazioni.

Sistema
esecutivo
centrale

Taccuino Buffer episodico


visuospaziale Loop fonologico

Semantica visuale Memoria di lavoro episodica Linguaggio

6.2.1 La memoria fonologica


Il loop fonologico-articolatorio è un sistema composto da un magazzino temporaneo di natura
fonologica e da un meccanismo di ripasso articolatorio (in cui le informazioni vengono mentalmente
articolate analogamente a come articoliamo una parola nel pronunciarla), che permette un
mantenimento più duraturo delle informazioni, “reintroducendole” in memoria e quindi rinfrescandone
la traccia.
Per quanto riguarda la memoria per il materiale verbale, in molti esperimenti è stato indagato l’effetto
lunghezza della parola, che consiste nella maggiore difficoltà per il ricordo immediato di liste di
parole lunghe, rispetto a parole brevi; quindi, più lunga è la parola, più tempo richiede il ripasso e
minore sarà il ricordo.
La natura fonologica del magazzino è stata dimostrata attraverso l’effetto di somiglianza fonologica,
secondo il quale liste di parole fonologicamente simili (pane, cane, rane) sono ricordate peggio rispetto
a liste di parole fonologicamente più distinguibili (pane, sole, ragno). Se il ricordo è influenzato dalla
natura fonologica, il codice mnestico ha probabilmente natura fonologica, e in quella forma il materiale
è mantenuto e rievocato.
L’esperimento più adeguato, per analizzare le capacità del magazzino fonologico, è la ripetizione di
non-parole, perché il compito viene così liberato dagli effetti delle conoscenze lessicali del soggetto, che
influenzano le capacità del ricordo.
6.2.1.1 Memoria fonologica, consapevolezza fonologica e linguaggio
Numerose ricerche dimostrano che la memoria fonologica ha un ruolo importante per l’apprendimento
del vocabolario, insieme alla consapevolezza fonologica. Quest’ultima è la capacità di manipolare i
suoni della lingua, cioè di “giocare” con i fonemi, cioè decidere se due parole fanno rima tra loro,
cominciano con lo stesso suono, oppure se posso spezzarle, dividerle ecc.
È in corso un dibattito sulla differenza tra la consapevolezza fonologica e la memoria fonologica: da un
lato ci sono sostenitori per la totale indipendenza tra le due, e dall’altro c’è chi ritiene che anche la
consapevolezza fonologica faccia parte della capacità di memoria, e che quindi costituirebbe un aspetto
di elaborazione, più che di mantenimento.

16
Entrambe sono coinvolte nell’apprendimento della lettura, intesa come capacità di tradurre
velocemente il grafema-sillaba-parola nei suoi suoni corrispondenti.
Inoltre, la consapevolezza fonologica misurata in età prescolare è un predittore importante
dell’apprendimento della lettura. Training mirati ad aumentare la consapevolezza fonologica hanno
ricadute positive sull’apprendimento della lettura.
6.2.2 Memoria di lavoro e comprensione del linguaggio
Meredith Daneman e Patricia Carpenter hanno ideato il Reading/Listening Span Test per trovare una
correlazione tra una misura di memoria e l’abilità di comprensione di ciò che si legge.
Consiste in un compito di memoria che richiede di elaborare molte informazioni verbali, ma di
conservarne in memoria solo alcune: nel test per bambini, ad esempio, i soggetti devono prima
giudicare il significato semantico di due frasi (ad esempio se sono vere o false) e successivamente
ricordare l’ultima parola di ogni frase, rispettando l’ordine di presentazione. Il test costituisce, quindi,
un doppio compito per la memoria di lavoro, ed è in grado di cogliere le associazioni tra la memoria e
compiti complessi di apprendimento e ragionamento. Misurando così l’efficienza della memoria di
lavoro, questa può essere intesa come una variabile importante per molte patologie dell’apprendimento,
in particolare per apprendimenti complessi: ad esempio, lettori con difficoltà di comprensione del testo,
ma senza problemi di decodifica della lettura, mostrano prestazioni deficitarie al test Reading/Listening
Span Test: ad esempio, è possibile la presenza di intrusioni, cioè il ricordare come ultima parola una
parola che, invece, era all’interno del testo.
Un corretto ed efficiente funzionamento della memoria di lavoro richiede l’abilità di controllare
l’interferenza delle informazioni elaborate per il compito di comprensione, ed irrilevanti per il compito
di mantenimento, attraverso meccanismi di inibizione dell’attivazione.
Le intrusioni indicano anche una cattiva capacità di inibizione e si possono osservare in bambini con
problemi di comprensione del testo, con deficit di ragionamento, con difficoltà nella soluzione di
problemi, con disturbi dell’attenzione; ma anche in anziani che mostrano un decremento nella
prestazione di memoria di lavoro, dovuto al normale processo di invecchiamento.
L’inibizione delle informazioni irrilevanti, e il conseguente aggiornamento di quelle utili, rappresentano
un esempio di processo di controllo attribuibile all’esecutivo centrale (che coordina le risorse attentive
disponibili per l’elaborazione delle informazioni preservate nei sistemi di mantenimento passivo. Pag
16).
6.2.3 Memoria di lavoro visuospaziale e imagery
Noi siamo in grado di utilizzare le informazioni immagazzinate in memoria per costruire delle
rappresentazioni mentali molto simili a quelle sensoriali.
La capacità di immaginare un oggetto anche in sua assenza si può definire, semplicemente,
“immaginazione”, che oltre ad avere un significato riferito alla fantasia, è anche in grado di generare una
rappresentazione interna, con determinate caratteristiche visive e spaziali, ed è soggetta a manipolazione
e modifica con un certo sforzo cognitivo.
Questa distinzione è rappresentata da due termini: imagery, che si riferisce alla creazione di una
rappresentazione mentale con caratteristiche simili alla percezione visiva; immagination, che si riferisce
alla capacità di fantasticare o immaginare.
Esistono diverse teorie sull’imagery, riconducibili a due diversi approcci di studio:
- l’approccio nordamericano, che ha privilegiato le analogie con i processi percettivi. Secondo
Kosslyn l’imagery è una sorta di “visione di alto livello”, come se visualizzassizmo qualcosa con
“l’occhio della mente”;
- l’approccio europeo, di Cornoldi e Vecchi, che ha privilegiato i processi di elaborazione
cognitiva che rendono possibile la generazione di un’immagine simil-percettiva. Secondo questo
approccio, quindi, l’imagery è una rappresentazione mentale prevalentemente di natura
visuospaziale, che si caratterizza per la possibilità di utilizzare informazioni provenienti sia da
input sensoriali, sia dalla memoria a lungo termine, o dal risultato di processi di ragionamento e
di elaborazione più complessi della sola percezione.

17
Numeri autori hanno cercato di trovare una corrispondenza tra le funzioni e le strutture cognitive
implicate nella memoria di lavoro e in quella visuospaziale; alcuni risultati mostrano, ad esempio, che la
possibilità di dissociare componenti almeno parzialmente indipendenti, all’interno della memoria di
lavoro, sembra caratterizzare anche i meccanismi adibiti all’elaborazione di materiale visuospaziale.
È stata studiata la presenza di due diverse strutture di rappresentazione visuospaziale:
- la via del what, di cui i processi sono rilevanti per l’elaborazione delle caratteristiche visive di un
oggetto, che sono utili per il riconoscimento dell’oggetto stesso;
- la via del where, i cui processi sono implicati nell’elaborazione della posizione spaziale, cioè
nella definizione di dove l’oggetto è collocato nello spazio.
6.2.4 I processi di controllo della memoria di lavoro
Alan Baddeley ha successivamente riconsiderato i meccanismi previsti dal suo modello: per quanto
riguarda l’esecutivo centrale, cioè il sistema di coordinamento e controllo delle risorse mnestiche,
suggerisce che potrebbe essere più utile concentrarsi sullo studio dell’attenzione per trovare nuove
strade in cui cercare una risposta alla sua natura e alle sue caratteristiche. Molti studi sperimentali hanno
contribuito a questa ricerca; tra questi, le ricerche che hanno applicato la tecnica dell’analisi fattoriale
hanno individuato almeno tre fattori che potrebbero costituire le principali componenti dell’esecutivo
centrale: inibizione di contenuti irrilevanti, attraverso la quale il controllo della memoria libera risorse
necessarie per le operazioni successive; spostamento (o traslazione) dell’attenzione, come avviene in
compito doppio o multiplo in cui si deve passare da un compito all’altro; e aggiornamento dei
contenuti di memoria in base al cambiare degli obiettivi in diverse fasi di svolgimento di un compito.
La funzione di inibizione è responsabile, non solo del controllo delle informazioni, ma anche dei loro
legami funzionali all’elaborazione.
6.2.5 Modelli recenti di memoria di lavoro
I recenti modelli di memoria di lavoro la connotano più come un sistema attentivo. La memoria di
lavoro è stata, quindi, ripensata come un sistema che attiva alcune rappresentazioni rendendole
disponili come input per i processi cognitivi.
Il modello di Oberauer indica che essa sia organizzata in tre componenti contenute l’una nell’altra:
porzione attiva delle memorie a lungo termine, regione di accesso diretto e focus of attention.

Porzione Regione di Focus of


attiva delle accesso attention
MLT diretto

Secondo l’autore, non sono strutturalmente indipendenti e separate, ma costituiscono diversi “stati”
delle rappresentazioni mentali. Inizialmente una rappresentazione mentale viene attivata nelle memorie
a lungo termine, attraverso la stimolazione percettiva o la propagazione dell’attivazione da altre
rappresentazioni; ma questa rappresentazione viene recuperata solo quando arriva nel secondo stato, la
regione di accesso diretto, che consiste nelle rappresentazioni che sono temporaneamente e
contemporaneamente associate ad una posizione in un sistema cognitivo coordinato al suo interno e
con gli altri livelli di attivazione-accessibilità; il terzo livello consiste nell’accedere ad un elemento che
diventa input dell’azione cognitiva ed entra nel focus of attention (o fuoco dell’attenzione), che
rappresenta un livello elevato di selezione e attivazione dell’informazione.

18
Il meccanismo di inibizione delle informazioni irrilevanti agisce sull’efficienza con cui le informazioni
hanno accesso al focus of attention, riducendo la probabilità che informazioni inutili possano creare
interferenza.
Da una diversa prospettiva, ha origine il modello time-based resources-sharing (condivisione di
risorse basata sul tempo) di studiosi francesi, tra cui Barrouillet e Camos. Gli assunti del modello sono:
- elaborazione e mantenimento, nei compiti che coinvolgono la memoria di lavoro, competono
per le stesse risorse attentive;
- elaborazione e mantenimento si articolano in passaggi intermedi e consecutivi che possono
verificarsi solo uno alla volta, in modo seriale (collo di bottiglia attentivo);
- quando il focus of attention è occupato nell’elaborazione, non è disponibile per il
mantenimento, per questo quando è in corso l’elaborazione, le rappresentazioni degli item da
ricordare “sbiadiscono”, provocando un decadimento temporale dell’attivazione dell’elemento
su cui era precedentemente focalizzata l’attenzione.
Le rappresentazioni che non sono nel focus attentivo possono essere “rinfrescate” prima di andare
totalmente perse, grazie ad un processo di recupero rapido riportando su di esse il focus attentivo.
Quindi, secondo questo modello, il motivo delle differenze individuali nelle capacità di memoria di
lavoro è l’abilità nello spostare strategicamente il fuoco dell’attenzione tra mantenimento ed
elaborazione, nei tempi e nei modi adeguati; e non più la capacità di controllo e inibizione delle
informazioni irrilevanti.

BOX. Gli effetti di memoria


Lo studio sperimentale della memoria si è sviluppato cercando di comprendere particolari effetti
ottenuti in specifiche condizioni sperimentali, come: primacy e recency, che sono i vantaggi di aver
osservato per primi (primacy) o per ultimi-più recenti (recency) gli elementi di una lista nel ricordo
a distanza di decine di secondi; frequenza, che si riferisce alla sensibilità rispetto all’uso di specifiche
parole; concretezza e valore di immagine, caratteristiche delle parole in parte associate.
Secondo Paivio, il vantaggio delle parole concrete è attribuibile alla doppia codifica, verbale e visiva,
delle parole ad alta immaginabilità.

6.3 Le memorie a lungo termine


I “problemi di memoria”, a cui ci riferiamo generalmente, sono la difficoltà di ricordare un nome, un
evento ecc., e tutte queste attività sono riferibili alle memorie a lungo termine e alla loro efficienza nel
mantenere i ricordi e nel recuperarli quando sono necessari.
Le memorie a lungo termine si distinguono in memoria episodica e memoria semantica.
La memoria semantica consiste nel patrimonio di conoscenze per cui abbiamo perduto, o per le quali
non sono rilevanti, le coordinate spaziotemporali. Quando una conoscenza che appartiene alla
memoria semantica ha a che fare con una procedura (“come si fa” una attività come camminare,
giocare ecc.), si parla di memoria procedurale. La memoria semantica, quindi, è definibile come la
conoscenza generale dei concetti e delle procedure appresi grazie alle esperienze.
La memoria episodica, invece, mantiene informazioni acquisite ancora dotate di coordinate
spaziotemporali (ad esempio, se vogliamo ricordare chi abbiamo incontrato una precisa sera di un anno
fa). A questa appartengono specifiche esperienze, il ricordo di singoli eventi collocati con precisione nel
tempo e nello spazio; se in uno di questi episodi è coinvolta la persona che ricorda, si parla di ricordo
autobiografico, che contribuisce al nostro senso di identità personale. Questa memoria consente, non
solo di ricordare episodi passati, ma supporta anche l’abilità di simulare eventi che possono accadere nel
futuro, che sembra strettamente connessa alla memoria di intenzioni, cioè la memoria prospettica.
Lo studio dei deficit osservabili nelle memorie a lungo termine ha individuato che, il deficit specifico di
memoria semantica è presente in certi individui in cui le altre abilità di memoria (a breve, di lavoro ed
episodica) sono presenti.
La doppia dissociazione tra memoria semantica ed episodica si completa grazie all’osservazione di un
tipo di deficit specifici, ad esempio quelli da sindrome amnesica globale. Nei pazienti affetti da questo

19
problema, compaiono deficit di memoria per gli episodi del passato (amnesia retrograda) e per
l’apprendimento di nuovi fatti e informazioni (amnesia anterograda), ma l’intelligenza globale delle
funzioni cognitive sono del tutto normali. Quindi, al deficit di memoria episodica non è legato il deficit
di memoria semantica.
L’esame di memoria semantica prevede compiti di denominazione e riconoscimento di volti e nomi di
personaggi famosi, e compiti di comprensione di concetti concreti e astratti, e del valore funzionale di
oggetti. Spesso i problemi si presentano come difficoltà specifiche nel discriminare elementi di una
stessa categoria, almeno in una fase iniziale del disturbo di memoria semantica.
Per l’esame della memoria episodica, nell’aspetto che si riferisce alla capacità di costruire nuove
memorie a lungo termine, si utilizzano prove standardizzate di apprendimento, distinte tra materiale
verbale e visuospaziale (un esperimento utilizzato comprende, a distanza di tempo, la meoria di un
breve racconto o la riproduzione della figura di Rey).

BOX. Come dimentichiamo


La perdita delle informazioni in memoria si definisce oblio. L’oblio è dovuto ad alcuni fenomeni
della memoria, come il decadimento, cioè l’impoverimento fino alla scomparsa della traccia
mnestica, e l’interferenza, che si riferisce all’interazione disturbante di un materiale rispetto all’altro.
L’interferenza agisce secondo due modalità simmetriche: retroattiva e proattiva.
L’interferenza retroattiva è dovuta all’effetto del materiale elaborato successivamente alle
informazioni da ricordare; l’interferenza proattiva è dovuta al materiale precedentemente acquisito
sul materiale memorizzato successivamente.

6.4 La memoria prospettica


La memoria prospettica (o memoria delle intenzioni) è la capacità di ricordarsi di compiere un’azione
dopo un certo lasso di tempo in cui si è stati impegnati in altre attività. Portare a compimento
un’intenzione è un processo complesso che comprende abilità come costruire, elaborare, ricordare,
implementare l’intenzione futura in un certo momento.
I suoi deficit sono legati all’invecchiamento e allo stress; inoltre, sembra che pazienti con deficit di
memoria episodica e con danno dei lobi frontali mostrino difficoltà ad immaginare eventi specifici nel
proprio futuro, anche se la loro capacità immaginativa è intatta.

6.5.1 Memoria ed esercizio: il ruolo delle mnemotecniche (La memoria nella vita
quotidiana)
Nell’antichità classica, un uomo era “ciò che sapeva”, e il sapiente era “colui che sa e ricorda molto”;
l’interesse per la capacità di ricordare e per il suo potenziamento portò allo sviluppo di mnemotecniche,
cioè strategie pratiche per migliorare la prestazione in compiti mnestici.
Il metodo che viene solitamente utilizzato più frequentemente è quello della ripetizione continua, ma in
realtà è il meno efficace; il materiale appreso così viene dimenticato più facilmente, perché non è stato
adeguatamente elaborato, né ancorato alle conoscenze già presenti. Se invece si utilizza la reiterazione
integrativa al fine di associarla con le conoscenze già acquisite e alternandola a periodi in cui ci si dedica
ad altro, la probabilità di trattenere il materiale aumenta.
Le mnemotecniche si distinguono in: tecniche, cioè metodi di elaborazione legati al tipo di materiale da
memorizzare; sistemi, che consentono un utilizzo più ampio. Entrambe sono a loro volta distinguibili
in visive, che utilizzano immagini visive per creare associazioni tra le informazioni da memorizzare; e
verbali, che utilizzano le associazioni con le parole.
Tra le tecniche verbali vengono utilizzate: le rime, per memorizzare informazioni slegate tra loro; gli
acronimi, che sono parole artificiali create con le lettere iniziali di una serie di parole da ricordare; e gli
acrostici, che sono frasi in cui le lettere iniziali di ogni parola suggeriscono il recupero di certe
informazioni. Mentre il sistema verbale più importante è il sistema fonetico, che consente il ricordo di
una lunga serie di parole o numeri associando una o più consonanti alle cifre da 0 a 9.

20
Tra le tecniche visive ci sono: le associazioni visive, che consistono nel creare delle immagini che
uniscono due informazioni, così che il recupero delle immagini rievoca le informazioni; e le storie, che
consistono nel creare una storia dotata di significato che lega tra loro le informazioni, seguita dalla
visualizzazione della narrazione (per questo viene considerato un metodo misto).
Tra i sistemi visivi ci sono: la mnemotecnica dei loci (o dei luoghi) e il Peg System.
La mnemotecnica dei loci risale al 500 a.C., quando il poeta Simonide fu invitato ad un banchetto, dal
quale venne cacciato, e dopo che se n’era andato, crollò il tetto della sala uccidendo tutti gli ospiti e ne
rese difficile l’identificazione; Simonide riuscì a riconoscerli tutti grazie al ricordo del luogo in cui si
trovavano gli ospiti, quindi grazie alla sua memoria visiva.
Questa mnemotecnica, infatti, consiste nell’immaginare una serie ordinata di luoghi al cui interno
“riporre” le cose da memorizzare. Il sistema prevede una prima fase in cui viene identificato un
percorso, dopodiché vengono formate delle associazioni, attraverso immagini mentali, delle
informazioni da ricordare con i luoghi del percorso; ad ogni luogo va associato un solo elemento;
l’ultima fase prevede che vengano recuperate le immagini e quindi le informazioni in esse contenute,
ripercorrendo mentalmente il percorso dall’inizio alla fine. Un altro vantaggio di questa mnemotecnica è
che, anche se ci si dimentica di un’informazione della sequenza, possiamo comunque procedere nel
recupero delle altre.
Il Peg System (o sistema dell’aggancio, dell’uncino, del piolo ecc.), permette la memorizzazione di non
più di 10 informazioni: prevede la memorizzazione di una filastrocca in cui ciascuna delle 10 parole
rima con un numero che va da 1 a 10. Il procedimento prevede che a ciascuna parola della struttura
venga associata l’informazione da memorizzare attraverso un’immagine; nel momento del recupero, alla
richiesta dell’informazione situata in una certa casella di un certo numero, sarà immediato il recupero
della parola e di conseguenza dell’informazione ad essa associata.
Per l’impiego di qualunque mnemotecnica sono fondamentali l’attenzione e l’interesse; e un altro
aspetto importante riguarda l’attribuzione di significato al materiale che non ne ha, questa attribuzione è
legata all’organizzazione delle informazioni.
I principi generali dell’organizzazione nell’apprendimento sono:
- il materiale organizzato è più facile da recuperare rispetto a quello disorganizzato;
- i soggetti tendono ad organizzare spontaneamente le informazioni;
- le istruzioni sull’organizzazione del materiale determinano un miglioramento
nell’apprendimento;
un ultimo principio, inoltre, si riferisce alla visualizzazione, cioè alla creazione di immagini che
permettono di legare tra loro materiali diversi anche se non sono di tipo verbale.
Le mnemotecniche sono utili ausili per il ricordo di liste lunghe di nomi o concetti, ma non per la
comprensione dei concetti stessi.
I limiti delle mnemotecniche sono:
- il tempo di presentazione delle informazioni, se sono presentate troppo velocemente non è
facile stabilire le necessarie associazioni visive;
- sembrano scarsamente utili quando il compito richiede di memorizzare, e poi ricordare, un
contenuto strutturato parola per parola, perché per esempio se associo una parola ad
un’immagine, nel rievocare quella immagine potrei richiamare alla mente altre parole legate
all’immagine stessa;
- il mantenimento a lungo termine e la reale applicabilità della mnemotecnica nella vita
quotidiana.
6.5.2 Testimonianza e accuratezza della memoria
La memoria è fatta per rielaborare continuamente le informazioni con cui entra in contatto e che
conserva, integrandole con altre informazioni di natura semantica, conoscenze contestuali e
pragmatiche, aspetti relazionali ed emotivi. Il ricordo è sempre un processo di ricostruzione, quasi mai
di conservazione inalterata delle informazioni.
L’interazione dei processi attentivi, emotivi, motivazionali e di ragionamento con le informazioni in
memoria possono portare ad una deformazione dovuta all’azione di questi processi nell’osservatore;
questo potrebbe essere utile per l’adattamento del singolo individuo al suo ambiente: per esempio, se un

21
individuo ha vissuto una situazione pericolosa in passato, cercherà che non si ripeta in futuro; ma
potrebbe avere anche effetti negativi, ad esempio l’associare pericolosità o disagio al ricordo di
ambienti, situazioni o eventi non pericolosi, può portare allo sviluppo di comportamenti di evitamento
o disturbi fobici, oppure il fatto di raccontare la propria verità soggettiva in ambito giuridico potrebbe
non corrispondere al raccontare la verità storico-fattuale.
Nel processo di ricostruzione, hanno un ruolo importante le informazioni di tipo semantico, relative a
ciò che si sa già, insieme alle informazioni contestuali, relative a ciò che solitamente avviene; importanti
sono anche le influenze esterne, i desideri, le aspettative e la valenza emotiva di un evento e del suo
ricordo.
La memoria non ha niente a che vedere con la sincerità della persona e con le sue intenzioni di
ricordare meglio: l’attendibilità del ricordo è data dall’analisi dei fattori di ricostruzione che un individuo
può aver utilizzato in un certo contesto, e dall’analisi dei fattori fisiologici che possono aver influenzato
la percezione del soggetto e la successiva memorizzazione delle informazioni; ad esempio, un testimone
occasionale (per esempio per un incidente), solitamente non è consapevole del proprio grado di
attendibilità, ed è spesso convinto di ricordare precisamente ciò che è avvenuto, in più, potrebbe essere
in grado anche di “autoinfluenzarsi” involontariamente: più volte ricorda e racconta l’evento, anche
solo a se stesso, più tende a convincersi che il suo ricordo corrisponda esattamente a ciò che ha
esperito.
La cosa importante è che la memoria ci permetta di interpretare gli eventi, di usare indizi generali e
semplificati e di arrivare ad un ricordo coerente e verosimile, anche se non identico a quanto accaduto;
la memoria è lo strumento che ci permette di integrare ciò che già sappiamo con quanto accade di
nuovo.
In alcuni casi, il meccanismo del ricordo corrisponde ad un processo di richiamo dell’evento, così come
è stato percepito (memoria flashbulb): si tratta di una memoria improvvisa, legata ad eventi
autobiografici, spesso emotivamente rilevanti e/o inattesi. In questi casi la memoria è in grado di
codificare e mantenere le informazioni preservando un legame diretto con la qualità sensoriale
dell’evento stesso e riproducendo sensazioni simili a quelle che si erano provate durante l’evento stesso.
Ricordi di questo tipo sono molto dispendiosi in termini di risorse cognitive. In ambito clinico e in
psicologia dell’emergenza questi ricordi prendono il nome di memorie flashback, relativamente
frequenti nel disturbo post-traumatico da stress, quando un individuo esposto ad un evento catastrofico
può rivivere, attraverso un ricordo di qualità quasi-sensoriale, alcuni istanti di quell’evento.
Sorprendentemente, siamo anche in grado di produrre ricordi completamente falsi, interamente
costruiti e privi di qualsiasi base di realtà. Sono molti, infatti gli esperimenti che hanno dimostrato come
piccoli trucchi o accorgimenti possano facilmente indurre la creazione di false memorie e come la
frequenza di questi processi sia associata alla verosimiglianza del ricordo, alla coerenza con il proprio
sistema di valori e anche alla credibilità della fonte che induce la creazione del falso ricordo.

CAP 7. APPRENDERE PER ESPERIENZA DIRETTA


7.1 Definizione e breve storia
Secondo il comportamentismo, se impariamo qualcosa che non modifica in maniera duratura il nostro
comportamento non abbiamo appreso nulla.
Dal fatto che l’apprendimento animale possa solo essere inferito da cambiamenti del comportamento si
giunse a quella definizione estrema, che sostiene che l’apprendimento, più che essere una grandezza a sé
stante inferibile utilizzando come indizio i cambiamenti manifesti del comportamento, di fatto coincide
con quei cambiamenti.
Gli studi sperimentali dei comportamentisti avevano il grande merito di essere così scrupolosi e precisi
che gradualmente andarono a falsificare molti assunti delle loro prime teorie: studiosi come
Woodworth, Tolman e Cattell ottennero risultati che non potevano essere interamente catturati da
leggi di associazione diretta S-R, e richiedevano di postulare stati di elaborazione intermedia (S-O-R,
dove O sta per organismo). Da questo arrivarono a concepire la mente come un processo di

22
elaborazione e rappresentazione di informazioni interposto tra l’ambiente e il comportamento
manifesto. Da qui si passò al neocomportamentismo e poi al cognitivismo.
L’attuale definizione dell’apprendimento sostiene che, l’apprendimento è il processo grazie al quale
acquisiamo conoscenze sul mondo e le codifichiamo nelle memorie a lungo termine, creando un vasto
deposito di conoscenze precedenti che contribuisce tanto a pianificare e guidare il nostro
comportamento, quanto a sostenere nuovi e ulteriori sforzi di apprendimento e a determinarne l’esito.
7.1.1 Due notazioni e alcuni esempi
Ogni relazione appresa connette le rappresentazioni mentali di almeno due eventi, oggetti, attributi,
concetti o comportamenti.
Alcune di queste relazioni sono frutto di processi dall’alto al basso (top-down), cioè sono processi in
cui i meccanismi di pensiero di alto livello cercano di sintetizzare e organizzare le osservazioni derivate
dall’esperienza sensoriale dell’ambiente, e possono coinvolgere giudizi e ragionamenti a posteriori, cioè
su esperienze passate; le relazioni derivanti da questi processi sono dette “regole” o “ipotesi” e ci
riferisce a esse in forma dichiarativa.
Altre relazioni sono apprese automaticamente tramite processi dal basso all’alto (bottom-up o stimulus
driven), cioè processi di elaborazione, guidati dai dati, che avvengono a prescindere dalla nostra volontà
di svolgerli.
Un esempio di apprendimento bottom-up è: se in seguito ad una aggressione in un ascensore, un
individuo sviluppa un forte grado di evitamento di tutti gli ascensori, avrà appreso la catena associativa
Oggetto→ Evento→ Concetto e Sensazione→ Emozione→ Risposta comportamentale, di tipo
procedurale.
Questo tipo di apprendimento viene anche chiamato apprendimento per condizionamento.
Un esempio di apprendimento top-down è: se una dottoressa nota che molti pazienti, a cui ha
somministrato un nuovo farmaco, lamentano disturbi gastrici, mentre con il vecchio farmaco non
succedeva, formula un’ipotesi in forma dichiarativa, cioè se si assume il nuovo farmaco allora cresce
la possibilità di disturbi gastrici. In questo caso la dottoressa potrà avvalersi o meno di quella regola nel
suo comportamento: la regola appresa dalla dottoressa è adattabile ad altre conoscenze e al controllo
cosciente e volontario, senza il quale non sarebbe giunta all’ipotesi.
Entrambi i tipi di apprendimento si avvalgono di dati statistici, e stabiliscono predittori e possibili cause
di alcune conseguenze, ambito che viene studiato dall’approccio computazionale basato su un
insieme di osservazioni (o su base statistica).

7.2 Cosa apprendiamo dai dati statistici? Covariazioni e cause


Tra i modelli inferenziali e i modelli associazionisti c’è univoco accordo su quali siano le loro funzioni:
- previsione: capacità di prevedere le conseguenze di certi stati o eventi, a prescindere dal fatto
che siano il prodotto dell’azione dell’organismo sull’ambiente o si manifestino
indipendentemente dalle sue azioni;
• Stimolo→Aspettativa conseguenza→Risp anticipatoria→Conseguenza→Risp
condizionata
- intervento (o controllo): capacità di prevedere quali comportamenti attivi rivolti verso
l’ambiente produrranno certi eventi con conseguenze prevedibili, desiderate o meno, ai quali si
sarà pronti a reagire.
• Motivazione→è stato imparato l’Intervento attivo→Azione guidata
dall’aspettativa→Aspettativa conseguenza, quindi viene messo in atto Intervento
attivo→Azione guidata dall’aspettativa→Risp anticipatoria→Conseguenza→Risp
condizionata.
L’importanza della distinzione degli obiettivi di previsione e intervento è paragonabile a quella tra
covariazione semplice e covariazione basata su un soggiacente nesso causale. Tutti i tipi di
covariazione permettono di creare aspettative (previsione), ma solo quelle che sono il prodotto di un
nesso causale consentono di progettare azioni finalizzate ad un obiettivo (intervento).

23
Lo scopo dell’apprendimento per esperienza diretta è quello di estrarre predittori, dipendenti o meno
dalle nostre azioni. Ma non sempre i processi che dovrebbero estrarre predittori utili e affidabili
forniscono esiti “oggettivamente corretti”.
7.2.1 Covariazioni: la regola del ΔP
Le osservazioni di concomitanze tra due eventi, segnale (o cue, indizio) e conseguenza (o outcome,
esito), possono essere rappresentate in una tavola di contingenza, in cui la prima riga rappresenta il
numero di casi (o frequenza) in cui si è presentata o meno la conseguenza in presenza del segnale; e la
seconda riga rappresenta la frequenza in cui si è presentata o meno, nello stesso tempo, la conseguenza
in assenza del segnale.
Quindi, ogni insieme di osservazioni illustrate da una tavola di contingenza può essere sintetizzato in
due valori di probabilità condizionale (cioè, di probabilità di un evento a condizione che se ne sia
verificato un altro):
- Probabilità della conseguenza dato il segnale;
- Probabilità della conseguenza nonostante l’assenza del segnale.
La differenza tra queste due probabilità (ΔP) è la misura di covariazione che indica la capacità di un
segnale di prevedere una conseguenza oltre quanto questa fosse già prevedibile nello stesso contesto in
assenza di quel segnale.
Il ΔP, quindi, indica la forza della relazione tra il segnale e la sua conseguenza; se il valore è positivo la
presenza del segnale produce un incremento di aspettativa della conseguenza; se è negativo il segnale
genera un decremento dell’aspettativa; se è nullo indica che il segnale e la conseguenza non hanno
nessuna covariazione reciproca.
Se, per esempio, una malattia ha un’alta probabilità di essere presente in contemporanea ad un certo
sintomo, non è detto che quel dato sintomo sia “diagnostico” di quella malattia.
Il ΔP può avere due scopi:
- Uno per l’apprendimento, che si basa su dati statistici: per apprendere correttamente i gradi di
predittività tra eventi, date in input le osservazioni di concomitanze tra quegli eventi, l’output di
un sistema cognitivo deve approssimarsi al ΔP;
- Il secondo è quello di valutare l’opportunità di intervenire attivamente per fare in modo che il
segnale si presenti, o non si presenti, al fine di provocare, o non consentire, la conseguenza.
Quindi, il ΔP è un sensato indizio di causalità e di opportunità di intervento, solo nel caso in cui sia
scontato l’effetto di possibili concause.
7.2.2 Causalità: dal ΔP alla sua funzione potenza
La stima del grado di causalità di un evento segnale verso un evento conseguenza è importante sia per
stabilire se un organismo si preparerà a reagire alla conseguenza dato il segnale, sia per determinare se
quell’organismo cercherà o meno di intervenire sul segnale per ottenere o evitare la conseguenza.
Questa stima dipende anche dalle altre conoscenze dell’organismo, acquisite, innate o assunte
arbitrariamente. Alcune soluzioni applicate a questo problema descrivono cosa i sistemi cognitivi,
umani o animali, considerino essere una “causa”: cioè quali funzioni sono computate quando ci
convinciamo dell’esistenza di un nesso di causalità tra due eventi, e stimiamo la sua forza. La più nota di
queste funzioni è la Power PC (fattore pow), o potenza del contrasto di probabilità, dovuta a Patricia
Cheng, che considerava il ΔP come una qualsiasi altra variazione di percezione: in questo caso,
l’incremento, o il decremento, è nella probabilità condizionale di un evento, e non nella percezione delle
sue caratteristiche.
7.2.2.1 La funzione potenza del ΔP
La corretta stima degli effetti causali del Segnale deve riferirsi a quanto il Segnale renderebbe probabile
la Conseguenza in una situazione ideale, dove il Segnale sia il solo fattore causale presente.
Quindi, la funzione di potenza (pow) del ΔP è corretta solo se la potenziale causa del Segnale, di cui
stiamo stimando la forza, è indipendente dall’insieme di tutte le concause che possono provocare lo
stesso effetto Conseguenza.

24
7.2.2.2 Strutture causali, l’assunto di indipendenza e la dimostrazione della formula della
potenza causale per cause generative indipendenti
Le diverse concause di uno stesso effetto possono combinarsi in una quantità di modi virtualmente
infinita. Queste modalità sono “strutture causali” o “modelli causali”, e nel caso “standard”, o delle
cause indipendenti, le probabilità delle concause si combinano secondo la funzione detta noisy OR
(disgiunzione probabilistica). Questa funzione è identica ad una somma booleana (cioè una logica per
cui ogni proposizione può essere o vera, 1, o falsa, 0, ma non sono ammessi gradi intermedi), solo che
invece dei valori 1 e 0, ogni argomento esprime la probabilità che A sia vero, e la probabilità che B sia
vero.
Ci sono due possibilità in questo caso:
- Che si formino strutture di cause indipendenti, cioè ciascuna causa S, indipendentemente
dall’altra, può provocare la conseguenza C (in termini di grafi bayesiani, due cause indipendenti
di uno stesso effetto sono rappresentate da due nodi non connessi tra loro (cause), associati da
due archi ad un terzo nodo (la conseguenza): S1 → C  S2.).
- Che due cause non siano indipendenti, quindi interagiscono tra loro, e questo accade quando
la loro combinazione segue una qualsiasi funzione di combinazione di probabilità che non sia la
noisy OR.
Quindi, con noisy OR intendiamo una funzione con cause indipendenti.

7.3 Come apprendiamo dai dati statistici? Fenomeni empirici


7.3.1 I metodi di studio dell’apprendimento di relazioni tra eventi
Gli studi sperimentali dell’apprendimento di relazioni tra eventi iniziarono, tra la fine del XIX secolo e
gli inizi del XX secolo, con Pavlov in Russia e Thorndike negli Stati Uniti.
Questi studi hanno utilizzato maggiormente quattro linee metodologiche:
- Tipo di partecipanti: umani o altri animali;
- Presentazione simultanea o seriale degli eventi stimolo: la presentazione seriale prevede
che l’apprendimento sia suddiviso in periodi, in ognuno dei quali si presentano uno o più eventi
stimolo (sia umani che animali). Dopodiché lo sperimentatore controlla le variabili indipendenti
che lo interessano. La presentazione simultanea prevede che tutti gli stimoli siano forniti
contemporaneamente (solo umani);
- Tipo di misura dell’apprendimento: quando l’apprendimento è valutato implicitamente, lo
sperimentatore misura, come variabile dipendente, una qualche risposta comportamentale
manifesta o fisiologica del partecipante ad uno o più stimoli. Da queste misure il ricercatore
inferisce (misure implicite) il grado di apprendimento della relazione tra gli stimoli. Quando la
misura dell’apprendimento è esplicita, si chiede ai partecipanti umani, dopo la presentazione
degli stimoli, di esprimere il loro giudizio sulle relazioni (di causalità o predittività) che gli
sembra di aver compreso dagli stimoli.
- Valore di incentivo dell’outcome: soprattutto con la presentazione seriale e misura implicita,
ha importanza la valenza edonica (piacevolezza o meno) associata agli outcome da
quell’organismo. Classicamente le “conseguenze incentivanti” erano chiamate “eventi di
rinforzo” o “rinforzi”.
7.3.2 I paradigmi classici e i loro risultati
7.3.2.1 Le scoperte di Ivan Pavlov
Pavlov durante i suoi studi sulla fisiologia della digestione, attraverso diversi esperimenti, illustrò che la
ripetuta associazione in condizioni di contiguità temporale tra uno Stimolo Condizionato non in grado
di provocare una risposta R, e uno Stimolo Incondizionato in grado di provocarla, porta lo Stimolo
Condizionato ad elicitare la risposta anche quando si presenta in assenza dello Stimolo Incondizionato
(Condizionamento rispondente). Se poi lo Stimolo Condizionato, una volta associato alla risposta,
viene presentato molte volte senza più essere accompagnato dallo Stimolo Incondizionato, la
probabilità che si verifichi la risposta si riduce gradualmente verso lo 0: la Risposta allo Stimolo

25
Condizionato si indebolisce fino ad estinguersi (Estinzione); anche se potrà ripresentarsi in nuove
sedute a distanza di tempo (Recupero spontaneo).
Altri fenomeni empirici individuati da Pavlov e colleghi sono:
- Intensità: l’intensità della Risposta cresce con l’intensità dello Stimolo Condizionato;
- Generalizzazione: più uno stimolo esterno è simile allo Stimolo Condizionato, più probabilità
ci sono che si verifichi la Risposta associata allo SC;
- Discriminazione appresa: partendo dalla generalizzazione, le ripetute presentazioni dello
stimolo simile senza lo Stimolo Condizionato, “estinguono” la risposta allo stimolo simile e
mantengono la risposta all’altro;
- Inibizione esterna: se la Risposta è stata appresa in un certo contesto, tenderà a non
presentarsi in un contesto diverso;
- Overshadowing o oscuramento (Inibizione esterna di 2° tipo): la presentazione di un nuovo
Stimolo Condizionato, molto saliente, in concomitanza o subito prima del primo Stimolo,
tenderà a ridurre la forza di un’associazione Stimolo Condizionato1-Risposta appresa
precedentemente;
- Inibizione condizionale (inibizione esterna di 3° tipo): se si presentano molte prove, in ordine
casuale, di tipo Stimolo Condizionato1 senza Stimolo Condizionato2 in presenza dello Stimolo
Incondizionato, e molte prove di tipo Stimolo Condizionato1 con Stimolo Condizionato2 e
senza Stimolo Incondizionato, l’organismo risponderà con la Risposta allo Stimolo
Condizionato1 presentato da solo, ma non presentato insieme al 2°. La presenza del 2° inibisce
la risposta associata al 1° stimolo.
- Condizionamento di secondo ordine (SOC): data la Risposta allo Stimolo Condizionato1,
alcune presentazioni dello Stimolo Condizionato2 con lo Stimolo Condizionato1 (non seguite
dallo Stimolo Incondizionato) tenderanno a stabilire l’associazione di Stimolo Condizionato2
con la Risposta.
7.3.2.2 Alcune scoperte di Edward Thorndike e di Skinner
Nel frattempo Thorndike studiava l’apprendimento animale di comportamenti più complessi,
avvalendosi di una gabbia per gatti (puzzle box o scatola problema), dalla quale prima o dopo il gatto
riusciva ad uscire azionando la leva (apprendimento per prove ed errori). Tracciando una curva di
apprendimento, Thorndike scoprì che il gatto impiegava sempre meno tempo, ogni volta che veniva
rimesso nella gabbia, per uscirne.
Egli formulò anche delle leggi dell’apprendimento per prove ed errori o condizionamento strumentale
(verificate anche su esseri umani): particolarmente innovativa era:
- La Legge dell’effetto: se in un certo contesto è prodotta una risposta con un esito
soddisfacente, allora la forza della connessione S-R cresce, quindi in futuro aumenta la
probabilità di emettere la stessa risposta nello stesso contesto. Se ad una risposta segue un esito
fastidioso, allora la forza della connessione S-R si indebolisce e la risposta diventa meno
probabile in quel contesto.
Skinner fece sua la Legge dell’effetto e la approfondì: sostenne che l’apprendimento basato su
condizionamento rispondente non era in grado di giustificare alcune forme di comportamento
complesso umano e animale. Gli organismi non associano solo risposte automatiche a nuovi stimoli,
ma imparano nuove risposte e operano per ottenere alcune conseguenze (condizionamento operante).
Per questo, Skinner utilizzò dei rinforzi (positivi o negativi), che pensava fossero più efficaci delle
punizioni. Fece una distinzione tra rinforzi primari, con valore incentivante intrinseco; e rinforzi
secondari, privi di valore incentivante, il cui valore era appreso per condizionamento di secondo
ordine rispetto ai rinforzi primari.
Basandosi sul rinforzo secondario, dimostrò l’efficacia del modellamento (shaping) nell’addestramento
di animali a compiere comportamenti anche molto complessi: rinforzando la prima componente di un
comportamento finché non è appresa, poi rinforzando la seconda quando emessa dopo la prima e così
via, l’animale riesce a creare una catena complessa di associazioni solo al termine del quale ottiene il
rinforzo. Condusse centinaia di esperimenti, avvalendosi della Skinner box (che poteva avere molti
accessori per presentare stimoli o rinforzi, o che offriva la possibilità di emettere risposte attive

26
associabili ai rinforzi), grazie ai quali descrisse gli effetti comportamentali di diversi “programmi di
rinforzo” o di punizione, due dei quali sono:
- I partecipanti apprendono il pattern di rinforzo e vi si adattano, quindi imparano a prevedere
quali comportamenti sono più adeguati per ottenere rinforzi (o evitare punizioni);
- Quando una conseguenza ha maggiore variabilità, l’estinzione della risposta che la provocava è
più lenta.
7.3.3 Sintesi delle prospettive “rispondente” e “operante”
Dagli anni ’60, la visione separata del condizionamento rispondente (apprendimento di associazioni tra
due stimoli SC e SI) e condizionamento operante (apprendimento di relazioni tra azioni e loro
conseguenze), confluirono in una prospettiva unitaria. A questo punto, si iniziò a sostenere che ciò che
supporta l’apprendimento di un’associazione fosse il saper fare previsioni accurate: l’apprendimento
rinforza se stesso grazie a una continua comparazione tra ciò che abbiamo appreso, e quanto questi
apprendimenti ci consentono di capire, prevedere e controllare il nostro ambiente.
Tutti i principali modelli algoritmici che cercano di catturare i fenomeni dell’apprendimento
associativo bottom-up sono algoritmi di riduzione dell’errore: riducono la forza di un’associazione
quando essa induce una previsione che si rivela errata, e l’aumentano quando una previsione si rivela
corretta. Quindi, è l’errore o la correttezza della previsione che indebolisce o rinforza l’associazione.
Anche tutti i modelli cognitivi dell’apprendimento di relazioni per via top-down sono procedure di
previsione statistica basata su stime della diagnosticità dei segnali.
7.3.3.1 Gli incentivi sono necessari? No
Tolman, pur essendo comportamentista, confutò sperimentalmente alcune delle conclusioni del
comportamentismo classico, aprendo la via al neocomportamentismo e al cognitivismo.
Riteneva che ciò che era appreso erano connessioni S-S e non S-R: le informazioni in entrata sono
elaborate nella cabina di controllo centrale per costruire una mappa dell’ambiente di tipo cognitivo, che
indica percorsi e relazioni tra eventi e che determina se e quali risposte produrrà un animale. Tolman
utilizzava il labirinto di Blodgett, tramite il quale formulò l’idea che il rinforzo non è una condizione
necessaria per l’apprendimento delle associazioni che connettono stimoli ambientali.
Della stessa idea era Bandura, che dimostrò che gruppi di bambini che avevano osservato un
“modello” adulto mettere o non mettere in atto comportamenti aggressivi verso un bambolotto
gonfiabile (Bobo doll) tendevano poi a replicare, in momenti successivi, in altri ambienti e in assenza
del modello, quel tipo di comportamenti. Successive variazioni dell’esperimento dimostrarono che la
quantità di comportamenti imitati era modulata dagli incentivi ricevuti dal modello: se i bambini
osservavano che il modello era punito, tendevano a non imitarlo; se osservavano che era lodato,
tendevano ad imitarlo (rinforzo vicario). L’efficacia di un incentivo altrui presuppone che l’osservatore
sia in grado di osservare l’esito di un comportamento espresso da altri, di valutarne il valore, e di
stabilire se i comportamenti osservati sono o non sono stati le probabili cause degli incentivi ricevuti dal
modello. Successive ricerche dimostrarono che l’apprendimento e la manifestazione di comportamenti
per sola imitazione di modelli sono possibili e frequenti (teoria dell’apprendimento sociale).
7.3.3.2 La ripetizione e la contiguità sono necessarie? No
Si può apprendere con forza un’associazione anche dopo aver osservato una sola concomitanza tra due
eventi (one shot learning). Lo dimostrò Hudson mettendo un piedistallo molto visibile sotto la
scodella, dove mangiavano sempre i suoi topi, dopodiché quando un topo si avvicinava per mangiare,
veniva mandata una scossa al piedistallo; dopo solo una volta i topi associavano il piedistallo e tutte le
cose simili ad esso alla scossa e cercavano di evitarle o nasconderle. Quindi, se uno o entrami gli stimoli
condizionati o incondizionati sono molto salienti, non c’è bisogno della ripetizione per apprendere
un’associazione.
Garcia fece un esperimento simile, abbinando un sapore insolito, somministrato alle cavie, alla
sensazione di nausea (provocata apposta); in aggiunta ai risultati di Hudson, Garcia dimostrò che
quell’associazione avveniva anche a distanza di ore tra la somministrazione del sapore e l’insorgere della

27
nausea. Questo dimostrava che, nonostante la contiguità sia spesso importante per l’apprendimento di
associazioni su base covariazionale, non è una condizione necessaria.
Il numero di ripetizioni necessarie all’apprendimento non dipende solo dalla salienza degli stimoli, ma
anche dalla variabilità o varianza degli abbinamenti tra Stimolo Condizionato e Stimolo Incondizionato.
L’effetto della variabilità percepita si è dimostrato importante per l’apprendimento umano, soprattutto
in ambito sociale: se la variabilità percepita dell’attributo è bassa, sono sufficienti pochi esempi osservati
per generalizzarlo a interi gruppi; se è alta la generalizzazione richiede più osservazioni.
7.3.3.3 La ripetizione di concomitanze contigue e rinforzate tra SC e SI è sufficiente
all’apprendimento? No
Contiguità e ripetizione di due stimoli ambientali, oltre a non essere necessarie all’apprendimento, non
sono neanche sufficienti (forward blocking). Kamin spiegò questo fenomeno in termini di sorpresa: la
conseguenza, o Stimolo Incondizionato, deve sorprendere il partcipante perché l’associazione sia
appresa.
Rescorla dimostrò, in uno studio, l’effetto del ΔP sull’apprendimento: utilizzò 4 gruppi di topi che
avevano già imparato che schiacciare una leva permetteva di ottenere il cibo; nella fase sperimentale a
tutti i gruppi somministrò delle scosse abbinate ad un suono e suoni senza la scossa. I gruppi si
differenziavano in base alla probabilità condizionale di ricevere la scossa nei periodi in cui non si
presentava il suono: combinando la probabilità della scossa abbinata al suono e la probabilità della
scossa senza il suono, si ottenevano quattro diversi ΔP, quindi quattro diversi pow. In una fase
successiva, in cui le scosse erano sospese e si presentava solo il suono, Rescorla scoprì che la forza
dell’associazione tra il suono e la scossa non era influenzata dal numero di concomitanze, ma era
proporzionale al ΔP, che dipende anche dagli ultimi due casi (scossa con suono e scossa senza suono).
7.3.3.3 Gli effetti di pre-esposizione degli SC e SI
Baker, Mackintosh e Mercier illustrarono il rilievo che una precedente familiarizzazione con gli stimoli,
Condizionato e Incondizionato, ha sulla successiva capacità di associarli. Hanno individuato due effetti:
- Pre-esposizione dello Stimolo Condizionato (o inibizione latente). Il fatto che lo Stimolo
Condizionato sia molto comune in un contesto, dove ancora non compare la Conseguenza,
porta a rallentare e indebolire il successivo apprendimento dell’associazione tra Stimolo
Condizionato e Incondizionato, rispetto al controllo;
- Pre-esposizione dello Stimolo Incondizionato. La familiarità con la Conseguenza, in un
contesto in cui non è ancora presente lo Stimolo Condizionato, riduce l’apprendimento;
- Irrilevanza appresa. Gli SC e SI sono presentati a caso, in una prima fase che inibisce talmente
l’apprendimento che anche quando, nella seconda fase, lo SC diventa predittore dello SI,
l’associazione non ha luogo o avviene lentamente.
7.3.3.5 Apprendere a posteriori
Dal punto di vista algoritmico ha grande importanza il backward blocking, nel quale inizialmente lo SC
è inizialmente associato alla Conseguenza, e in quella fase l’associazione è appresa; durante la seconda
fase lo SC non compare mai, eppure la sua associazione con la Conseguenza viene disappresa,
attraverso un’elaborazione a posteriori in assenza dello stimolo (retrospective revaluation). Questo
segnò l’abbandono dell’idea che la forza dell’associazione di uno stimolo con una conseguenza possa
essere revisionata solo quando lo stimolo si presenta. Questa serie di riscontri falsificò l’idea che alla
base dell’apprendimento di relazioni tra eventi ci fossero solo o soprattutto la contiguità, la ripetizione e
il valore di incentivo della Conseguenza, e che avvenisse solo in modo associativo bottom-up.
7.3.4 Oltre il ΔP: inferenze e assunti sulle strutture causali
Asimmetrie nell’“effetto tetto” per cause generative e inibitorie → Un Ceiling (tetto) si ha
quando un certo effetto ha già raggiunto il suo massimo livello, e ulteriori interventi volti a
incrementarlo non possono avere nessuna conseguenza; ma questo non consente di stabilire che questi
interventi sono inefficaci. Quando un fenomeno ha raggiunto il suo ceiling, si può stabilire se una

28
qualche causa ha effetti inibitori, ma non se ha effetti generativi, generando un’asimmetria tra i due tipi
di cause.
Nel caso della potenziale causa generativa il ΔP sarà uguale a 0, quindi, se la causalità fosse
esclusivamente basata sulla percezione di covarianza, gli osservatori dovrebbero concludere che la
potenziale causa non ha effetto.
Viceversa, se il ΔP è sempre uguale a 0, ma si ha una condizione di ceiling, gli osservatori dovrebbero
stabilire l’inefficacia di potenziali cause inibitorie, invece di sospendere il giudizio.
L’apprendimento di relazioni causali tra eventi non sempre si riduce a una stima di covariazione, e
sembra coinvolgere conoscenze precedenti e inferenze su inosservabili strutture o modelli causali
sottostanti. Il semplice ΔP è sufficiente a soddisfare l’obiettivo di previsione associato
all’apprendimento; a livello computazionale, invece, è la stima di causalità che può soddisfare l’obiettivo
di intervento o controllo: solo attribuendo causalità al nesso tra uno Stimolo Condizionato e uno
Stimolo Incondizionato possiamo decidere di intervenire volontariamente su quello Stimolo
Condizionato per provocare, o evitare, lo Stimolo Incondizionato.
Apprendere le conseguenze dei propri comportamenti comporta la necessità di inferire nessi causali
partendo dal dato covariazionale e integrandoci altre conoscenze e assunti.
Questo si coniuga con gli studi sulla predisposizione genetica all’apprendimento: un piccione può
imparare a beccare una leva per far cadere il cibo, ma non può imparare ad allontanarsi dalla ciotola per
lo stesso motivo. Queste predisposizioni innate ad apprendere associazioni tra alcune tipologie di
stimoli, e non altre, sono “conoscenze precedenti” su cosa possa costituire un possibile nesso causale o
cosa non possa costituirlo: quindi, sono modelli causali che guidano gli organismi nella stima di nessi
causali utili a controllare il loro ambiente.
Se non riesce a capire come controllare un certo evento ambientale, un organismo cessa di comportarsi
e diventa passivo. Seligman e Maier lo dimostrarono somministrando scosse a due gruppi di cani: il
gruppo di controllo poteva interrompere le scosse con una leva, il gruppo sperimentale non poteva
interromperle; successivamente i due gruppi vennero posti in un pavimento mezzo elettrificato e mezzo
no. I cani del gruppo di controllo riuscivano a capire che potevano saltare una paratia, perché
cercavano il modo di scappare dalle scosse; dei cani del gruppo sperimentale solo 1/3 scappava, mentre
l’altra parte del gruppo si accucciavano e mugolavano “convinti” di non avere potere causale sulle
scosse. Gli osservatori chiamarono questa sensazione impotenza appresa: incapaci di capire le cause
di un evento che ci consentirebbe di agire su esso, impariamo a rassegnarci. L’impotenza appresa può
avere un ruolo importante anche per sindromi depressive negli umani.
Paragonando la parte dei cani del gruppo sperimentale che scappavano agli esseri umani, possiamo dire
che la resilienza verso gli eventi negativi, che riduce il rischio di depressione, è correlata all’ottimismo.
Da qui nacque la psicologia positiva.
7.3.5 Sensibilità e insensibilità imana agli indizi statistici
Le capacità di apprendimento dimostrate nei vari studi sono state chiamate “apprendimento implicito”,
perché hanno luogo, almeno in parte, in modo inconsapevole e senza esplicita volontà si apprendere.
In altri numerosi studi che hanno richiesto giudizi espliciti e consapevoli di predittività o causalità tra
due eventi sulla base di soli dati di contingenza, partecipanti umani hanno adottato strategie di giudizio
non corrette. Queste strategie “non-normative” generano correlazioni illusorie: i partecipanti
ritengono che uno stimolo sia un buon segnale dell’altro, o addirittura lo causi, quando l’effettiva
predittività è nulla o scarsa; oppure non si accorgono che uno stimolo prevede l’altro, quando in realtà
lo prevede.
7.3.5.1 Le correlazioni illusorie
Le correlazioni illusorie sono un fattore importante, anche perché potrebbero contribuire a formare e
preservare, insieme a fenomeni sociali, emotivi, comunicativi e motivazionali, le false credenze da
sempre diffuse in tutte le società (come pregiudizi, razzismi, superstizioni ecc.). Ognuna di queste
credenze associa un qualche evento, comportamento o attributo (far parte di un certo gruppo
“razziale”, assumere sostanze, eseguire riti ecc.) ad una qualche conseguenza (essere disonesti, violenti

29
ecc.). Questo suggerisce che possono derivare da osservazioni inappropriate e da imprecisa
elaborazione di un insieme di osservazioni.
Le correlazioni illusorie possono favorire le illusioni di controllo: convinzioni di poter esercitare un
qualche controllo su eventi completamente indipendenti da noi.

7.4 Come apprendiamo dai dati statistici? Modelli algoritmici


7.4.1 Modelli associativi dell’apprendimento bottom-up: il modello di Rescorla e
Wagner (1972)
I modelli algoritmici indirizzati verso l’apprendimento associativo bottom-up (guidato dai dati),
descrivono i processi che ci fanno apprendere associazioni SC → SI.
Il più importanti tra questi è stato il modello di Rescorla e Wagner (modello RW): illustra l’importante
ruolo della salienza degli stimoli e della predittività ed è la pietra di paragone per tutti i modelli
successivi. Il modello RW descrive matematicamente il cambiamento della forza di un’associazione tra
Stimolo Condizionato e Stimolo Incondizionato a ogni nuova prova in cui si manifesta lo Stimolo
Condizionato, considerando contemporaneamente l’effetto di tutti gli altri stimoli associati allo Stimolo
Incondizionato. Secondo questo modello, l’apprendimento è proporzionale alla sorpresa generata dalla
comparsa o meno dello Stimolo Incondizionato nei casi in cui si manifesta lo Stimolo Condizionato, e
alla salienza degli SC e SI. Tanto più sono salienti gli stimoli e tanto più è sorprendente lo Stimolo
Incondizionato, tanto più rapidamente si apprende l’associazione.

7.4.1.2 Oltre il modello RW


Il modello Rescorla Wagner ha richiesto successivi aggiustamenti, e i principali concetti che hanno
guidato queste revisioni sono stati:
- Maggiore enfasi sui meccanismi attentivi, variando la salienza degli stimoli o il tipo di occasioni
in cui si revisiona la loro forza associativa. Quando più uno SC diventa predittore importante di
una conseguenza, tanto più attirerà la nostra attenzione, soprattutto per via endogena;
- Revisione della forza associativa in assenza dello SC. Ogni stimolo in un dato contesto, quando
presente, si associa ad ogni altro.
- Capacità di rappresentazione articolata e complessa degli stimoli, basate su reti associative
multistrato. Modelli connessionisti propongono che gli stimoli siano rappresentati in modo
distribuito in “strati di nodi” che costituiscono memorie interposte tra l’attivazione di input
percettivi e risposte.

CAP 8. SISTEMA CONCETTUALE ED ESPLORAZIONE


8.2 Induzioni e deduzioni in logica
La logica è la disciplina matematico-filosofica che si occupa di descrivere le norme del corretto
ragionare. Il logico Peirce esemplificò tre stili di ragionamento, due induttivi e uno deduttivo:
- Deduzione: la deduzione trae conclusioni necessariamente vere qualora le premesse siano vere.
È un ragionamento in avanti: procede da premesse ritenute vere alle loro conclusioni; da eventi
alle loro prevedibili conseguenze; da cause a effetti;
- Induzione per enumerazione di casi (o generalizzazione, o induzione associativa): le conclusioni
sono relazioni basate su concomitanze di osservazioni, o contingenze. Tutti i processi che
partendo da osservazioni di casi specifici generano ipotesi o regole compiono, da un punto di
vista logico, ragionamenti induttivi; potremo poi utilizzare queste regole sia per dedurre (in
modo diretto), sia per abdurre (usate all’indietro);
- Induzione volta alla spiegazione o abduzione: l’ipotesi riguarda un caso specifico, o pochi casi, e
non una regola generale.

30
8.3 Cicli di conoscenza in psicologia
Il ciclo ipotetico-deduttivo della conoscenza scientifica, in psicologia, ha suggerito modelli della
percezione umana, come il ciclo “pecettivo-cognitivo” proposto da Neisser, e il “ciclo percezione-
azione” di Gibson. Per questi due studiosi, un percetto iniziale attiva schemi cognitivi anticipatori che
inducono aspettative e guidano l’esplorazione dell’ambiente. L’esplorazione consente di raccogliere
ulteriori dati sensoriali, perfezionare e completare quel percetto, e costruirne altri.
La natura ciclica dell’accumulo di conoscenze attraverso il concatenarsi di congetture induttive,
previsioni deduttive e la loro verifica esplorativa, è tipica dell’intera cognizione umana (ciclo
inferenziale). Il suo obiettivo è costruire una rappresentazione di un ambiente complesso e mutevole,
continuamente revisionabile.

8.4 Le “logiche” dell’induzione


Popper sosteneva che nel generare un’ipotesi non sono coinvolte componenti logiche; infatti, sono
indizi e fattori psicologici a guidare quali associazioni ipotizziamo: per esempio, la salienza degli stimoli,
la loro capacità di attirare l’attenzione, di essere “inattesi” e “sorprendenti”. Quindi, sono processi
psicologici, e non logici, che ci portano a costruire regole in cui qualche costrutto ipotetico, secondo
noi, spiega e precede un insieme di dati osservabili.
8.4.1 La logica dell’induzione per enumerazione: statistica descrittiva
L’unica norma possibile per misurare la qualità di una regola che connette due eventi osservabili è la
corretta misurazione e descrizione dei due parametri probabilistici che la denotano.
La logica dell’induzione enumerativa è la semplice statistica descrittiva: comportarsi in maniera “logica”
prevede la raccolta di tutti i dati utili a stimare l’effettiva forza predittiva di una regola ipotetica, nella
misura in cui essi si rendono disponibili.
8.4.2 La logica dell’induzione per abduzione: statistica bayesiana
Nei casi in cui abbiamo conoscenze pregresse, sui possibili antecedenti (evento, concetto, teoria ecc.) di
una conseguenza osservata, il passaggio abduttivo permette di ipotizzare l’antecedente alla luce
dell’osservazione:
“so che”, se l’antecedente porta alla conseguenza (H → D), “ho osservato” la conseguenza, quindi
“forse è vero” l’antecedente. Anche in questo caso, la generazione della conclusione “se H allora D”
non è logica (schema “fallacia di affermazione del conseguente”, se H è vista come conseguenza
necessaria e non solo ipotetica). Ammettere sia la possibilità della presenza dell’antecedente, sia quella
dell’assenza dell’antecedente, significa ammettere che “tutto è possibile” (tautologia, un’affermazione
sempre vera).
Se c’è qualcosa di logico in un’abduzione, non è nella generazione dell’ipotesi, ma nel modo con cui ne
rivediamo il grado di probabilità: cioè ipotizzare se nella spiegazione di un’osservazione, la presenza
dell’antecedente è più o meno probabile della sua assenza, e quanto è probabile.
Il modo più classico e più noto per misurare il grado di fiducia verso un antecedente ipotetico, alla luce
di una conseguenza osservata, è la regola di Bayes: sillogismo abduttivo in cui, come negli altri, si
presume che le premesse siano vere; la seconda premessa è l’osservazione della presenza o meno della
conseguenza (cioè il verificarsi o meno di una previsione); la conclusione consiste nella fiducia riposta
verso l’esistenza dell’antecedente ipotetico. La regola di Bayes consente di risolvere il sillogismo
abduttivo, assegnando un valore di probabilità soggettiva all’antecedente ipotetico.
La regola considera quanti sono i casi in cui sia l’antecedente che la conseguenza sono veri.
Anche l’assenza dell’antecedente implica un antecedente ipotetico, che potremmo considerare come
seconda ipotesi; le due ipotesi devono essere disgiunte ed esaustive.
Esiste la forma a rapporti della regola di Bayes, che esprime quanto cresce, o si riduce, la probabilità
della presenza o dell’assenza dell’antecedente una volta osservata la conseguenza, rispetto a quando la
presenza era più o meno probabile dell’assenza dell’antecedente prima di osservare la conseguenza. La
formula della forma a rapporti è molto simile al ΔP (misura della predittività di un evento verso una
conseguenza), solo che nella seconda formula viene fatta una differenza tra le probabilità, invece la
forma a rapporti le divide, per questo si chiama rapporto di Bayes: ha valore 1 quando un dato è

31
ugualmente probabile sia in presenza che in assenza dell’antecedente; è maggiore di 1 quando il dato è
più probabile in presenza che in assenza dell’antecedente (quindi il dato supporta la verità
dell’antecedente); ed è minore di 1 quando l’osservazione della conseguenza è più probabile in assenza
dell’antecedente. Quindi, il rapporto di Bayes è una misura di supporto bayesiano dell’osservazione: se è
superiore a 1 supporta l’ipotesi, se è inferiore a 1 tende a falsificarla e se è uguale a 1 il dato è irrilevante.
Il rapporto di Bayes di un dato verso un’ipotesi può essere indicato con il rapporto di
verisimiglianza.
Il rapporto tra una probabilità e il suo complemento prende il nome di odd: calcolo delle probabilità
che un allibratore fa per una scommessa. Ad esempio, chiedendoci quante probabilità ci sono che si
verifichi un certo evento, ci basiamo su tutte le variabili dipendenti dall’esperienza, cioè su quante volte
in un certo contesto si è verificato quell’evento; più volte si è verificato quell’evento, più probabilità ci
sono che si riverifichi ancora.

8.5 Una logica della deduzione: il calcolo proposizionale


Esistono diversi sistemi di logica deduttiva, che servono a definire quali strutture implicative siano
valide, quindi garantiscano necessità della conclusione alla luce delle premesse. I due sistemi
fondamentali sono: il calcolo proposizionale e il calcolo dei predicati del primo ordine.
Il calcolo proposizionale è un linguaggio formale che descrive come combinare proposizioni tramite
operatori (o connettivi, un tipo di parole funzione.). Ha una sintassi che definisce le “formule ben
formate”, cioè l’insieme delle proposizioni che fanno parte di quel linguaggio; e una semantica che
associa a ogni formula valori di verità, e consente di calcolare se qualche proposizione sia sempre vera
nel contesto definito da altre proposizioni, quindi se una conclusione sia valida alla luce di certe
premesse.
8.5.2 La semantica del calcolo proposizionale
La semantica del calcolo proposizionale associa a ogni proposizione un valore di verità (V o F, 1 o 0, se
si usa la notazione booleana). Il modo più semplice per definire il significato che vogliamo attribuire ai
connettivi consiste nell’uso di tavole di verità, ognuna delle quali è una rappresentazione di tutte le
possibilità generate dalle proposizioni che compongono la formula, e indica in quali possibilità la
formula è vera e in quali è falsa. La negazione è l’unico connettivo “unario”, e quindi la sua definizione
richiede due possibilità (il caso in cui l’argomento è vero o il caso in cui è falso); tutti gli altri connettivi
sono binari, e richiedo due argomenti; la loro definizione richiede di considerare tutte le possibilità
espresse in 4 righe della tavola; le funzioni semantiche di verità dei connettivi descritte dalle tavole
consentono di stabilire se una formula ben formata sia vera o falsa.
Calcolo proposizionale sta per indicare che, data una proposizione ben formata, possiamo stabilire se
è vera o falsa per qualsiasi osservazione di verità alle proposizioni elementari che la compongono
avvalendoci di un semplice calcolo aritmetico.
8.5.3 Le inferenze valide nel calcolo proposizionale
Le inferenze valide sono quelle in cui una conclusione è necessaria alla luce della verità delle premesse,
queste nel calcolo proposizionale vengono descritte in due modi:
- Semantico, che si basa sulle tavole di verità o sull’equivalente calcolo booleano;
- Sintattico, che si avvale di regole inferenziali, o assiomi (proposizioni vere senza necessità di
dimostrazione), o di entrambe le cose. Uno dei metodi più diffusi è il “calcolo naturale” e
utilizza solo regole inferenziali (stampino logico). Questo metodo è il più semplice, perché una
volta definiti alcuni schemi validi, basta considerare coppie o gruppi di premesse, vedere se
hanno la stessa forma di uno degli “stampi”, e se ce l’hanno aggiungere la loro conclusione alle
altre premesse.
Una di queste inferenze è l’inferenza di tipo modus ponendo ponens (o modus ponens), con cui si
intende che il modo di argomentare dove affermando qualcosa, deriviamo la verità di qualcos’altro.

32
8.5.4 Altre inferenze del calcolo proposizionale rilevanti per la psicologia
Una coppia di premesse che comprende un condizionale, e l’affermazione o la negazione del suo
antecedente o conseguente, viene detta “sillogismo condizionale” o “sillogismo ipotetico”. Tra i quattro
sillogismi condizionali possibili, il privo valido è il modus ponens; il secondo è il modus tollendo
tollens, o modus tollens (modo in cui negando il conseguente, si nega anche l’antecedente).
Per gli esseri umani, il modus tollens è più difficile da accettare e produrre rispetto al modus tollens.
Gli altri due schemi condizionali sono invalidi, cioè a volte sono accettati o prodotti dagli esseri umani,
ma la logica non li supporta; la loro conclusione è possibile, ma non necessaria. E sono:
- Affermazione del conseguente, che corrisponde al sillogismo abduttivo di Peirce, solo che
invece di considerare possibile la conclusione, la si considera necessaria;
- Negazione dell’antecedente.
Altri schemi inferenziali che si sono rivelati importanti nello studio psicologico del ragionamento
umano, sono stati il sillogismo disgiuntivo e la riduzione all’assurdo.
Il sillogismo disgiuntivo ha una premessa maggiore di tipo disgiuntivo, e una seconda premessa che
nega uno degli argomenti della disgiunzione; la fallacia corrispondente è un errore se la disgiunzione è
inclusiva, invece è valida se è esclusiva.
La riduzione all’assurdo, significa che, se da una proposizione di può derivare, tramite una catena di
inferenze, un’assurdità (ad esempio, che un conseguente è vero e falso allo stesso tempo), allora quella
proposizione deve essere rifiutata.

8.6 Il sistema concettuale e la categorizzazione


Il sistema concettuale è l’insieme dei concetti che si sono depositati nella nostra memoria semantica,
grazie all’apprendimento. Ogni concetto è la rappresentazione mentale di un insieme (categoria) di
oggetti o eventi, e delle loro proprietà. I concetti sono appresi per via induttiva; la categorizzazione,
invece, è il processo tramite cui colleghiamo abduttivamente (somiglianze) o deduttivamente (regole)
uno stimolo ambientale ad un concetto, riconoscendolo come appartenente ad una categoria anche
senza averlo mai esperito prima.
8.6.1 I risultati dell’apprendimento: diversi tipi di concetti
8.6.1.1 Concetti basati su regole descrivibili con il calcolo proposizionale
Le basi fondamentali dell’apprendimento di concetti sono le capacità di notare associazioni e formularle
tramite regole. Queste capacità contribuiscono alla costruzione di concetti rappresentati da regole
logiche descrivibili con il calcolo proposizionale, e concetti rappresentati da prototipi costituiti da
insiemi di indizi diagnostici in senso bayesiano.
Quasi tutti gli studi sull’apprendimento adottano il fatto che, tutti gli esemplari osservati sono
descrivibili come insiemi finiti di attributi discreti, presenti o assenti in ogni esemplare. Anche il
concetto appreso da quell’insieme di esemplari, quindi è descritto dalla presenza o assenza di certi
attributi. Gli attributi sono le proprietà di oggetti o eventi che derivano dalle stimolazioni sensoriali e
vengono organizzati nelle memorie.
Per quanto riguarda le teorie bayesiane della percezione, gli attributi sono proprietà sensoriali ed
elementari, come i geoni; ma passando dal riconoscimento percettivo alla categorizzazione gli attributi
possono essere considerati come qualsiasi proprietà che riteniamo utile per descrivere uno stimolo.
Quando apprendiamo un concetto cerchiamo regolarità che accomunano gli esempi noti della categoria
che il concetto rappresenta; identificare regolarità significa comprimere la stringa di simboli che
definisce estensionalmente una categoria (descrizione logica estesa, o definizione estensionale di un
concetto, o notazione disgiuntiva normale). Una stringa compressa è una stringa più breve, ma che
riesce ugualmente a ricostruire lo stesso contenuto della stringa originale. Sviluppare una
rappresentazione compressa (intensionale) del concetto aiuta a risparmiare risorse di memoria.
La complessità logica o booleana di un concetto corrisponde al numero di letterali presenti nella
regola che lo definisce, una volta compressa il più possibile.

33
I fattori che influenzano la complessità di apprendimento sono, la complessità logica di un concetto, e il
fatto che regole che comprendono disgiunzioni sono più difficili da apprendere rispetto a quelle che
comprendono solo congiunzioni. La funzione di verità della disgiunzione prevede che sia vera in tre
possibilità su quattro, mentre quella della congiunzione in una possibilità su quattro. Chiedendoci quali
attributi accomunino tutti gli esemplari di una categoria, possiamo estrarre definizioni sintetiche basate
su regole di tipo deduttivo (concetti basati su regole). Però sappiamo estrarre efficacemente queste
regole solo quando esistono, cioè il concetto è veramente comprimibile e se sono semplici; negli altri
casi possiamo estrarre regole compresse approssimativamente, quindi ammettendo degli errori: in
questi casi è importante l’esperienza.
8.6.1.2 Concetti basati su prototipi
Quando non sono disponibili regole logiche precise, o sono troppo complesse, tendiamo a pensare a
schemi o prototipi del concetto, cioè un elenco di attributi frequentemente osservati (tipici) nei suoi
esemplari, anche se non sono presenti in tutti questi, o non sono tutti presenti contemporaneamente
nello stesso oggetto. Gli attributi più frequenti in una categoria fanno parte di un modello medio,
rappresentano una tendenza centrale. Quanto più numerosi sono gli attributi prototipici di un
esemplare, tanto più veloci saremo nel classificarlo: effetto di tipicità.
I risultati, tratti da esperimenti basati sull’effetto di tipicità, dimostrarono che nell’apprendere concetti, il
sistema cognitivo può astrarre “tendenze centrali”, trattarle come esemplari già visti, e classificare nuovi
esemplari in base alla loro distanza dalla tendenza centrale.
Si sviluppò così la teoria dei prototipi di Rosch, secondo cui una categoria è rappresentata nella mente
da un prototipo: la rappresentazione di uno o più esemplari medi molto tipici, cioè con molti attributi
frequentemente presenti in numerosi esemplari della categoria. In questa teoria, i concetti di maggior
rilievo psicologico, detti concetti di base, sono quelli per cui riusciamo ad estrarre dalle nostre
osservazioni un cluster (grappolo) di attributi dotati di alta cue validity (validità di indizio), che indica
quanto un certo attributo consenta di riconoscere un oggetto come appartenente o meno a una
categoria; concetti che apprendiamo più precocemente e facilmente di quelli sovraordinati o
subordinati, caratterizzati da minor diagnosticità.
8.6.1.3 Concetti che procedono da altri concetti: la ricombinazione concettuale
Se molti concetti si formano grazie all’osservazione e la valutazione di esempi, al crescere delle nostre
conoscenze se ne formano altri da combinazioni di concetti già acquisiti: processo fondamentale sia per
la creatività umana, sia per la comprensione del linguaggio.
Sgombrando il campo da conoscenze precedenti, le interpretazioni tipiche di concetti combinati mai
sentiti prima non sono totalmente libere, ma sono comprese in quattro categorie:
- Interpretazioni relazionali, che stabiliscono l’esistenza di qualche relazione tra il concetto
modificatore e il concetto testa. Esempio: una matita letto è una matita che si mette accanto al
letto per scrivere messaggi;
- Interpretazioni basate su sovrapposizioni di proprietà, che attribuiscono a un concetto una
proprietà dell’altro concetto. Esempio: una matita letto è una matita a forma di letto;
- Interpretazioni ibride, per cui il referente è l’unione del concetto modificatore con il concetto
testa. Esempio: un pesce lampada è un pesce abissale molto luminoso tipicamente portato in
vasi di vetro per essere usato come lampada;
- Interpretazioni a riferimento diretto, che associano la combinazione a un concetto già noto.
Esempio: una matita letto è una scatola di matite.
Il referente dell’interpretazione coincide spesso con la testa linguistica.
Una delle teorie di come avvenga la ricombinazione concettuale, secondo Costello e Keane, sostiene
che è guidata da tre criteri:
- Diagnosticità: ogni interpretazione deve contenere predicati diagnostici di entrambi i concetti.
Esempio: un cactus è più facilmente interpretabile come un pesce con le spine e non come
pesce verde, perché l’attributo spine ha maggior cue validity rispetto all’attributo verde;
- Plausibilità: ogni interpretazione deve descrivere un oggetto la cui esistenza è plausibile in base
alla frequenza dei suoi attributi in altri concetti conosciuti. Esempio: un “maiale angelo” è visto

34
come un maiale con le ali sulla schiena e non sulla coda, perché in altri concetti conosciuti, le ali
sono sulla schiena;
- Informatività: ogni interpretazione deve comunicare qualcosa di nuovo. Esempio: una “matita
letto” non può essere interpretata come una “matita di legno”, perché l’interpretazione non
fornisce informazioni nuove né sulle matite, né sui letti.
8.6.1.4 Concetti che modificano altri concetti: induzione basata su categorie
L’apprendimento di concetti può contribuire a costruirne altri, ma anche a modificarne altri ancora.
I principali studi empirici e modelli teorici dell’induzione basata su categorie hanno stabilito che la
forza di una conclusione induttiva di questo tipo dipende da diversi tipi di somiglianza tra le categorie
menzionate nelle premesse e quella menzionata nella conclusione. Nel modello della somiglianza-
copertura di Osheron e colleghi, la forza di una conclusione induttiva basata su categorie è determinata
da due fattori:
- Grado di somiglianza tra le categorie nelle premesse e quella nella conclusione, che dipende
dal numero di attributi in comune tra i concetti nelle premesse e quello nella conclusione;
- Grado di copertura delle premesse rispetto alla conclusione, che si riferisce all’estensione del
campionamento descritto nelle premesse, rispetto a quello necessario per includere la categoria
menzionata nella conclusione.
8.6.1.5 Altri tipi di rappresentazioni concettuali
Molti studiosi sostengono l’idea che nella memoria semantica non esista solo un tipo di
rappresentazioni concettuali, ma molti. Oltre alle regole e ai prototipi, vanno ricordate altre proposte:
- Combinazione nucleo concettuale + prototipo: il prototipo è basato su attributi diagnostici
e molto salienti, e costituisce la base della “funzione di riconoscimento”; in alcuni casi di
difficile classificazione si rende disponibile una versione “basata su regole” dello stesso
concetto, in grado di descriverne gli attributi necessari e sufficienti;
- Concetti come regole con eccezioni: gran parte dei concetti si basano su regole, che però
non sono perfette (regole imperfette modello bayes); per i teorici che hanno sviluppato
questa prospettiva le eccezioni sono codificate individualmente, trattenendole in memoria con
tutti i loro attributi;
- Concetti come collezioni di esemplari: una gran parte del nostro sistema concettuale non è
radicata in una memoria semantica separata da altre memorie, e neanche derivata per astrazione
dai singoli ricordi delle esperienze passate trattenuti in memoria episodica. Ma i concetti
coinciderebbero con l’insieme di tutti i ricordi degli esemplari conosciuti di una certa categoria.
Un nuovo esemplare è classificato attraverso un processo di stima di somiglianza basato in due
fasi:
• Una fase di confronto dell’esemplare con tutti i ricordi episodici incontrati in passato, in
cui l’output è un insieme di ricordi che superano una certa soglia di somiglianza con il
nuovo esemplare; se tutti ‘appartengono alla stessa categoria, il processo si interrompe e
il nuovo esemplare è riconosciuto come membro di quella categoria;
• Se invece i ricordi rievocati nella prima fase appartengono a più di una categoria, il
processo parallelo iniziale è seguito da un successivo giudizio analitico di somiglianza; il
nuovo esemplare sarà accreditato alla categoria in cui era stato classificato l’esemplare
rievocato che gli somiglia di più.
- Concetti come collezioni di regole incerte revisionate bayesianamente: quando un
individuo ipotizza una regola per definire un concetto, non è sicuro se sia corretta o sbagliata,
né di quante accezioni possa ammettere, quindi può sviluppare molte ipotetiche regole che
andranno a far parte della rappresentazione del concetto; se tutte le regole sono concordi, la
classificazione è rapida e accurata, se sono discordi è lenta e inaccurata. Se c’è un feedback sulla
correttezza o meno della classificazione, la fiducia nelle regole viene aggiornata bayesianamente,
finché una regola non si rivela più forte e affidabile delle altre;
- Concetti come teorie: aggregazioni di schemi di conoscenza causale (teorie) posso avere un
ruolo importante nella definizione di alcuni concetti;

35
- Sistema concettuale come simulatore quasi-percettivo: il sistema concettuale è soprattutto
un simulatore, cioè è in grado di creare modelli di situazioni, sviluppando concetti ad hoc,
costruiti sul momento in vista di specifiche situazioni e degli scopi delle nostre azioni. Molti
concetti sono calati nel contesto delle nostre azioni (grounded cognition, Barsalou); a questo
proposito Barsalou e colleghi hanno dimostrato che molte rappresentazioni concettuali sono
compenetrate di caratteristiche percettive e motorie: nel riconoscere un oggetto, attiviamo le
operazioni che potremmo svolgere con esso in quel contesto, e le corrispettive aree motorie nel
cervello.
8.6.2 La categorizzazione
La categorizzazione coinvolge meccanismi in parte abduttivi e in parte deduttivi. Ha due obiettivi:
- Semplificare le informazioni in ingresso, riconoscendo pattern complessi di stimolazione come
esempi di concetti noti (funzione di semplificazione o riconoscimento). Questa può
procedere in due modi:
• Per stime di somiglianza, che interviene quando i concetti sono rappresentati da
prototipi o da insiemi di esemplari, ed è abduttiva;
• Applicando regole, in questo caso possiamo usarle in stile deduttivo per riconoscere
singoli esemplari (inferenza modus ponens).
- Arricchire quegli esemplari generalizzando loro alcune proprietà del concetto (funzione
inferenziale o di generalizzazione). Questa si svolge in stile deduttivo e parte da due
premesse:
• L’esito del riconoscimento;
• Regole che descrivono l’associazione di un attributo al concetto, che generano
conclusioni di tipo modus ponens.
8.6.2.1 Due vie per categorizzare può voler dire due diversi esiti per la funzione di
riconoscimento
Il riconoscimento basato su regole è frequente quando la familiarità con un concetto è scarsa. Quando
la familiarità aumenta, interviene il più rapido riconoscimento basato su somiglianze. Entrambe le
procedure possono produrre errori. Nel primo caso, ciò accade quando la regola è poco adeguata, o
ammette eccezioni; nel secondo caso, gli errori possono avvenire perché è stata stimata male la
diagnosticità di un indizio, o per la propensione a ignorare le probabilità a priori.
Il maggior ricorso a classificazioni basate su somiglianze o regole distingue tra individui esperti in un
dominio e meno esperti.
8.6.2.2 Regole e somiglianze possono attivarsi insieme
Un individuo, nel classificare uno stimolo, si può avvalere sia di regole che di somiglianze. I risultati
degli esperimenti su questo argomento mostrarono che, la stima di somiglianza può interferire con il
giudizio di classificazione anche quando sono disponibili regole semplici, precise, che il partecipante è
addestrato ad utilizzare.
8.6.2.3 La categorizzazione basata su somiglianze approssima sempre correttamente
l’esito di un processo bayesiano?
La stima di somiglianze è la soluzione che l’evoluzione ha fornito al sistema cognitivo per approssimare
in modo rapido gli esiti di un giudizio bayesiano. Ma se nel riconoscimento percettivo, che cerca di
trasformare stimoli sensoriali in quadri percettivi, i suoi risultati sono sorprendentemente precisi, in
classificazioni di livello più alto, si espongono all’errore della “fallacia della probabilità a priori”. Nel
classificare basandosi su somiglianze verso i prototipi, il nostro sistema cognitivo corre il rischio di
categorizzare un concetto, nel caso in cui quel concetto sembri appartenere a quella categoria,
ignorando le probabilità a priori.

36
8.6.2.4 La funzione inferenziale (o di generalizzazione) della categorizzazione
Non sempre le informazioni che conosciamo su uno stimolo specificano il valore di tutti gli attributi
rilevanti per il concetto di riferimento, ma la classificazione procede ugualmente, basandosi sugli
attributi disponibili (funzione inferenziale).
Questa funzione è basilare per il sistema cognitivo: ci basta percepire pochi dettagli e, se sono
sufficienti per classificare lo stimolo, si rende subito disponibile alla mente un gran numero di
conoscenze riposte nel concetto che abbiamo attivato. Una volta classificato lo stimolo, può attivarsi un
meccanismo deduttivo di proiezione, cioè di generalizzazione da categorie a casi specifici (modus
ponens). La classificazione attuata con questo metodo, però, potrebbe anche rivelarsi falsa.
Lo stesso stile è utilizzato per inferenze di secondo ordine, creando vere e proprie catene inferenziali. Si
chiama distanza semantica il numero di passaggi inferenziali necessari per stabilire se questo tipo di
proposizioni sono vere. Più è ampia la distanza, più i tempi di risposta saranno lunghi.
8.6.2.5 I falsi ricordi e gli stereotipi sociali
A volte dimentichiamo di aver utilizzato inferenzialmente delle informazioni su un certo stimolo, invece
di averle percepite direttamente (ad esempio attribuendo una caratteristica ad un oggetto solo perché
siamo convinti che faccia parte di una certa categoria di oggetti, ma in realtà non ricordiamo se
effettivamente quell’oggetto ha quella caratteristica). Nella psicologia della testimonianza, questo
meccanismo contribuisce alla creazione di falsi ricordi; nella psicologia sociale, contribuisce ai fenomeni
di stereotipia.
Gli stereotipi sociali sono prototipi concettuali, molto radicati e culturalmente mediati, che
comprendono attributi salienti; nei casi in cui ci riferiamo a gruppi sociali, cui sentiamo di non
appartenere, spesso avvengono delle distorsioni, cioè consideriamo “tipici” e “diagnostici” attributi che
non lo sono. Da questo ne risulta l’evitamento sociale, che contribuisce alla ghettizzazione di gruppi
stigmatizzati da tratti, che anche se salienti, sono presenti solo in alcuni individui di quel gruppo.

8.7 Le esplorazioni e il controllo di ipotesi


Piuttosto che limitarci ad elaborare le informazioni che incontriamo, andiamo a cercarle e
determiniamo, in parte, quelle che raccoglieremo; questo grazie alle strategie di esplorazione (porre
certe domande e non altre, osservare certe situazioni e non altre, leggere alcuni giornali e non altri ecc.),
che vincolano le informazioni che riceveremo e potremo valutare, escludendone alcune a vantaggio di
altre. Queste strategie possono avere effetti importanti sulle convinzioni che ci formiamo e
manteniamo, per questo dagli studi sull’apprendimento concettuale è nata un’area di ricerca detta
psicologia del controllo di ipotesi, che si concentra sull’esplorazione e il controllo. Le prime ricerche
furono condotte da Wason, che sviluppò due compiti, che diventarono poi veri e propri paradigmi di
ricerca: il problema 2-4-6, e il compito di selezione (o problema delle quattro carte).
8.7.1 Il problema 2-4-6
Andando contro le parole di Popper, Wason sosteneva che gli umani sono “verificazionisti”, cioè
cerchiamo soprattutto conferme delle nostre ipotesi e non ci chiediamo se derivino da un controllo
equo, o se derivino dal modo in cui le abbiamo cercate.
Il compito di Wason riproduceva in forma semplificata i tre passaggi del metodo ipotetico-deduttivo:
formulare ipotesi, derivarne previsioni, controllare sperimentalmente quelle previsioni.
Il compito consisteva nel proporre una terna di numeri ai partecipanti (2-4-6), e dire loro che dovevano
indovinare la regola: lo sperimentatore avrebbe risposto “si” alle terne che rispettavano la regola e
viceversa. Quando i partecipanti credevano di aver capito la regola poteva dichiararla. La soluzione del
test originale era che la terna comprendeva “tre numeri in ordine crescente”, ma solo il 20% dei
partecipanti indovinava la regola subito, gli altri ci arrivavano proseguendo dopo le dichiarazioni
sbagliate. Spesso non veniva dato nessun “no” come risposta, questo perché i partecipanti in genere
esplorano solo terne congruenti con le sue congetture, non riflettendo sul fatto che controllando terne
in disaccordo con le loro ipotesi, avrebbero potuto individuare delle falsificazioni.
Grazie a questa parzialità della strategia di esplorazione, i partecipanti si convincono del fondamento di
ipotesi che invece sono errate (confirmation bias o tendenza alla conferma).

37
Il confirmation bias è la tendenza a convincersi della correttezza di un’ipotesi più di quanto sia
giustificabile in base alle informazioni disponibili.

Le osservazioni di Wason su questo compito furono:


- Per controllare un’ipotesi, le persone esplorano soprattutto esempi positivi;
- Nel compito in versione originale, l’esplorazione di casi positivi comporta la raccolta selettiva di
sole conferme, la fiducia del partecipante nelle sue ipotesi cresce fino a convincerlo della
correttezza delle ipotesi, anche se sono sbagliate;
- L’esplorazione di esempi negativi, cioè di casi difformi dall’ipotesi sotto controllo, qualche volta
si manifesta, ma avviene solo in fasi avanzate del controllo, dopo che sono stati esplorati diversi
casi positivi;
- Molti individui formulano e controllano una sola ipotesi per volta, ma una volta formulata
un’ipotesi e sviluppato un certo grado di fiducia verso questa, può intervenire un meccanismo
di focalizzazione che ci incoraggia a vedere la nostra ipotesi come unica possibile.
In breve, le persone formulano spontaneamente una sola ipotesi per spiegare i casi osservati, invece di
compararne molte; nel controllarla preferiscono esplorare una sola tipologia di casi, senza riflettere che
così precludono la possibilità di raccogliere molte altre informazioni rilevanti, tra le quali possibili
falsificazioni dell’ipotesi.
8.7.2 Il compito di selezione o “problema delle quattro carte”
Alcuni anni dopo, Wason creò il compito delle quattro carte, che si concentrava sui soli processi di
formulazione di previsioni in via deduttiva e sulla loro conseguente esplorazione, eliminando la
necessità di formulare ipotesi e di revisionarle.
Consiste nel presentare quattro carte, visibili solo da un lato, e dire ai partecipanti che ogni carta ha una
lettera su un lato e un numero sul l’altro; la regola condizionale era che se una carta aveva una D su un
lato, allora aveva un 3 sull’altro lato; lo sperimentatore chiedeva se per stabilire se la regola sia vera o
falsa, sia importante conoscere cosa ci sia nel lato nascosto di una precisa carta. La risposta corretta
sarebbe stata quella di sapere cosa ci fosse dietro la D e dietro al 7, mentre la maggior parte dei
partecipanti rispondeva D e 3.
I risultati particolarmente importanti sono stati:
- Esplorazione di casi positivi e mancata attenzione alle possibili falsificazioni: scegliendo
le carte D e 3, si decide di verificare solo i casi che possono dimostrarsi strettamente congruenti
alla regola; il partecipante non presta attenzione alle possibili falsificazioni. Questo pattern va a
corroborare la preferenza per i casi positivi e ne accentua l’associazione con il confirmation
bias;
- La strategia di esplorazione di basa sulle previsioni deduttive che il partecipante è in
grado di compiere: i risultati del compito indicano una vasta disponibilità dello schema modus
ponens (se D allora 3; giro D; dovrei trovare un 3), una maggior difficoltà dello schema modus
tollens (se D allora 3; giro 7 e non 3; dovrei trovare una non D), e una disponibilità intermedia
dello schema fallace di affermazione del conseguente (se D allora 3; giro 3; dovrei trovare D).
8.7.3 Cosa sappiamo oggi delle principali strategie di controllo delle ipotesi
I successivi studi sul controllo di ipotesi hanno precisato i risultati di Wason, affermando che il
controllo di ipotesi può essere scomposto in una fase strategica di esplorazione, o di ricerca di
informazione guidata da previsioni, e in una successiva fase di valutazione delle informazioni raccolte.
Un’ipotesi (o antecedente ipotetico) comporta una serie di previsioni, ciascuna con un grado di
probabilità. Sappiamo che la previsione può discriminare tra la presenza dell’antecedente e il
complemento, che è l’assenza dell’antecedente, solo se la previsione ha una diagnosticità non nulla.
Il controllo di una delle conseguenze è un test dell’ipotesi, quindi una domanda dicotomica (V o F?),
che serve a incrementare o ridurre la fiducia verso l’ipotesi.
Una strategia di esplorazione consiste nella preferenza per alcuni test rispetto ad altri (quali domande
porre per sviluppare, confermare, confutare o correggere le nostre congetture).

38
Ogni test dicotomico sulle previsioni è descritto da due parametri: la probabilità di ottenere risposta
positiva (complementare alla probabilità di ottenere risposta negativa); la forza diagnostica delle due
risposte, presenza della previsione o assenza della stessa.
Questi parametri permettono di calcolare la diagnosticità attesa di una domanda, che è la media della
forza diagnostica delle sue due risposte, in valore assoluto.
La diagnosticità attesa è in grado di determinare l’effettiva utilità logica di un test, quindi quale preferire
tra due o più test, per discriminare tra un’ipotesi e il suo complemento in modo razionale.

BOX. Il caso del vetraio di Hampstead


Il vetraio è scomparso. Sherlock Holmes ipotizza che Moriarty sia andato di recente a trovarlo;
l’ipotesi alternativa è che non ci sia andato e il vetraio sia scomparso per altri motivi. La fiducia nella
prima ipotesi è piuttosto bassa, quindi gli vengono in mente altri due indizi (previsioni derivabili
dalla sua ipotesi): se Moriarty è andato a trovarlo è molto probabile che un produttore di
componenti chimici abbia ricevuto un importante ordinativo, ma il produttore riceve molti ordini
sono solo da lui; se Moriarty è andato a trovarlo è possibile che il suo ex complice Kack, a cui
Moriarty ha giurato morte, sia corso a nascondersi, quindi non sarà in casa.
Sherlock ha poco tempo, o va a interrogare il produttore di sostanze chimiche, o va a cercare Jack.
Non conoscendo l’esito del test prima di averlo condotto, non possiamo sapere quanta
informazione ci fornirà dopo averlo fatto; quindi il nostro giudizio si dovrà basare sulla media delle
informazioni che è possibile ricevere: la diagnosticità attesa del test.

8.7.3.1 Tipi di test


Le tre principali dimensioni che descrivono i test studiati nella psicologia del controllo di ipotesi sono:
- Diagnosticità attesa: alcuni test hanno elevata diagnosticità, quindi hanno molte informazioni
su cui basarsi per discriminare tra un’ipotesi e il suo complemento in modo razionale, ed altri
hanno diagnosticità piuttosto scarsa;
- Positività o negatività: un test è positivo quando esplora un caso congruente con l’ipotesi,
quindi l’esito positivo supporta l’ipotesi e l’esito negativo la indebolisce. È negativo quando la
risposta no tende a confermare l’ipotesi e la risposta sì a falsificarla;
- Test simmetrici e asimmetrici: un test è simmetrico quando la diagnosticità delle due risposte
possibili è la stessa (o molto simile), in valore assoluto. È asimmetrico quando i valori sono
differenti. I test asimmetrici, inoltre, si dividono in confermanti (se la diagnosticità della risposta
a conferma è superiore di quella a falsificazione) e falsificanti (se la diagnosticità falsificante è
superiore a quella confermante).
8.7.4 Diagnosticità, positività, asimmetria: i tre fattori che guidano l’esplorazione, e i
loro effetti
8.7.4.1 Preferenza per i test diagnostici
Trope e Bassok mostrarono che, nel selezionare o formulare domande per controllare un’ipotesi, siamo
sensibili alla loro diagnosticità attesa e tendiamo a preferire quelle più diagnostiche. Questa generale
preferenza è modulata da altre tendenze psicologiche: preferenza per i test positivi, e preferenza per i
test estremi (asimmetrici falsificanti), a volte sostituita dalla tendenza a preferire quelli asimmetrici
confermanti.
8.7.4.2 Preferenza per i test positivi
Il risultato più replicato è la forte preferenza per i test postiti, che suggerisce una ricerca volta a
“conferme affermative e falsificazioni negative”: un’ipotesi può essere confermata tanto da una risposta
positiva ad un test positivo, quanto da una risposta no a un test negativo. Per questo dobbiamo riferirci
ai seguenti concetti per comprendere il perché sia così forte e generale la tendenza al controllo positivo.

39
- Controllo positivo e “selezione ottimale” di informazioni (modello Optimal Data
Selection – ODS sta per proposte analoghe). Alcuni analisti hanno dimostrato che in situazioni
in cui le ipotesi che esploriamo sono specifiche e circoscritte, e altrettanto lo sono le regole che
dobbiamo scoprire (assunti di rarità), attenersi ad uno stile di controllo positivo ottimizza il
contenuto di informazioni reperibile durante l’esplorazione, rispetto all’attenersi di una strategia
di controllo negativo. Il fatto che il controllo positivo sia emerso come una delle tendenze più
forti nell’esplorazione potrebbe aver costituito un utile adattamento a un ambiente dove le
ipotesi che richiedono controllo sono abbastanza specifiche. Questo non esclude che,
l’adattamento generale a uno stile di controllo positivo non comporti notevoli distorsioni di
giudizio in alcuni contesti.
- Controllo positivo e contesti epistemici: il caso delle ipotesi iperspecifiche. Se chi controlla
adotta una strategia positiva, la sua esplorazione si muove entro la regola ipotizzata. In questo
caso, se l’ipotesi è totalmente infondata, troverà solo falsificazioni. Se la regola ipotizzata è
generica o imprecisa, potrà trovare anche delle conferme. Nel caso in cui trovi solo un
sottoinsieme di casi confermanti, le falsificazioni lo aiuteranno a correggere le sue ipotesi.
Ipotesi iperspecifiche controllate positivamente daranno luogo esclusivamente o soprattutto a
conferme. Nella vita reale, sono un esempio di ipotesi troppo specifiche erroneamente
confermate a causa della strategia di controllo positivo, tutti quei ritualismi associati a qualche
obiettivo senza che contribuiscano a raggiungerlo. Quindi un individuo otterrà frequenti
conferme, per esempio ad una superstizione, che potrà radicarsi come abitudine. Fuori
dall’ambito delle superstizioni, le ipotesi iperspecifiche erroneamente confermate grazie allo stile
di controllo positivo possono avere importanti effetti sociali.
- Controllo positivo e acquiescenza. L’acquiescenza è la tendenza a dire sempre sì in alcuni
contesti sociali (per esempio quando vogliamo essere gentili, o quando percepiamo che la
persona che ci domanda ha un potere e uno status superiore o potrebbe nuocerci.
- Controllo positivo e pseudodiagnosticità. Il controllo positivo, spingendo alla ricerca e al
controllo di dettagli probabili qualora l’ipotesi sia vera, è il principale meccanismo che induce, in
alcuni casi, alla formulazione di giudizi o domande pseudodiagnostiche. Casi in cui ci chiediamo
se una conseguenza osservata sia vera, perché sappiamo che la probabilità della conseguenza in
presenza dell’ipotesi è particolarmente alta, trascurando il fatto che non sappiamo niente della
probabilità della conseguenza in assenza dell’ipotesi. In questi casi la diagnosticità effettiva della
conseguenza non può essere stimata, e quindi la conseguenza è inutile ai fini di controllo. Il
controllo positivo è una strategia pressoché necessaria per un efficiente controllo di ipotesi in
molti ambienti. In altri casi può produrre tendenze, anche molto forti, a confermare
repentinamente ed eccessivamente le ipotesi controllate.
8.7.4.3 Preferenza per i test estremi
I test estremi sono anche asimmetrici falsificanti: la risposta che conferma l’ipotesi è più probabile di
quella che la falsifica, ma più debole. Quindi, se usati ripetutamente consentono di raccogliere molte
conferme deboli, e poche falsificazioni forti dell’ipotesi. Le persone che li adottano, quindi, finiranno
col riporre troppa fiducia nell’ipotesi: cioè, la strategia di controllo estremo, se associata a insensibilità
nella stima della forza degli esiti del test, può facilmente causare un confirmation bias.
8.7.4.4 Optare per test asimmetrici confermanti
Trope e Thompson, in compiti di controllo di ipotesi relative ad attribuzioni sociali, individuarono una
tendenza a preferire test asimmetrici confermanti, con bassa probabilità di raccogliere conferme forti
e alta probabilità di individuare falsificazioni deboli. Questa preferenza sembra emergere solo quando
attribuiamo un’elevata probabilità a priori dell’ipotesi, grazie a un qualche stereotipo.
Per questi studiosi, la preferenza per la domanda simmetrica o quella asimmetrica dipende dagli
stereotipi attivati. Anche una strategia asimmetrica confermante può provocare il confirmation bias, ma
per ragioni opposte a quelle già spiegate: le risposte falsificatorie sono frequenti, ma talmente deboli che
potremmo facilmente ignorarle.

40
Sacchi, Rusconi e Russo hanno trovato che, in compiti dove le ipotesi da controllare riguardano tratti di
personalità di persone appartenenti al proprio gruppo sociale, o ad un altro, la strategia di controllo
interagisce con il tipo di tratto e il tipo di gruppo: preferiamo domande asimmetriche confermanti per
controllare tratti positivi di persone del proprio gruppo, e tratti negativi di persone di un altro gruppo.
Al contrario, optiamo per strategie più simmetriche quando controlliamo la presenza di un tratto
negativo in una persona del nostro gruppo, e di un tratto positivo in una persona che non appartiene al
nostro gruppo.
Questa e altre ricerche sembrano indicare che le preferenze per controlli asimmetrici, sembrano almeno
in parte modulate da aspetti motivazionali, evocati dal contenuto delle ipotesi da controllare.

8.7.5 La fase di valutazione delle informazioni


Le strategie di valutazione guidano la raccolta di informazioni durante il controllo, che devono poi
essere valutate e interpretate per arrivare alla revisione delle ipotesi.
Oltre alla scarsa capacità di discriminare differenze quantitative nella forza di prove pro e contro
un’ipotesi, e la tendenza a ignorare informazioni molto poco diagnostiche, altre tendenze psicologiche
che influenzano la valutazione, e che dipendono sia da processi cognitivi, sia da aspetti motivazionali,
sono:
- Effetti di primacy: spesso, nel controllo delle ipotesi vengono raccolte più informazioni in
serie, nel corso del tempo; in molti casi, l’importanza dei primi dati raccolti è sovrastimata
(primacy). Quando la serie di informazioni è piuttosto lunga, e ogni informazione è piuttosto
complessa, questa tendenza si inverte, dando spazio all’effetto di recenza.
- Sovrastima delle conferme: le informazioni che supportano un’ipotesi sono sovrastimate
rispetto a quelle che la confutano. Uno di questi fenomeni è costituito dai cosiddetti eventi a
una sola faccia → eventi che notiamo solo o soprattutto quando confermano un’ipotesi, e li
ignoriamo quando non la confermano.
- Costruzione confermatoria di evidenze ambigue: quando un dato ha più interpretazioni,
tendiamo a notare solo quelle a supporto, quindi anche indizi ambigui possono essere
interpretati come conferme di ipotesi sotto controllo.
- My side bias (tendenza del “partito preso”): le tendenze sopracitate si verificano soprattutto
quando controlliamo un’ipotesi che crediamo vera rispetto al gruppo a cui sentiamo di
appartenere. Secondo Baron questo bias ha un aspetto puramente motivazionale, nel senso che
ognuno è in grado, se obbligati o esortati a farlo, di costruire interpretazioni di alcuni eventi
opposte al proprio credo, ma non lo facciamo spontaneamente; questo probabilmente a causa
di fattori sociali legati al senso di appartenenza al gruppo. Ma questo non esclude che il my side
bias non abbia anche un riflesso cognitivo: quando è integrato con preferenze strategiche
nell’esplorazione, come il controllo positivo, può generare tendenze alla conferma inappropriata
delle proprie opinioni.
- Feature positive effect (sottostima delle informazioni veicolate da assenze): la nostra
attenzione viene attirata da dettagli presenti e molto meno da quelli assenti in una scena, nella
valutazione di indizi tendiamo a considerare le informazioni associate a dettagli presenti e a
sottostimare quelle dipendenti dall’assenza di qualcosa. Diversamente dal punto di vista logico,
da quello psicologico se un’informazione a supporto o a confutazione di un’ipotesi, sia associata
alla presenza o all’assenza di un dettaglio, è un fattore importante. Considerando che il
controllo positivo è volto a verificare la presenza di attributi a conferma di un’ipotesi, e che è
l’assenza di questi attributi che va a confutarla, si capisce come questa tendenza psicologica
possa amplificare il confirmation bias: cerchiamo dettagli che possono confermare le nostre
ipotesi; se li troviamo, le confermiamo; se non le troviamo, non le indeboliamo. Pur
condividendo un ambiente simile e la stessa disponibilità di informazioni, persone diverse si
convincono della verità di ipotesi e opinioni diverse e opposte, provocando cosi un conflitto;
per questo il confirmation bias è considerato uno dei fenomeni più importanti studiati dalla
psicologia dei processi cognitivi.

41
CAP 9. RAGIONARE PER RISOLVERE PROBLEMI
9.1 Tra pensiero e azione
Si è spesso evidenziato l’aspetto adattivo dei processi conoscitivi umani; “adattarsi” nella vita di tutti i
giorni spesso significa arrovellarsi per risolvere problemi: usare il proprio ingegno e la propria capacità
di ragionamento per cercare di modificare situazioni che ci danneggiano, o per rimuovere gli ostacoli
che ci impediscono di raggiungere qualche obiettivo. Questo è un modo di intendere il problem
solving. I fattori principali che esistono tra l’individuare un problema e la sua soluzione (o mancata
soluzione) sono il tipo di rappresentazione del problema che costruiamo, e i processi di ragionamento,
di esplorazione e di esecuzione attuati nella ricerca di soluzioni.
Nella vita reale, non percepiamo i cambiamenti qualitativi che avvengono: da uno stile di pensiero
abduttivo, supportato da recuperi di conoscenze induttive e ricordi specifici; ad uno stile deduttivo,
che stabilisce le conseguenze di ogni nuova informazione; a fasi di controllo, che stabiliscono se quelle
conseguenze si verificano; e a far interagire dati di pensiero con dati tratti dai sensi e dall’elaborazione
percettiva e attentiva. Ma lo percepiamo, invece, come un processo continuo, fluido, dove processi
mentali e azioni interagiscono. Quando il meccanismo si inceppa, ad esempio non riuscendo a risolvere
il problema, però, notiamo qualche difficoltà, ed è anche per questo che gli studi psicologici si sono
molto soffermati sugli errori. Grazie a questa cooperazione tra diverse forme di pensiero e azione, i
processi cognitivi aiutano a risolvere problemi, rimuovere ostacoli, e ad adattarci all’ambiente.
Didascalia 9.1 Alcuni processi coinvolti nella soluzione di un problema
Le prime tre componenti del problem solving sono:
- Rilevazione del problema, che è un confronto tra i propri obiettivi e l’ambiente attuale
(esempio: vorrei il libro; non lo trovo da nessuna parte);
- Impianto logico, che è di tipo ipotetivo-deduttivo e può bastare per risolvere problemi astratti,
ma non pratici;
- Operazioni concrete, che sono in interazione con l’ambiente. Possono non generare sotto-
problemi, detti ostacoli di esecuzione, ma in alcuni casi succede (esempio Sherlock → potrebbe
correre dei rischi nello svolgere un test).
La conclusione del problema è valida se le premesse sono tutte vere, ma per capire se lo sono realmente
vanno analizzate le altre due componenti del problem solving:
- Rappresentazione del problema: è la conseguenza delle iniziali congetture sul problema, e
rappresenta ciò che sappiamo in quel momento. Lo stupore della rilevazione del problema ci
induce a chiedercene la ragione, quindi cerchiamo spiegazioni (abduzione); le nostre
conoscenze suggeriscono che ci sono varie spiegazioni possibili, quindi recuperiamo anche
strutture causali apprese induttivamente, e relative alle proprietà del mondo fisico ad esempio;
quindi analizziamo la nostra memoria per cercare di risolvere il problema. A questo punto
abbiamo costruito una rappresentazione del problema, o spazio del problema, composta da
diverse possibilità: possono essere luoghi, quindi controllarle richiede la loro esplorazione;
possono essere azioni a mia disposizione, che possono avvicinarmi alla soluzione del problema
(operatori). L’esecuzione di azioni volte a controllare o modificare l’ambiente presuppone di
avere a disposizione conoscenze causali su quell’ambiente: quanto più sono povere e
inadeguate, tanto più i tentativi di soluzione si configureranno come una ricerca per prove ed
errori; se sono ricchi di conoscenze accurate, la soluzione può essere raggiunta in modo rapido
e fluido (problem solving degli esperi);
- Ricerca della soluzione: è anch’essa la conseguenza di un ragionamento induttivo volto alla
spiegazione. La ricerca della soluzione è iterativa, cioè controllata una possibilità, occorre
procedere a controllare le altre; il controllo si costituisce come una ricerca positiva di
informazioni. Se risolvo il problema in modo fluido, diretto, dallo stato di partenza all’obiettivo
senza mai tornare indietro, si parla di backtracking. Se non lo risolvo, mi convinco

42
deduttivamente di aver sbagliato qualcosa; in questo caso se non ho più tempo, risorse
cognitive, o adeguata motivazione, abbandono il problema. Se invece posso investire ancora
risorse, intraprendo la fase di revisione di ipotesi: ricomincio da capo, cercando si stabilire come
generare un’altra rappresentazione del problema (ristrutturazione del compito).

9.2 L’approccio Gestaltico


Gli studi gestaltici hanno affrontato la complessità del problem solving con un approccio globale, o
olistico, avvalendosi di problemi la cui soluzione richiedeva molti e diversi processi, soffermandosi sui
principali fenomeni (“ciò che appare”) psicologici legati al problem solving.
9.2.1 Il pensiero riproduttivo e il pensiero produttivo
Nella prospettiva gestaltica la percezione e il pensiero non erano considerati entità separate, ma
fenomeni della vita mentale, rispondenti agli stessi principi. I termini “pensiero con immagini” o “senza
immagini” di Wundt e Külpe, furono sostituiti con una distinzione tra pensiero riproduttivo e
produttivo.
Il pensiero riproduttivo consiste nella capacità di replicare schemi appresi in passato; è associativo ed è
guidato dall’esperienza. Ad esempio, un’azione appresa per prove ed errori alla fine viene riprodotta
quasi subito.
Il pensiero produttivo consente di generare una soluzione creativa ad un problema, non diretta, e mai
esperita prima in quella forma; quindi, ristruttura la rappresentazione del campo percettivo. Coincide
con il titolo di due trattati, uno di Duncker e uno di Wertheimer, ma non furono questi i primi trattati a
portare l’attenzione sul pensiero produttivo; le prime importanti osservazioni empiriche della Gestalt
sul pensiero produttivo furono compiute su animali non umani…
9.2.2 Le scimmie di Köhler
Köhler studiò soprattutto il comportamento di diversi scimpanzé posti di fronte a problemi, perché li
considerava più simili alla specie umana, rispetto ad altri primati. I problemi consistevano nel presentare
cibo agli scimpanzé in posizioni non direttamente raggiungibili: tirava una banana fuori dalla finestra e
la chiudeva, lo scimpanzé era in grado di uscire dalla porta per prendere la banana. Per questo
dobbiamo considerare il fatto che per andare in direzione della porta e non della finestra, lo scimpanzé
doveva avere a disposizione una mappa mentale dell’ambiente, entro la quale si rappresentava
possibili percorsi alternativi rispetto a quello diretto; quindi, la soluzione era raggiunta attraverso un
tipo di pensiero che non rispondeva solo ai dati sensoriali, né alla sola applicazione meccanica di schemi
appresi. Già questa forma per Köhler costituiva pensiero produttivo: il pensiero si è risolto per prove
ed errori, ma questi sono simulati nella mente, invece che agiti nell’ambiente.
In seguitò creò esperimenti più complessi: presentò agli scimpanzé del cibo appeso troppo lontano per
essere raggiunto con un braccio; nella gabbia erano presenti oggetti anche assemblabili. Alcuni di loro
riuscirono a creare soluzioni creative e complesse, e in alcuni casi riuscivano anche a cooperare tra loro.
In base a queste osservazioni Köhler descrisse una sequenza di fenomeni osservabili durante i tenstativi:
- Di fronte ad un problema nuovo, tendevano a produrre tentativi diretti e non efficaci;
- A volte si fissavano con un certo tipo di soluzione, anche dopo aver visto che non era efficace;
- Si ritiravano in una pausa di inattività durante la quale sembravano riflettere;
- Quando emergevano dalla pausa, si dirigevano direttamente verso alcuni oggetti e li
combinavano e utilizzavano per tentare una soluzione nuova rispetto alle precedenti.
Questo tipo di processo ha una struttura ipotetico-deduttiva iterativa, cioè esplora più volte e in
sequenza le conseguenze di diverse possibilità.
Köhler aggiunse molte altre osservazioni e tra queste è importante ricordare che il comportamento
degli scimpanzé da lui studiati fu molto variabile tra individui: non tutti riuscivano a risolvere i problemi
trovando soluzioni nuove, quindi alcuni erano capaci di risolvere problemi complessi e altri meno. Se si
definisce l’intelligenza come capacità di adattamento all’ambiente, alcuni erano più intelligenti di altri.

43
9.2.3 Fenomenologia del problem solving
Köhler, e poi Duncker e Wertheimer descrissero una fenomenologia del problem solving, cioè
manifestazioni comportamentali frequentemente osservate durante la risoluzione di alcuni tipi di
problemi, detti problemi per insight:
- Impasse: il partecipante ha esplorato tutte le possibilità a sua disposizione, ha prodotto una
serie di tentativi senza raggiungere un buon esito. Si blocca e può abbandonare il compito;
- Fissità o fissazione: il partecipante tenta più volte una strategia rivelatasi inefficace. Non riesce
a distaccarsi da vecchie ipotesi per sviluppare nuove possibilità;
- Incubazione: una pausa tra diversi tentativi di soluzione e durante la quale non ci si dedica al
problema, può aiutare a trovare nuove possibilità di soluzione;
- Aha-Erlebnis (“esperienza ah-ah”): indica il momento in cui “si accende la lampadina”, che si
può svelare improvvisamente dopo tutti gli altri stati.
9.2.3.1 Ma sei proprio fissato! Effetti di fissità
Il fenomeno di fissità indica un’influenza negativa di precedenti apprendimenti sulla possibilità di
affrontare un problema con mente sgombra, aperta a soluzioni nuove e creative. Conoscenze
precedenti, apprendimenti passati, e assunti spontanei verso la struttura del problema impongono
vincoli che possono impedire il raggiungimento della soluzione. Duncker illustrò un tipo particolare di
fissità, la fissità funzionale, che definì come un “blocco mentale che impedisce di usare un oggetto in
un modo nuovo”; dimostrò questo grazie a degli esperimenti, tra i quali il problema della candela:
presentava una candela, una scatola di puntine e una scatola di fiammiferi; diceva ai partecipanti di
attaccare la candela al muro in modo che illuminasse la stanza. La maggior parte entrava in una fase di
impasse e rinunciava dopo alcuni tentativi; pochi di loro riuscirono a ristrutturare il problema
creativamente. Nei casi in cui la soluzione si verificava, sembrava uscire fuori improvvisamente,
accompagnata da Aha-Erlebnis. Questo tipo di sblocchi improvvisi sono detti soluzioni per insight
(intuizione).
Altri studiosi suggerirono, ponendo altri problemi, che se la fissità funzionale deriva da conoscenze
precedenti, allora individui con minor disponibilità di conoscenze precedenti dovrebbero esserne meno
soggetti.
German e Defeyter sostenevano che se le conoscenze precedenti sono fondamentali, è anche vero che
a volte possono “imbrigliare” la fantasia. Infatti, i risultati estratti dai loro test suggerivano che i
bambini piccoli, meno vincolati da schemi di conoscenza acquisita, possono meglio di altri vedere
situazioni problematiche con occhi nuovi, e risolverle più creativamente.
Abraham Luchins, studiò glie effetti di fissità dovuti all’Eistellung (impostazione soggettiva o mental
set): il modo in cui ci poniamo di fronte ad un problema può determinare ostacoli per la sua soluzione.
Questo è stato illustrato dimostrando che soluzioni precedentemente offerte a problemi simili possono
meccanizzare il ragionamento volto alla soluzione di un nuovo problema: dal pensiero produttivo, che
affronta problemi nuovi, si passa ad uno stile di pensiero riproduttivo, cioè la meccanica applicazione di
schemi e regole appresi in passato
9.2.3.2 Meglio dormirci sopra: l’incubazione
Wallas ipotizzò che ignorare il problema per un po’ aiuti ad uscire da un’impasse o da una fissazione.
Sio e Ormerod hanno fatto una meta-analisi su questo fenomeno e, i risultati ottenuti mostrano che
esiste un effetto significativo del tempo di incubazione: è maggiore per i problemi che richiedono una
soluzione creativa, e cresce in base al tempo dedicato al problema prima dell’incubazione.
Gli effetti dell’incubazione possono essere dovuti ad elaborazione inconscia, anche durante il sonno: la
nostra mente continua ad elaborare il problema subliminalmente, mentre ci dedichiamo ad altro.
Possono essere dovuti anche ad un tipo particolare di oblio: durante il tempo di incubazione tendiamo
a dimenticare le informazioni relative a quali strategie abbiamo tentato, ai presupposti che abbiamo
considerato, e a tutte quelle altre “gabbie mentali” che determinano la fissità.

44
9.2.3.3 Ho visto la luce! Ristrutturazione per insight
Spesso la revisione della rappresentazione iniziale di un problema, dopo alcuni tentativi falliti, può
avvenire tramite consapevole, progressiva esplorazione di possibilità alternative; ma altre volte, le
ipotesi e le possibilità si esauriscono, e il problema ci sembra impossibile da risolvere. Nel secondo caso
può giungerci una fortunata intuizione improvvisa, ristrutturante il materiale di pensiero. Il termine
insight si riferisce a questa ristrutturazione o ricentramento improvviso del campo percettivo.
Per i gestaltisti, questo è un processo creativo, e l’esperienza soggettiva corrispondente è quella di una
scoperta o illuminazione improvvisa (Aha-Erlebnis); ma è rimasto a lungo il dubbio se l’insight fosse
veramente il prodotto di un processo di scoperta qualitativamente diverso, o una delle manifestazioni
fenomeniche del processo di ricerca passo dopo passo della soluzione. Ad esempio, le scimmie di
Köhler potevano non aver risolto i loro problemi con un improvviso insight creativo, ma attraverso il
graduale recupero dalla memoria di strategie apprese in passato e adattate al nuovo problema. Oggi
sappiamo che gli animali sono in grado di fare ragionamenti causali e strumentali, e che molti primati
sanno usare alcuni strumenti, costruirne altri, e riconoscere le loro proprietà rilevanti per un compito,
anche in assenza di esperienze precedenti. Comunque, la comprensione animale dell’uso di strumenti
sembra qualitativamente diversa da quella umana: è più basata sulle relazioni tra attributi concreti e
visibili, che sulla rappresentazione e ristrutturazione di relazioni astratte.
Janet Metcalfe e colleghi studiarono due diversi tipi di problemi: alcuni erano problemi per insight e
altri erano tipici problemi incrementali, per cui la soluzione era raggiunta passo dopo passo. Durante
la ricerca di soluzioni, i partecipanti dovevano esprimere la loro fiducia a priori verso le loro capacità di
risoluzione. I risultati suggerirono che, le soluzioni incrementali derivano da un processo controllato,
sugli esiti del quale il solutore può fare previsioni affidabili; le soluzioni per insight (o pop-out) derivano
da processi fuori dal controllo consapevole del solutore, e sul loro esito non sono possibili previsioni
accurate.
In altri studi basati sull’individuazione di aree cerebrali attive nei due diversi compiti, scaturirono delle
dissociazioni tra aree cerebrali maggiormente attive nei processi di insight e quelle più attive nelle
soluzioni incrementali. Questi risultati appoggiano l’idea che i processi su cui si basa l’insight siano,
almeno in parte, qualitativamente diversi da quelli legati all’esplorazione seriale.
Bowden e Jung-Beeman sostengono che le soluzioni per insight sono basate sulla costruzione di nuove
associazioni tra materiale prima non connesso. Qualcosa, però, accomuna i due tipi di soluzioni, infatti
se la soluzione per insight si presenta improvvisamente alla consapevolezza, sembra che si sviluppi
gradualmente nel tempo, in proporzione alla quantità di informazione che si è resa disponibile. Per
chiarire questo punto, applicarono un secondo esperimento, del quale i risultati indicano che anche alla
base di soluzioni che compaiono improvvisamente vi sia un processo di elaborazione incrementale,
simile a quello che avviene nelle revisioni consapevoli e seriali della rappresentazione del problema.
Quel processo, però è inconsapevole, e probabilmente avviene in parallelo e non serialmente.
Per rispondere al come possa aver luogo la ricerca inconscia delle idee nuove, dal punto di vista
computazionale, è stata illustrata una proposta ispirata alla teoria neodarwiniana dell’evoluzione naturale
(processo di ricombinazione e mutazione di geni in molte forme di vita diverse, selezionate sotto la
pressione di stimoli ambientali: processo in grado di produrre soluzioni sempre nuove e intelligenti ai
problemi di adattamento). Il processo si svolge in due stadi:
- Generativo, che formula in modo non deterministico idee arbitrarie, combinando insieme a
caso gli elementi di conoscenza preesistenti;
- Valutativo, che agisce da filtro e si basa su criteri prestabiliti (obiettivi); il filtro valuta le idee
prodotte, gli attribuisce una forza proporzionale alla loro capacità di contribuire alla
ricombinazione di nuove idee in futuro; le idee che sopravvivono servono da input per una
nuova fase generativa.
9.2.3.4 Ma che goffo! Ostacoli di esecuzione
Nel modello di Ohlsson è il rilassamento dei vincoli uno dei fattori determinanti nel consentire
l’emersione di una soluzione nuova e creativa, ma questo fattore non è sempre sufficiente. La
rimozione dei blocchi mentali e il rilassamento dei vincoli consente, più che di risolvere il problema, di

45
esplorare un maggior numero di possibilità; se poi attraverso queste possibilità riusciamo a giungere alla
soluzione, questo è anche dovuto alla presenza o meno di ostacoli di esecuzione: potremmo non
riuscire a svolgere con efficacia le operazioni resesi disponibili.

9.3 Risolvere problemi è una passeggiata: spazi del problema e procedure di


ricerca
Newell (matematico e scienziato cognitivo), Simon (economista, psicologo e poliedrico pensatore) e
Shaw (programmatore) svilupparono il Logical Theorist (LT), un programma per dimostrare
automaticamente alcuni teoremi logici e fu l’unico programma in forma eseguibile ad essere presentato
alla prima conferenza dedicata all’intelligenza artificiale. A quei il programmatore inseriva le istruzioni
nella macchina, non con espressioni di “alto livello”, ma in forma “0”, “1”, e operazioni elementari.
Simon considerava un solutore di problemi come un agente a razionalità limitata: le memorie e il tempo
di esecuzione non sono infiniti. Secondo lui, chi risolve problemi non cerca sempre soluzioni ottimali,
ma “buone abbastanza” rispetto agli obiettivi e alle risorse a disposizione (per questo coniò il nome
satisficing, dall’unione di soddisfare, ed essere sufficiente).
I primi studiosi di intelligenza artificiale implementavano programmi volti alla soluzione di problemi
prendendo spunto dal modo in cui li risolvevano gli umani: si facevano descrivere tutti i passaggi
utilizzati per la soluzione di un problema e li raccoglievano. Da questo Newell e Simon individuarono
una procedura euristica di ricerca di una soluzione in grado di semplificare lo spazio degli stati, e di
guidare un solutore dall’inizio alla fine del processo risolutivo. Diventò una strategia di compressione
del problema molto utilizzata negli studi di intelligenza artificiale, con il nome means-ends analysis
(analisi mezzi-fini). I due procedettero a formulare una teoria generale formale del problem solving
umano, basata su simulazioni computazionali: il General Problem Solver (GPS), che descrive solo i
processi di ricerca della soluzione, una volta data una rappresentazione iniziale (lo spazio degli stati
generato dallo spazio del problema). Per questo problema, la teoria e le sperimentazioni psicologiche
collegate a questa si concentrano su problemi ben definiti: problemi in cui gli operatori utilizzabili per
passare da uno stato all’altro sono chiari, semplici e circoscritti, e in cui gli obiettivi da conseguire sono
altrettanto chiaramente descritti.
9.3.1 Mappe e bussole
Dal punto di vista matematico, un problema ben definito può essere completamente descritto da:
- Uno stato iniziale: vettore finito di caratteristiche o parametri, ognuno dei quali può assumere
un numero finito di valori, con ogni parametro istanziato a un valore specifico;
- Uno stato obiettivo (goal) o terminale: stesso vettore dello stato iniziale, ma con valori diversi;
- Insieme finito di funzioni o operatori: ognuno dei quali riceve un vettore di stato, ne modifica
il valore e ritorna in uscita un diverso vettore di stato;
- Una metrica: in grado di misurare la differenza tra due vettori di stato.
Lo “spazio” da colmare per passare dallo stato iniziale a quello terminale è il problema. Le mosse da
fare (operatori da applicare) per colmare quello spazio sono la sua soluzione. L’unico modo che ha, per
fare questo, un sistema non intelligente è procedere per prove ed errori, ma non è una procedura molto
efficace, né efficiente; un modo un po’ più intelligente è per prove ed errori, ma con memoria: le mosse
già applicate non vengono ripetute. Questi sono chiamati algoritmi di ricerca, anche se entrambi non
sono efficienti, per esserlo avrebbero bisogno di una mappa e una bussola per sapere in che direzione si
muovono. Nel problem solving automatizzato esistono:
- Algoritmi di ricerca esaustivi, in grado di valutare sistematicamente tutti i percorsi disponibili e
scegliere quello più breve;
- Algoritmi di ricerca euristici, che non garantiscono di trovare una strada verso l’uscita e
soprattutto di trovare la strada più breve, però sono strategie molto utili, che consentono di
trovare soluzioni “buone abbastanza” risparmiando sulle risorse di elaborazione e memoria, e
sul tempo di esecuzione.

46
9.3.1.1 La mappa: lo spazio degli stati
Dato un problema ben definito, l’insieme di tutte le possibilità che si possono ottenere applicando ai
vettori tutti gli operatori disponibili, è lo spazio degli stati: uno spazio esaustivo, combinatorio, una
virtuale “mappa completa del territorio” da percorrere per avvicinarsi al goal. Tutti i giochi da tavolo
possono essere descritti come uno spazio degli stati, ma per molti di questi lo spazio degli stati, cioè
tutte le possibili combinazioni che si possono realizzare in una partita, è sì finito, ma vastissimo.
Il modo più semplice per esemplificarlo è la versione più semplice della torre di Hanoi di Edouard
Lucas, gioco utilizzato in alcuni protocolli di valutazione neuropsicologica. Le regole sono: spostare
tutti i dischi sul terzo piolo nello stesso ordine in cui sono sul primo, muovere un disco per volta, non
mettere mai un disco più grande sopra uno più piccolo. Lo spazio degli stati della versione più semplice,
a tre dischi, è come minimo di 8 passaggi.
Per Newell e Simon, lo spazio del problema è la comprensione iniziale del problema, che permette di
generare lo spazio degli stati che connettono la condizione iniziale con quella terminale; loro estraevano
la rappresentazione del problema usata dai solutori umani dai loro protocolli, poi simulavano lo spazio
del problema nel programma GPS, cercando di ricreare le modalità con cui il partecipante umano aveva
cercato una via verso la soluzione.
9.3.1.3 Una bussola più rozza: l’hill-climbing
Newell e Simon identificarono altre strategie di ricerca euristica, compreso l’hill-climbing
(arrampicamento sulla collina). Questa non richiede memoria, ma richiede di sapere solo quale sia
l’obiettivo, e quale sia lo stato attuale. Si può paragonare ad uno scalatore cieco, che per raggiungere la
vetta fa solo passi in salita, seguendo il ragionamento che sale sempre e non scende mai, prima o poi
arriverà. Tecnicamente si tratterebbe di confrontare il vettore che descrive lo stato iniziale, con quello
che descrive lo stato terminale, valutando la distanza di ogni parametro del primo da ogni parametro del
secondo; di scegliere, poi, una mossa che riduca la distanza di almeno uno dei parametri, senza
aumentare quella degli altri. L’hill climbing è molto efficiente, ma può essere poco efficace, perché può
non incrementare molto la possibilità di raggiungere la vetta. Tecnicamente questa strategia può portare
al raggiungimento dei massimi locali, cioè punti in cui ogni operazione possibile aumenta la distanza
dall’obiettivo, che non coincidono con la soluzione.
Il problema può essere in parte attenuato quando si è in grado di distinguere lo stato terminale dai
massimi locali, e in caso di massimo locale si consente il backtracking, cioè il tornare indietro lungo la
via percorsa e ripartire da lì.
9.3.2 Ripiegare, ripiegare! Il backtracking
Quando ci accorgiamo che una via imboccata non può portare alla soluzione, ci rimane solo di tornare
indietro (backtracking) o abbandonare il problema.
Nella prospettiva di Newell e Simon, il backtracking è un vero e proprio ripiegamento, che può essere
difficile da attuare durante l’hill climbing, e il doverlo fare può generare impasse e abbandono del
compito. Se riusciamo a tornare indietro, possiamo esplorare una possibilità non ancora perseguita; in
qualche caso, ad esempio nei problemi di insight, questo può richiedere una ristrutturazione: pensare
nuove possibilità di azione, o ridefinire gli obiettivi.
Simon arrivò a considerare la ristrutturazione per insight, descritta dall’approccio gestaltico, come una
ridefinizione dello spazio problema: ricerca entro il meta-spazio costituito da tutti i possibili spazi con
cui si può descrivere un problema.

9.4 Conoscenze precedenti e problem solving


Lo scopo generale della teoria di Newell e Simon era quello di circoscrivere alcuni processi
fondamentali, che sembrano accomunare tutti i problemi; ma nel problem solving umano e animale il
contenuto conta molto.
Simon e colleghi lo dimostrarono con diversi problemi, da cui ricavarono che, non estraiamo strutture
problemiche astratte entro cui cercare la soluzione, altrimenti tutte le varianti isomorfe di uno stesso
problema sarebbero risolte allo stesso modo; la rappresentazione del problema che costruiamo dipende
molto dai contenuti e dal modo in cui il problema è descritto. Una modalità di intervento dei contenuti

47
è attraverso l’evocazione di conoscenze precedenti, con le quali, un modo per influenzare il problem
solving che consente di connettere ragionamento produttivo e riproduttivo, è il ragionamento per
analogia.
9.4.1 Il ragionamento per analogia
Il ragionamento per analogia consiste nell’individuare alcune speciali somiglianze tra un insieme di
conoscenze passate relative ad un problema già risolto e un problema nuovo con cui ci stiamo
confrontando. In base a quelle somiglianze ipotizziamo che la vecchia soluzione possa, una volta
adattata, applicarsi anche al nuovo caso. Questo è stato dimostrato con il problema del generale che
deve abbattere una fortezza, e con il problema del dottore che deve distruggere un tumore.
Le fasi in cui può essere scomposto un ragionamento per analogia sono:
- Fase di recupero: è la fase in cui ci chiediamo come risolvere il problema nuovo (bersaglio),
che fa da cue (indizio) per recuperare dalla memoria una o più sorgenti di analogia (dominio di
conoscenze già acquisite);
- Fase di mapping o di allineamento strutturale: fase in cui si cerca di stabilire un isomorfismo
parziale (mettere in corrispondenza almeno parte della struttura delle conoscenze sorgente con
parte della struttura bersaglio);
- Fase di transfer o trasferimento di conoscenza: se l’isomorfismo parziale stabilito è
convincente, si cerca di estenderlo per via ipotetica, quindi alcuni elementi del dominio sorgente
non presenti nel dominio bersaglio sono trasferiti e copiati sul dominio bersaglio. Il transfer,
quindi, genera quindi inferenze induttive relative al problema bersaglio;
- Fase di apprendimento: se l’analogia ha successo e il nuovo problema è risolto, l’isomorfismo
sviluppato può essere deprivato dei suoi contenuti specifici (si rendono liberi i parametri
associati agli argomenti di ogni relazione). In questa forma astratta, può essere appreso e
depositarsi in memoria; da questo ne risulta uno schema, cioè un insieme di regole che
possono, poi, aiutare a risolvere altri problemi di struttura analoga (schemi dominio-
specifici).
9.4.1.1 A cosa serve l’individuazione di analogie?
Per aumentare la probabilità che le conoscenze reclutate siano adeguate, è necessario che i due domini
siano strutturalmente simili. Grazie alla capacità di indivuare analogie possiamo interagire con molte
situazioni per le quali non abbiamo conoscenze specifiche; il modello orbitale di idrogeno, ad esempio,
si ispira ad un’analogia con il sistema solare (analogie complesse). Ogni volta che ci troviamo in un
ambiente nuovo, sviluppiamo analogie con altrettanti ambienti nuovi, riservando gli aggiustamenti ad
un momento successivo (analogie semplici). L’individuazione di analogie, come tutti i processi
induttivi, genera ipotesi e non certezze, quindi può condurre a conclusioni errate, che richiedono un
controllo. Solo se si dimostrano adeguate possono essere ricordate e apprese in forma di schema.
9.4.1.3 La forza di un’analogia
Gentner e colleghi hanno individuato che, un allineamento analogico è tanto più forte quanto più:
- Le relazioni messe in corrispondenza hanno argomenti anch’essi in corrispondenza (criterio
della connettività parallela);
- Ogni elemento in una struttura è allineabile solo ad uno degli elementi nell’altra struttura
(criterio della biunivocità);
- L’analogia si basa principalmente su allineamenti di relazioni, piuttosto che di componenti
superficialmente identiche (criterio del focus sulle relazioni);
- L’analogia coinvolge sistemi altamente interconnessi da relazioni interne (criterio della
sistematicità).
9.4.1.5 Il recupero spontaneo di analogie
Nella maggior parte degli esperimenti sul pensiero per analogia, la possibile sorgente è fornita ai
partecipanti dallo sperimentatore, qualche tempo prima del problema da risolvere; nella vita reale
sviluppiamo analogie sondando la nostra memoria e attivando qualche possibile fonte.

48
Holyoak e Thagard hanno elaborato una “teoria pragmatica” dell’analogia, secondo la quale nel cercare
una sorgente di analogia tra i concetti disponibili in memoria, le persone provano a soddisfare in
parallelo tre requisiti:
- Somiglianza superficiale: l’analogia dipende dalla somiglianza dei componenti del dominio
sorgente con quelli del dominio bersaglio;
- Somiglianza strutturale: l’analogia dipende dalla somiglianza strutturale tra dominio sorgente
e bersaglio;
- Somiglianza di obiettivi: l’analogia dipende dalla somiglianza degli obiettivi conseguiti nel
dominio sorgente con quelli da conseguire nel dominio bersaglio.
Questi requisiti sono vincoli flessibili, che il sistema prende in considerazione parallelamente;
l’importanza relativa a questi può variare in base all’età degli individui (ad esempio i bambini tendono a
fare analogie sulle somiglianze superficiali, e durante la crescita anche sulle altre: relation shift).
9.4.1.6 Dalle analogie agli schemi di ragionamento
Per Holyoak e colleghi, lo sviluppo e l’uso di un’analogia può risolversi nell’apprendimento di uno
schema di ragionamento astratto, che successivamente può essere flessibilmente applicato a contesti
strutturalmente simili, ma superficialmente dissimili da quelli in cui lo schema è stato acquisito.
Lo stabilire una prima analogia tra due domini di conoscenza permette di estendere l’analogia con
maggiore facilità ad altri domini. La prima o le prime analogie astraggono uno schema, o mappa
concettuale, libero da vincoli di contenuto. Può quindi essere applicato a qualsiasi contenuto, purché
con struttura simile (schemi dominio-specifici). Cheng e Holyoak svilupparono questa proposta nella
teoria degli schemi pragmatici di ragionamento.
Via via che le persone acquistano esperienza in una particolare area, acquisiscono un numero via via
crescente di schemi, che diventano sempre più facili da recuperare per risolvere problemi nuovi. Questa
acquisizione è la caratteristica fondamentale che distingue la prestazione di un esperto (expertise) da
quella di un non esperto.
9.4.2 I’m Wiston Wolfe. I solve problems
Quando non riusciamo a risolvere un problema importante, cerchiamo un esperto che ci aiuti;
soprattutto un esperto dell’area in cui si è presentato il problema.
Con expertise si intende ciò che rende qualcuno molto abile, grazie al precedente addestramento ina
certa area di compiti. Un esperto ha diverse conoscenze precedenti in un particolare dominio, che
possono prendere due pieghe:
- Negativa, nella misura in cui determinano fissità, rigidità, meccanizzazione del pensiero e
mental set;
- Positiva, nella misura in cui gli schemi, anziché causare rigidità e meccanizzazione, favoriscono
la rapida soluzione di problemi, impossibili per gli altri.
Questa sorta di meccanizzazione è l’effetto negativo delle conoscenze precedenti, che può comportare
errori di giudizio, di decisione, e di categorizzazione.
Ogni area di expertise è a sé stante, ma ci sono cose che accomunano tutti gli esperti e li differenzia dai
non esperti.
9.4.2.1 Gli esperti sono più intelligenti degli altri?
Se intendiamo come intelligenza l’insieme di capacità cognitive di base, gli esperti di una data area, nella
media, non sono diversi da qualsiasi non esperto di quell’area; per esserlo è necessario l’apprendimento
guidato dall’esperienza.
Chase e Simon ipotizzarono che gli esperti giocatori di scacchi, erano tali perché, possedevano una gran
quantità di configurazioni di pezzi note e depositate in memoria a lungo termine (i chuncks, grappoli
di informazione); questo gli consentiva di riconoscere velocemente lo stato di una partita, mandarlo a
memoria più velocemente, ricordarlo meglio, e selezionare solo poche mosse accettabili.
Gobet e Waters perfezionarono questo concetto; secondo loro i giocatori esperti avrebbero acquisito
degli schemi (templates), in grado di connettere tra loro in modo sensato molti pezzi di una
configurazione su una scacchiera. Così gli basterà attivare due o tre di questi schemi per riconoscere

49
una configurazione di gioco; le risorse cognitive risparmiate, inoltre, possono essere dedicate all’analisi
delle altre mosse.
La stessa conclusione sembra discendere dai numerosi studi sull’expertise medica: la principale
distinzione tra gli stili di ragionamento di un medico esperto e uno non esperto è che il primo si avvale
principalmente di processi impliciti e automatici, mentre il secondo più di processi espliciti e analitici.
Ciò che sembra accomunare gli esperti di diverse aree sono poche caratteristiche non legate a specifici
tratti individuali:
- Vaste conoscenze facilmente accessibili, accumulate per esperienza nell’arco di molti anni di
attività, e sedimentate in schemi dominio-specifici;
- Maggior ricordo all’attivazione automatica di schemi (pensiero implicito);
- Il risparmio di risorse cognitive consentito dall’attivazione automatica degli schemi permette
agli esperti di dedicare più tempo e risorse ad approfondimenti analitici della situazione, se
necessari (pensiero esplicito).
Se i primi due punti non sono ben coniugati con il terzo, la disponibilità di conoscenze precedenti può
determinare solo meccanizzazione, rigidità, e tendenza alla conferma.
Se parte dell’ideazione creativa alla base di un insight è legata alla rielaborazione inconscia di
conoscenze precedenti, gli esperti, disponendo di conoscenze precedenti molto più vaste, sono anche i
migliori candidati per lo sviluppo di idee nuove e creative nella loro area di competenza.

9.5 Risolvere problemi deduttivi


9.5.1 Natura e limiti della deduzione umana
La deduzione ha un ruolo fondamentale nella pianificazione del comportamento; per portare a
compimento correttamente un processo deduttivo richiede almeno una delle seguenti capacità:
- Dal punto di vista semantico, la capacità di rappresentare correttamente tutte le possibilità
previste dalle premesse, onde valutarle, ed escludere quelle incompatibili tra loro;
- Dal punto di vista sintattico, la capacità di applicare correttamente tutte le regole inferenziali
necessarie e sufficienti a implementare in modo completo e coerente un qualche tipo di logica, e
di astenersi dall’applicare schemi fallaci.
9.5.2 Alcuni esempi sulla difficoltà di rappresentarsi possibilità
La correttezza logica richiede la sistematica rappresentazione di tutte le possibilità compatibili con tutte
le premesse. La sperimentazione psicologica, invece, ci ha insegnato che talvolta non siamo in grado di
rappresentare mentalmente più di una, o comunque poche, possibilità.
Un buon esempio è il problema del Thog: lo sperimentatore presenta due quadrati, uno bianco e uno
nero, e due cerchi, uno bianco e uno nero; scrive segretamente su un foglietto uno dei colori e una delle
forme; spiega che una figura è un thog, solo se ha il colore scritto sul foglietto, o la forma scritta sul
foglietto, ma non entrambe le cose, e che il cerchio nero è un thog; poi chiede se tra le altre figure ci
sono altri thog e quali sono. La risposta corretta è “quadrato bianco”, ma la maggior parte delle persone
risponde “quadrato nero e cerchio bianco”; questo perché, molti partecipanti preferiscono costruire una
sola rappresentazione basata sulle caratteristiche dell’unico thog che conoscono: sbagliando sul fatto
che se sul foglietto ci fosse scritto “cerchio nero”, il cerchio nero non sarebbe un thog, perché avrebbe
entrambe le caratteristiche scritte nel foglietto invece di una sola.
In questo e in altri problemi simili esposti ad alcuni individui, la risposta più frequente è quella guidata
da una rappresentazione iniziale e parziale del problema, a prescindere dal fatto che sia sufficiente a
rispondere correttamente o meno. Questo tipo di effetti, le inferenze illusorie, è importante, perché
gli errori previsti spesso sono commessi dalla totalità o quasi delle persone.
Le inferenze illusorie sono guidate da una rappresentazione iniziale e parziale del problema, a
prescindere dal fatto che sia sufficiente a rispondere correttamente. Queste illusioni si verificano
prevalentemente in situazioni astratte, non direttamente collegate a situazioni pratiche, e non in grado
di evocare conoscenze precedenti. Così come le illusioni percettive sono frequenti in situazioni rare e
insolite, e permettono di evidenziare alcuni principi del funzionamento non ovvi del sistema percettivo,
la stessa cosa succede coi principi non ovvi del sistema cognitivo.

50
9.5.3 I sillogismi con connettivi proposizionali
9.5.3.1 La spiegazione sintattica
La via più diretta e intuitiva per cercare di creare una buona teoria formale della psico-logica (teorie
della logica mentale) consiste nel prendere un linguaggio logico ben formalizzato, modificarne il
numero di regole in modo che la lunghezza delle derivazioni risulti proporzionale alla difficoltà di quelle
stesse inferenze per la mente umana, ed eventualmente aggiungere qualche schema erroneo.
Sono state create diverse teorie della logica mentale, una delle più complete è di Braine e O’Brien.
Questa versione prevede la possibilità che si possa ragionare deduttivamente anche in altri modi, oltre
che tramite regole, ed è più aperta a valutazioni pragmatiche. Implementa una versione psicologica del
calcolo naturale, scomponendo il ragionamento in due tipi:
- Routine di ragionamento diretto, che si basa su circuiti logici in grado di implementare
automaticamente alcune regole inferenziali (una implementa ad esempio il modus ponens); gli
schemi indiretti includono strategie supposizionali, come l’introduzione del condizionale e la
riduzione all’assurdo; la comprensione linguistica le depriva dei contenuti superficiali,
estraendone la struttura logica; dopodiché la routine diretta esplora la struttura delle premesse:
se ino schema vede soddisfatta la sua condizione di applicazione, genera automaticamente la
conclusione, la aggiunge alla memoria di lavoro, e segna le premesse coinvolte come “già
utilizzate”;
- Routine di ragionamento indiretto, che non è automatica, ma la sua attivazione richiede una
decisione consapevole e il coinvolgimento di risorse attentive; gli schemi indiretti sono appresi e
qualora uno non sia stato acquisito, non può essere utilizzato.
9.5.3.2 La spiegazione semantica
Le odierne teorie che cercano di descrivere come effettivamente ragioniamo, sostengono che la
percezione costituisce modelli isomorfi del mondo fisico, e che la comprensione linguistica dimentica
rapidamente la sintassi superficiale e profonda delle frasi, la loro semantica logica, e mantiene solo
modelli del loro significato. Questa teoria è spiegata tramite dei principi:
- Principio di iconicità: ogni modello è iconico, cioè è un isomorfismo alla struttura del
corrispondente significato;
- Principio di possibilità: ogni modello rappresenta una possibilità in cui la premessa è vera;
- Principio di verità: nella rappresentazione iniziale, si rappresentano esplicitamente gli asserti
dichiarati veri nella premessa;
- Principio di economicità o dei modelli impliciti: gli asserti veri si rappresentano
esplicitamente nel minor numero possibile.
Una volta costruiti i modelli mentali del significato delle premesse (fase di comprensione), il
ragionamento consiste nell’integrarli (fase di integrazione), e nel cancellare alcuni modelli alla luce si
altri. La conclusione è una descrizione del modello o dei modelli che risultano dalla fase di integrazione,
con il requisito di essere parsimoniosa e nuova.
Alla fase di produzione della conclusione iniziale segue, potenzialmente, una fase iterativa di ricerca di
controesempi o elaborazione dei modelli impliciti (fulcro della potenziale razionalità logica degli esseri
umani).
9.5.4 I sillogismi categorici o “aristotelici”
Un sillogismo (argomentazione logica per arrivare ad una conclusione) categorico è composto da due
premesse e una conclusione. È valido se la conclusione è necessariamente vera alla luce delle premesse,
altrimenti è invalido.
I termini del sillogismo sono gli argomenti delle proposizioni; quelli che compaiono in una sola
premessa sono detti estremi; quello che compare in entrambe è il termine medio.
La conclusione del sillogismo deve stabilire una relazione quantificata tra i termini estremi delle
premesse, senza menzionare quello medio.

51
9.5.4.1 L’approccio semantico alla spiegazione del ragionamento su sillogismi categorici
La teoria dei modelli mentali nacque per rendere conto del ragionamento con sillogismi categorici. Le
quattro fasi di ragionamento per questi sono uguali a quelle del ragionamento con connettivi
proposizionali:
- Comprensione delle premesse, attraverso la costruzione di un modello di ciascuna; si
costruisce una qualche rappresentazione mentale isomorfa alla struttura premessa, che può
variare in base alla strategia di ragionamento scelta (principio delle variazioni strategiche);
- Integrazione dei modelli che rappresentano le due premesse, per costruire un primo modello
del problema;
- Estrazione della conclusione iniziale, cioè una descrizione del primo modello del problema;
si esamina il modello del problema alla ricerca di una relazione con le premesse;
- Ricerca iterativa di controesempi, o modelli alternativi del problema inizialmente rimasti
impliciti; si esamina se esistano altre possibilità per rappresentare le premesse, per le quali la
conclusione iniziale si riveli falsa.
La conclusione corretta scaturisce spontanea in poco tempo. Se il solutore interrompesse la ricerca
dopo aver costruito il primo modello, riporterebbe la conclusione corretta; e se cercasse controesempi,
non ne troverebbe. Un sillogismo categorico è difficile quando l’unica possibilità inizialmente resa
esplicita per comprenderlo non supporta la conclusione corretta; è facile quando la sua
rappresentazione iniziale supporta la conclusione corretta.
9.5.4.2 Le regole euristiche nei sillogismi categorici: l’effetto “atmosfera” e il principio
del matching
Non sempre il ragionamento sui sillogismi aristotelici è volto alla comprensione dell’effettivo significato
delle premesse, né si basa su elaborazioni e rielaborazioni mentali di possibilità. Spesso ci avvaliamo di
regole euristiche, che non danno garanzia di correttezza, ma sono molto moderate dal punto di vista
cognitivo. Una delle più importanti fu individuata da Woodworth e Sells, che proposero la teoria
dell’effetto atmosfera: nel risolvere un sillogismo aristotelico, chi adotta questa euristica non utilizza
nessun processo di ragionamento simile alla logica deduttiva, e risponde affidandosi a caratteristiche
superficiali delle premesse.
Le due regole euristiche che producono l’atmosfera del sillogismo sono:
- Se almeno una delle due premesse è particolare, la conclusione suggerita è particolare, altrimenti
è universale;
- Se almeno una delle due premesse è negativa, la conclusione suggerita è negativa, altrimenti è
affermativa.
Wetherick e Gilhooly hanno ipotizzato un meccanismo euristico simile all’effetto atmosfera, ma in
grado di adattarsi un po’ meglio ai risultati empirici: le persone preferiscono produrre una conclusione
che contenga uno dei quantificatori presenti nelle premesse. Se le premesse hanno lo stesso modo, il
quantificatore della conclusione sarà identico a quello delle premesse. Se le premesse hanno modi
diversi, viene scelto il quantificatore più “conservativo”, cioè quello che indica la minor corrispondenza
possibile tra gli estremi. Questa è l’euristica del matching (corrispondenza), che emula in larga misura le
predizioni dell’effetto atmosfera, ma con maggior precisione rispetto ai dati empirici.
9.5.5 I sillogismi lineari
Un sillogismo lineare è un’inferenza basata su relazioni che godono di proprietà extralogiche ben
definite. Una forma particolare di questi, i sillogismi spaziali, si avvale di relazioni tra posizioni
fisiche; allo stesso modo si possono produrre sillogismi temporali.
De Soto, London e Handel proposero che nel risolverli costruiamo rappresentazioni analogiche
ancorate alle dimensioni di uno spazio mentale, isomorfo allo spazio fisico.
Questi studiosi avevano osservato che i sillogismi determinati, che ammettono un unico ordinamento
dei termini generano meno errori, e risposte più rapide, dei sillogismi indeterminati, che ammettono
due ordinamenti dei termini. Successive ricerche hanno permesso di stabilire che le persone cercano di
costruire una rappresentazione univoca delle relazioni descritte, cioè che richieda un solo modello
mentale. Per costruirla occorre inserire nel modello un assunto arbitrario, che può generare errori:

52
invece di rappresentare tutte le possibilità, tendiamo a rappresentarne una sola; in base a quella, ci
riteniamo certi di una conclusione che, in realtà, è possibile, ma non necessaria. Di solito, però,
riusciamo a ricostruire una rappresentazione alternativa: questo tipo di “riaggiustamenti successivi”
illustra bene in principio di economicità, o dei modelli impliciti.
9.5.6 Il dibattito tra teorie semantiche e teorie sintattiche
Le teorie semantiche e sintattiche sono state, per anni, contrapposte per un dibattito su quale fosse la
base della competenza logica umana.
Oggi possiamo concludere che:
- La teoria dei modelli mentali (semantica): i suoi principi base le permettono di interfacciarsi con
altri processi di pensiero, come quelli induttivi e abduttivi, con l’apprendimento e l’uso di
concetti e la categorizzazione, e persino con la percezione e la comprensione linguistica. Al suo
attivo ha un’importante classe di previsioni empiriche originali, puntualmente verificate: quella
delle inferenze illusorie. Questa teoria spiega in modo naturale ragionamenti con premesse non
linguistiche, e i sillogismi lineari; si applica molto bene al problem solving, permettendo di
descrivere lo spazio del problema come un insieme di rappresentazioni mentali di diverse
possibilità, la ricerca di un percorso al suo interno come la manipolazione di queste possibilità, e
l’insight come processo di esplicitazione di modelli inizialmente impliciti.
- La teoria della logica mentale (sintattica): si presta meglio alla formalizzazione, e quindi a
formulare previsioni molto precise, ma in abiti molto ristretti.
9.5.7. Gli effetti delle conoscenze precedenti nella soluzione di problemi deduttivi
L’influenza delle conoscenze precedenti sulla soluzione dei problemi deduttivi è stata illustrata da due
effetti:
- Il belief bias (errore sistematico dovuto alle conoscenze), che fu il primo ad essere considerato
bias. A parità di validità, una conclusione sillogistica è più facilmente accettata se l’individuo la
ritiene vera, mentre è accettata con maggiore difficoltà se l’individuo la ritiene falsa. Evans,
Barston e Pollard dimostrarono che il belief bias si manifesta soprattutto su sillogismi invalidi.
In compiti di produzione, cioè quando i partecipanti sono liberi di generare la loro conclusione
a partire dalle premesse, il belief bias ha effetto sui sillogismi che ammettono conclusioni valide
sia su quelli che non ne ammettono; inoltre, è stato osservato che conclusioni incompatibili con
le premesse, per quanto credibili, non sono praticamente mai né prodotte, né accettate. La
spiegazione più appropriata del belief bias, quindi, sembra di natura semantica. Il solutore cerca
di costruire il modello di una sola possibilità, in cui siano vere tanto la conclusione suggerita
dalle sue conoscenze precedenti, quanto le premesse. Se ci riesce, accetta la conclusione; se non
ci riesce, quindi la conclusione suggerita dalle conoscenze precedenti è incompatibili con le
premesse, non accetta la conclusione suggerita, e può dedicarsi a costruire modelli alternativi.
Come conseguenza, tendiamo a ragionare in modo più logico, e meno prono al belief bias,
quando le conoscenze precedenti suggeriscono una conclusione impossibile alla luce delle
premesse.
- L’attivazione di regole dominio-specifiche: le conoscenze precedenti e l’expertise si
declinano come schemi di regole acquisite depositate in memoria a lungo termine. Quando
sono disponibili certi schemi, il ragionamento è semplificato: da produttivo, diventa in gran
parte riproduttivo. Importanti risultati sono derivati da numerosi studi sul ragionamento con
condizionali deontici, che si sono avvalsi, anche, di versioni deontiche del compito di
selezione di Wason. I condizionali deontici esprimono norme di comportamento: sistemi di
leggi che regolano l’esistenza delle società umane (“se non finisci la zuppa non avrai il dolce”)
ne sono manifestazioni complesse e articolate. Un condizionale deontico può essere violato o
rispettato, ma non falsificato o verificato; questo rende questo tipo di ragionamento con
condizionali deontici diverso dal ragionamento con implicazioni logiche.
In forma deontica, il compito di Wason, prevede una regola che prescrive un qualche
comportamento, e quattro carte che descrivono possibili comportamenti. In questo caso, la
regola è sempre vera, i partecipanti devono trovare quali carte esplorare per stabilire se la regola

53
viene, o meno, rispettata o violata. Nella prima versione deontica di questo compito, venivano
presentate quattro buste: una chiusa, una aperta, e altre due che mostravano il dorso, una delle
quali aveva un francobollo da 50 lire e l’altra da 40. La regola era: se una busta è chiusa, allora
deve avere un francobollo da 50 lire.
In questa versione, la percentuale di scelte corrette salì dal 10% del compito delle 4 carte,
all’85%: questo effetto di facilitazione, secondo Cheng e Holyoak, è dovuto, non tanto dalla
familiarità con le regole deontiche specifiche utilizzate nei compiti, quanto piuttosto dalla
familiarità con regole dello stesso tipo (le persone, fin dalle prime fasi di sviluppo del linguaggio,
incontrano diversi esempi di condizionali deontici, e stabiliscono analogie tra i vari esempi
incontrati.
Inoltre, stabilire un’analogia non consente solo di trasferire conoscenze da un dominio all’altro,
ma anche di astrarre lo schema della struttura che accomuna i due domini. Questi schemi
pragmatici di ragionamento consentono di estendere le analogie a nuovi problemi
superficialmente diversi, ma strutturalmente simili: gli schemi si comportano come insiemi di
regole inferenziali applicabili solo a determinate situazioni, quindi regole dominio-specifiche.
Per esempio, stabilire un’analogia tra regole superficialmente simili come “se non mangi la
zuppa non avrai il dolce” e “se non mangi l’arrosto non avrai le patate” può consentire ad un
bambino di astrarre uno schema generale di “permesso”, che gli consentirà, successivamente, di
comprendere nella stessa maniera una regola superficialmente diversa.

BOX. L’intelligenza e la sua misurazione


L’intelligenza è un costrutto macroscopico: emerge dall’interazione di molti fattori sottostanti.
Alcuni studiosi si sono occupati di questa. Sternberg nella teoria triadica dell’intelligenza, in cui
la definisce come la capacità di adattarsi all’ambiente con successo. Ne individua tre aspetti
fondamentali: un aspetto componenziale, basato sull’efficienza dei nostri processi cognitivi e sulla
nostra capacità di controllarne in modo meta-cognitivo lo svolgersi e l’intrecciarsi; un aspetto
esperenziale, basata sulla capacità di risolvere problemi nuovi in modo originale e apprenderne le
soluzioni; e un aspetto contestuale, basata sulla capacità di perseguire i propri scopi efficacemente,
di gestire le proprie emozioni e motivazioni, di selezionare i contesti e gli ambienti a noi più consoni
evitando quelli per cui siamo meno dotati. Secondo lui, uno strumento per misurare l’intelligenza
sarà accettabile quando sarà in grado di prevedere il grado di successo che un individuo può
conseguire nella vita o in una certa area di attività.
Spearman adottò un approccio fattoriale: utilizzando la tecnica statistica dell’analisi fattoriale,
cercò di individuare alcuni fattori latenti, parzialmente indipendenti, in grado di rendere conto del
livello di prestazione a diversi compiti.
Molti autori ritengono che esista un macrofattore latente correlato a tutti i sottofattori, il cosiddetto
fattore g, o di intelligenza generale, che Cattel ha distinto in: una parte fluida, cioè meno ancorata
alla cultura e al possesso di conoscenze precedenti; e una parte cristallizzata, più legata alla vastità
delle conoscenze precedenti.
Per quanto riguarda la misurazione dell’intelligenza a fini pratici, il primo tentativo fu quello di
Binet: gli era stato chiesto di sviluppare uno strumento che agevolasse l’inserimento scolastico dei
bambini nelle classi più appropriate, e lui raggruppò dei problemi, dividendoli in base a quanto
erano adatti per ogni fascia di età. Utilizzando questo metodo, ad ogni bambino veniva assegnata
l’età mentale che corrispondeva alla classe di problemi più difficili che riusciva a risolvere.
Alcuni psicologi si Stenford, successivamente, svilupparono lo strumento di Binet, producendone
una versione per adulti: il concetto mentale fu “relativizzato”, e nacque il cosiddetto “quoziente
intellettivo”.

54
CAP 11. LE EMOZIONI
11.1 La complessità dell’esperienza emotiva
11.1.1 Che cosa è un’emozione?
In base alle proposte dei principali studiosi dell’esperienza emotiva, possiamo definire le emozioni
come risposte complesse ad eventi particolarmente rilevanti per la persona, caratterizzate da determinati
vissuti soggettivi e da un’articolata reazione biologica. Il fatto di essere risposte intense, temporalmente
circoscritte e di breve durata, le distingue dagli stati d’animo e dall’umore, caratterizzati da una bassa
intensità e da una durata e un decorso temporale più lunghi.
Gli stati d’animo e l’umore possono essere suscitati anche da situazioni generiche e scarsamente
definite (come le condizioni atmosferiche), o da semplici sensazioni (tipo un odore).
Davidson e altri dimostrarono come le emozioni influenzino soprattutto le azioni delle persone,
organizzandole in reazioni adattive e particolari eventi, mentre gli stati d’animo influenzano
maggiormente i processi attentivi e di valutazione degli stimoli.
I sentimenti condividono con gli stati d’animo il fatto di essere più duraturi e meno circoscritti
temporalmente delle emozioni, però i sentimenti sono focalizzati e sono rivolti in maniera
relativamente stabile verso un preciso oggetto o classi di oggetti.
Stati d’animo e sentimenti possono predisporre a certe emozioni, in base a particolari eventi con un
elevato significato personale.
Quello di affetto, infine, è un termine molto ampio e generico, usato di solito per indicare il carattere
“non-cognitivo”, ma affettivo, dell’esperienza emotiva, e che consiste soprattutto nella qualità positiva
o negativa degli eventi che provocano le emozioni.
11.1.2 Le componenti delle emozioni
Le emozioni sono caratterizzate da reazioni fisiologiche complesse e da particolari espressioni e
manifestazioni, soprattutto a livello facciale. Sul piano cognitivo implicano una valutazione
dell’evento e delle risorse a disposizione per il suo fronteggiamento. Sul piano dell’azione, le emozioni
attivano o inibiscono, orientano e sorreggono specifiche forme di comportamento, anche in vista del
raggiungimento di obiettivi con un forte significato personale. Ogni emozione, infine, è caratterizzata
da una forte connotazione soggettiva, che ne fa in certa misura un evento unico e peculiare in ciascun
individuo. Le componenti dell’esperienza emotiva sono:
- Eventi emotigeni. Esempio: “sono arrabbiato. Mi hanno derubato”
- Reazioni fisiologiche. Esempio: “il cuore mi batteva forte per la paura”
- Valutazione cognitiva. Esempio: “sono spaventato. Con quel gesto voleva minacciarmi”
- Motivazione. Esempio: “ero spinto solo dalla rabbia”
- Comportamento. Esempio: “gli saltai al collo dalla grande gioia”
- Risposte espressive. Esempio: “sgranai gli occhi dalla sorpresa”
- Vissuto soggettivo. Esempio: “mi sento triste”
11.1.3 Modelli dimensionali e modelli categoriali
Rispetto alla struttura e all’organizzazione delle emozioni sono state fatte diverse proposte che si
rifanno a due tipi di modelli: i modelli dimensionali e i modelli categoriali.
I modelli dimensionali individuano una serie di fattori, o dimensioni, che definiscono uno spazio
affettivo universale all’interno del quale è possibile collocare le diverse emozioni; la maggior parte di
questi modelli crede nell’esistenza di due dimensioni, e che la similarità delle emozioni è data dalla
vicinanza che hanno all’interno dello spazio affettivo definito da queste due dimensioni: la valenza e
l’attivazione. La valenza indica quanto un’emozione è positiva o negativa; il grado di attivazione
(arousal) si riferisce all’intensità, bassa o elevata, delle risposte fisiologiche coinvolte.
I modelli categoriali si basano sull’assunto che emozioni differenti siano fenomeni qualitativamente
distinti; ipotizzano, quindi, l’esistenza di categorie discrete di emozioni, che rappresentano ognuna una
famiglia di emozioni, cioè un insieme di esperienze che hanno in comune diverse caratteristiche (ad
esempio: gioia per il raggiungimento di obiettivi, e gioia per i successi di un amico, sono diverse, ma

55
hanno in comune molte caratteristiche, quindi si considerano della stessa categoria emozionale “gioia”).
Per individuare queste categorie, gli studiosi hanno analizzato il linguaggio utilizzato dalle persone per
indicarle, oppure hanno indagato i fattori biologici loro associati.
Il primo metodo ha evidenziato l’esistenza di un’organizzazione gerarchica con un livello base
composto da: rabbia, paura, gioia, amore, tristezza.
Gli autori che hanno considerato i fattori di tipo biologico, sostengono che a diverse emozioni siano
associati meccanismi biologici distinti, in particolare specifici circuiti neurali sviluppati come forme di
adattamento; quindi le emozioni hanno un carattere di universalità.

11.2 La questione dell’universalità delle emozioni. Funzioni ed espressioni delle


emozioni
11.2.1 La tradizione evoluzionistica
11.2.1.1 Il pensiero di Darwin
Darwin era particolarmente interessato al significato che le espressioni facciali delle emozioni avevano
in prospettiva evoluzionistica, e dimostrò che alcune espressioni facciali: mostrano nei neonati e nei
bambini la stessa forma osservata negli adulti; sono identiche per i ciechi e per i normovedenti; sono
simili in razze e gruppi umani molto diversi e geograficamente lontani; assumono una forma simile in
molti animali, specialmente nei primati. Questa dimostrazione per darwin è una prova attendibile
dell’unità delle razze umane e della loro comune origine; soprattutto le espressioni emotive si sono
evolute per assolvere determinate funzioni adattive.
Le espressioni delle emozioni, secondo Darwin, sono degli atti motori che nella storia delle specie
hanno accompagnato o sono stati parti di comportamenti con un elevato valore adattivo. Questi atti
sono rimasti associati ai bisogni e alle sensazioni per i quali avevano una chiara funzione, anche se con il
passare del tempo la funzione originaria è andata perduta in molti casi (ad esempio il digrignare i denti,
tipico della rabbia, aveva in origine una funzione associata ad uno stato interno e parte di una sequenza
comportamentale di attacco che poteva concludersi con lo sbranamento del rivale; chiaramente oggi
non è più cosi, ma è rimasta collegata alla rabbia). Altre espressioni emotive sembrano, invece, aver
conservato la loro utilità (ad esempio, la paura ci aiuta ad affrontare la minaccia allargando il campo
visivo, rendendo gli occhi più rapidi, aumentando la velocità e il volume del respiro e l’ossigenazione
del cervello; effetto opposto ce l’ha il disgusto: restringimento del campo visivo e diminuzione del
calibro nasale). Nel corso dell’evoluzione, le espressioni delle emozioni hanno assunto una funzione
comunicativa, finalizzata ad indicare esteriormente lo stato emotivo provato dall’individuo.
11.2.1.2 Le teorie psicoevoluzionistiche
Dagli anni ’60 si è affermata una prospettiva di ispirazione darwiniana che sostiene che, le emozioni
sono strettamente associate alla soddisfazione di bisogni universali, connessi con la sopravvivenza della
specie e dell’individuo.
Uno dei primi esponenti di queste teorie, Tomkins considera le emozioni (per lui affetti) come schemi
innati di risposta ed evolutisi per garantire la sopravvivenza dell’organismo; e sono: rabbia, interesse,
disprezzo, disgusto, paura, gioia, vergogna e sorpresa.
Simile a questa è la teoria differenziale, di Izard, secondo cui la vita emozionale umana si sviluppa a
partire da dieci emozioni primarie: interesse, gioia, sorpresa, disagio, rabbia, disgusto, disprezzo, paura,
vergogna e colpa; ognuna di queste è un processo complesso che coinvolge il sistema nervoso e le
risposte motorie ed espressive.
Un altro esponente della prospettiva evoluzionistica è Ekman, che adotta un modello categoriale nello
studio delle emozioni; secondo lui, la complessa esperienza emotiva umana è riconducibile ad alcune
famiglie di emozione di base, o primarie, utilizzate per la gestione di situazioni che hanno una chiara
connessione con la sopravvivenza individuale della specie. Le famiglie di emozioni di base, per Ekman,
sono: rabbia, gioia, tristezza, paura, disgusto e sorpresa. Le emozioni più complesse, o secondarie,
derivano dalla mescolanza di queste emozioni primarie.

56
Il concetto di emozioni di base o primarie accomuna tutti gli autori della prospettiva evoluzionistica.
Ogni emozione primaria è una risposta associata a specifiche situazioni e stimoli, e non implica una
valutazione dello stimolo o della situazione che la genera, se non in modo automatico e inconsapevole.
11.2.2 L’espressione delle emozioni
L’interesse per l’espressione delle emozioni ha dato origine ad un sistema di ipotesi standard, o
programma delle espressioni facciali delle emozioni, secondo cui le configurazioni espressive facciali
per manifestare le emozioni sono Gestalt unitarie, universalmente condivise, sostanzialmente fisse, di
natura categoriale, specifiche per ogni emozione e controllate da specifici e distinti programmi
neuromotori innati. La teoria neoculturale di Ekman è una declinazione dell’ipotesi standard; sostiene
che ogni emozione attivi uno specifico programma facciale, attraverso una serie di “istruzioni”
codificate dal sistema nervoso e da quello endocrino, che la dota di invariabilità e universalità; sostiene
anche che l’espressione delle emozioni sia regolata da una serie di display rules, o regole
d’espressione, apprese nel corso dello sviluppo, che regolano la manifestazione delle emozioni,
soprattutto davanti agli altri. Le regole d’espressione sono:
- L’accentuazione, che intensifica l’espressione;
- L’attenuazione, che la rende meno intensa;
- La neutralizzazione, che la inibisce (quando non vogliamo mostrare ciò che proviamo);
- La simulazione, che la nasconde, facendola sembrare un’altra.
Ekman, nei suoi studi, ha utilizzato un ampio materiale iconografico di fotografie, che mostrava alle
popolazioni di numerose culture, che hanno fornito conferme alle sue ipotesi: poste di fronte alle foto,
le persone individuano con precisione l’emozione espressa, scegliendo dall’elenco delle sei emozioni
fondamentali.
Alcune ricerche di Ekman sono state condotte con un sistema di codifica oggettiva, sviluppato da lui, il
Facial Action Coding System (FACS), che consiste nella precisa analisi di singoli movimenti muscolari
facciali definiti unità di azione; ognuna di queste è definita da numero e nome, per esempio
“movimento che gonfia le guance”, “movimento che genera fossette”. Da sole o in combinazione, le
unità d’azione consentono di coprire tutte le espressioni facciali visibili.
In contrapposizione con Ekman, Russell ha sottolineato la scarsa validità ecologica degli stimoli
proposti da Ekman, perché le foto mostravano espressioni “pure”, volontarie, con pattern motori tipici
di ogni emozione; e la debolezza del disegno di ricerca utilizzato che prevedeva una scelta forzata, cioè i
soggetti dovevano scegliere tra una lista predefinita di termini.
Russell propose l’ipotesi dell’universalità minima, secondo cui esisterebbe un certo grado di
somiglianza transculturale nella decodifica e interpretazione delle espressioni facciali delle emozioni,
senza l’implicazione di un sistema di segnalazione innato e universale.
Alcune ricerche dimostrano che il grado di riconoscimento è più elevato per alcune emozioni rispetto
ad altre, e che è maggiore quando attore (chi esprime emozioni) e decoder (che le riconosce)
appartengono alla stessa cultura. Questi risultati hanno portato alla formulazione della Dialect Theory,
secondo cui ci sono differenze “dialettali” nel modo di esprimere le emozioni attraverso il volto, come
per la lingua.
Ekman e Rosenberg sostengono che il nostro volto sia uno strumento di espressione piuttosto
trasparente; e che quattro elementi consentono di distinguere un’espressione vera da una ingannevole:
- Morfologia, perché alcuni muscoli sono scarsamente controllabili;
- Simmetria, perché le espressioni sincere sono più simmetriche di quelle false;
- Durata, perché più lunga o più breve nelle espressioni false di quella caratteristiche delle
espressioni sincere;
- Pattern temporale, perché più fluido e graduale nelle espressioni sincere.
La centralità dell’espressione facciale nell’esperienza emotiva ha portato alcuni autori a formulare
l’ipotesi del feedback facciale, secondo cui sarebbero le espressioni a causare le emozioni, e non
viceversa; questa ipotesi sostiene che il feedback facciale possa amplificare, o attenuare, l’intensità
dell’emozione, se viene esagerata l’espressività in senso compatibile, o incompatibile, con l’emozione
stessa (ad esempio, contrarre gli zigomi amplifica la felicità; socchiudere gli occhi induce uno stato
emotivo negativo).

57
Banse e Scherer hanno dimostrato che le emozioni non si esprimono solo con il volto, ma anche con la
postura, l’andatura, il tocco e soprattutto la voce. Molte emozioni, infatti, sembrano caratterizzate da un
profilo vocale distintivo; inoltre, alcune sono più riconoscibili di altre, ad esempio: la rabbia e la paura
sono le più identificabili e sono caratterizzate dall’aumento di intensità della voce e dalla variabilità della
frequenza fondamentale; il disgusto, invece, è quella meno riconoscibile dalla voce.

11.3 Psicofisiologia e neuropsicologia delle emozioni


11.3.1 La fisiologia delle emozioni
Lo studio della fisiologia delle emozioni serve ad individuare le configurazioni che caratterizzano
l’esperienza emotiva al livello delle relazioni connesse all’attivazione del sistema nervoso centrale
(SNC), del sistema nervoso autonomo (SNA), simpatico e parasimpatico, e del sistema endocrino. La
ricerca di questo settore utilizza diversi metodi per rilevare gli indicatori dell’attivazione fisiologica:
- Resoconti verbali o autovalutazioni dello stato emotivo soggettivo;
- Indici comportamentali, come espressioni facciali e posturali;
- Biosegnali relativi ai cambiamenti fisiologici indotti dal sistema nervoso e da quello endocrino;
si possono distinguere in:
• Elettrici (rilevati con elettroencefalogramma, elettrocardiogramma ecc.);
• Non elettrici (misure pressorie, termiche ecc.)
• Biochimici (ormoni, enzimi ecc.)
11.3.2 Periferalisti e centralisti
Lo studio dei processi e degli indici fisiologici connessi all’esperienza emotiva affonda le sue origini nel
dibattito tra periferalisti e centralisti, dall’inizio del XX secolo.
La catena che connette un evento emotigeno (a) ad un’emozione (b) e alla relativa reazione fisiologica
(c), segue la sequenza a → b → c, cioè un evento genera un’emozione e questa provoca delle
conseguenze nel nostro organismo.
Secondo la teoria periferalista di Lange e James, la sequenza si verifica in ordine a → c → b, cioè
l’evento emotigeno provoca una reazione fisiologica, che produce un’esperienza emotiva nel cervello.
Questa posizione teorica sottindende che le diverse emozioni siano connotate da pattern di reazioni
fisiologiche distinte e riconoscibili dal soggetto; premessa che fu contestata da Cannon e Bard, che
proposero una teoria centralista delle emozioni, secondo cui l’evento emotigeno scatenerebbe
simultaneamente la reazione fisiologica e l’esperienza emozionale nel cervello.
Le critiche che i due facevano ai periferalisti riguardavano quattro prove empiriche:
- Il sistema nervoso autonomo reagisce troppo lentamente per spiegare la rapida comparsa delle
emozioni (l’imbarazzo viene prima del rossore);
- Alcuni cambiamenti del sistema nervoso autonomo sono difficili da rilevare introspettivamente;
- Alcuni stimoli non emotigeni (corsa nel parco) possono provocare lo stesso pattern di
attivazione fisiologica tipico di alcune emozioni;
- Non sono stati riscontrati tutti i pattern di attivazione fisiologica quante sono le emozioni che
sperimentiamo.
Cannon propose che le emozioni sono reazioni automatiche e adattive che hanno luogo in situazioni di
emergenza, e che sono coordinate da un unico centro sottocorticale: il talamo. Gli stimoli emotigeni
arriverebbero al talamo che attiverebbe la corteccia, dando luogo all’esperienza emozionale soggettiva e,
contemporaneamente, i muscoli e i visceri, causandone le relative modificazioni.
Bard individuò nell’ipotalamo il centro regolatore sottocorticale.
11.3.3 Il cervello emotivo
11.3.3.1 Evoluzione di modelli
Molti studiosi hanno confutato l’ipotesi di Cannon e Bard, sull’esistenza di un centro sottocorticale
unico per tutte le emozioni.

58
Il circuito proposto da Papez è una prima evoluzione del modello a centro unico; egli ipotizzò che oltre
al talamo e l’ipotalamo fossero coinvolte altre strutture cerebrali, in particolare l’ippocampo e la
corteccia cingolata.
MacLean arricchì questa proposta con la teoria del cervello uno e trino. Sosteneva che il cervello
umano ha ereditato la struttura e l’organizzazione di tre tipi di cervello: dei rettili; dei mammiferi
antichi; e dei mammiferi evoluti. Ognuno con competenze e modalità di funzionamento diverse, e
ciascuno legato al diverso periodo della filogenesi in cui si è evoluto; secondo lui il cervello si è
sviluppato in piani gerarchici: tra il primo piano (più antico), costituito dal cervello rettiliano, e il terzo
ci sarebbe il sistema limbico (secondo piano), la cui funzione è quella di gestire informazioni interne ed
esterne per garantire il soddisfacimento dei bisogni fondamentali di autoconservazione e di
conservazione delle specie.
A partire dagli anni ’80 e ’90 alcuni autori iniziarono a dubitare dell’esistenza di un unico sistema
neurale regolatore.
Per esempio, Panksepp ha individuato quattro sistemi di comando delle emozioni:
- Sistema dell’aspettativa, che viene attivato da situazioni di rottura dell’equilibrio omeostatico
del corpo a causa di presenza o assenza di incentivi ambientali; la sua funzione è attivare
risposte finalizzate a reperire oggetti adeguati a soddisfare i bisogni dell’organismo. Le emozioni
associate sono tutte positive (gioia, speranza):
- Sistema della rabbia, che genera comportamenti di attacco e aggressione fisica e verbale,
associati ad emozioni negative etichettabili come rabbia e collera;
- Sistema della paura, che media i comportamenti di fuga di fronte a stimoli pericolosi (paura e
ansia);
- Sistema del panico, che corrisponde alla tristezza e al dolore scatenati in situazioni di
separazione e di isolamento sociale.
11.3.2.3 “L’errore di Cartesio”
Questo è il titolo del libro scritto da Damasio, in cui ha presentato la sua visione sulle emozioni.
Damasio sosteneva che Cartesio avesse sbagliato nell’ipotizzare una netta separazione tra realtà psichica
(res cogitans) e realtà fisica (res extensa), cioè tra mente e corpo.
La sua teoria delle emozioni è definita come centralista e neojamesiana: centralista perché considerava il
cervello come il centro coordinatore delle emozioni; neojamesiana perché egli attribuisce una grande
rilevanza al corpo nella genesi dell’emozione e dell’esperienza soggettiva che l’accompagna.
Secondo Damasio, l’emozione è un fenomeno mentale che ha come “teatro” il corpo, dal momento
che ha origine dall’attività sinergica del sistema integrato mente-cervello e corpo. L’esperienza
soggettiva delle modificazioni corporee associate alle emozioni, per lui, è il “sentimento”, che si associa
all’emozione vera e propria. Damasio distingue le emozioni in:
- Primarie, intendendo risposte innate e preorganizzate dell’organismo a determinate qualità degli
stimoli ambientali; sono sempre spontanee e non possono essere attivate intenzionalmente.
Sono riconducibili a cinque gruppi, corrispondenti alle emozioni di base: gioia, tristezza, rabbia,
paura e disgusto; ogni gruppo comprende emozioni che differiscono per sfumature di intensità;
- Secondarie, intendendo risposte a stimoli complessi il cui valore emotigeno non è intrinseco,
ma deriva dall’esperienza e dall’apprendimento dell’individuo.
Particolarmente interessante nella teoria di Damasio è la relazione ipotizzata tra emozioni e processi di
ragionamento e di decisione. Il pensiero è costituito in gran parte da immagini connotate
emotivamente, la cui funzione principale è quella di anticipare le conseguenze degli eventi.
Nel processo di decisione ha luogo una preliminare selezione automatica che conduce a scartare le
alternative connotate da emozioni negative; questo processo è reso possibile dai marcatori somatici, che
differenziano le opzioni in piacevoli e spiacevoli. Quindi, le emozioni hanno un ruolo fondamentale nei
processi decisionali.
Damasio arrivò, grazie a degli esperimenti, alla conclusione che se in alcune circostanze un eccesso di
emotività può essere responsabile di comportamenti antisociali e svantaggiosi per l’individuo stesso,
anche deficit emotivi possono alterare notevolmente il comportamento della persona,
compromettendone irrimediabilmente l’adattamento sociale.

59
11.4 La prospettiva cognitivista
11.4.1 Le teorie attivazionali-cognitive
Gli studiosi che guardano le emozioni da una prospettiva cognitivista hanno cercato di individuare cosa
valutiamo esattamente quando proviamo un’emozione, indagando i processi di elaborazione mentale e
di attribuzione di significato associati all’esperienza emotiva.
Secondo i cognitivisti, le informazioni non sono dotate di significato emotivo intrinseco, ma lo
assumono a seguito dei processi cognitivi di attribuzione che vengono messi in atto dalla persona.
Le teorie attivazionali-cognitive rappresentano una specie di transizione dalla prospettiva
evoluzionistica a quella propriamente cognitivista; la più famosa è quella bifattoriale di Schacther e
Singer, secondo cui l’emozione è costituita da:
- Un’attivazione fisiologica indifferenziata (primo momento del processo emotivo);
- I processi cognitivi di attribuzione di significato attraverso i quali la persona cerca di individuare
le cause dell’attivazione che sta provando.
Tutte le emozioni condividono la stessa attivazione fisiologica e la loro diversificazione dipende solo dai
processi cognitivi che cercano di individuarne le cause. Per Schacther e Singer, l’emozione ha luogo
solo quando si verifica uno stato di attivazione per cui non è rintracciabile una spiegazione non
emotiva: se il cuore batte forte dopo una corsa non proviamo un’emozione, ma se batte forte senza
cause valide, cerchiamo di individuare questa attivazione, attribuendole una valenza emotiva. Gli autori
aggiungono che, per valutare lo stato di attivazione gli individui utilizzano le informazioni che solo a
loro disposizione.
Autori successivi hanno cercato di capire quali eventi siano in grado più di altri di scatenare la reazione
fisiologica tipica delle emozioni. Pribram e Mandler ritengono che l’elemento mancante nella teoria di
Schacther e Singer sia costituito dalla percezione di un ostacolo al comportamento motivato, cioè al
comportamento finalizzato al soddisfacimento di bisogni o al raggiungimento di obiettivi. L’attenzione
agli eventi di facilitazione o ostacolo a ciò che la persona vuole, sposta il focus dei processi valutativi
dall’interno dell’organismo (sede dell’attivazione fisiologica) a un esterno fatto di risorse e ostacoli,
caratterizzati da un elevato significato per la persona. Sui processi che valutano questo esterno, si
incentrano le teorie dell’appraisal o teorie della valutazione.
11.4.2 le teorie dell’appraisal
Il modello principale delle teorie dell’appraisal è quello introdotto da Arnold, secondo cui la
valutazione da cui hanno origine le emozioni è una specie di bilancio che la persona fa dei vantaggi e
degli svantaggi potenziali delle situazioni in cui si trova, che porta a valutazioni positive o negative.
Secondo lui, le valutazioni emotive sono immediate, automatiche, e non implicano necessariamente il
totale riconoscimento dell’oggetto valutato.
Lazarus ha proposto una teoria cognitivo-relazionale-motivazionale, nella quale ipotizza che la
valutazione degli stimoli rilevanti per la sopravvivenza abbia sempre delle implicazioni sul piano della
motivazione individuale. In questa teoria, le valutazioni emotive si distinguono in primarie e secondarie:
le prime riguardano la valutazione immediata della rilevanza positiva o negativa di uno stimolo in
relazione agli interessi e agli scopi della persona; le seconde si riferiscono alle sue possibilità e capacità
di affrontare lo stimolo e di gestirlo al meglio.
Le valutazioni secondarie sono divise in:
- Potenziale di coping focalizzato sul problema, relativo alla possibilità e capacità di gestire le
circostanze dello stimolo/evento in base a ciò che la persona vuole soddisfare o raggiungere;
- Potenziale di coping focalizzato sulle emozioni, riferito alla possibilità e capacità di gestire
lo stimolo/evento cambiando le proprie reazioni emotive;
- Responsabilità, “chi o che cosa è responsabile di ciò che è accaduto?”
- Aspettative per il futuro.
Il sistema di valutazioni è riconducibile ad alcune categorie interpretative, che Lazarus chiama “temi
relazionali centrali”, che corrispondono a specifiche tipologie di interpretazione delle situazioni
ambientali in relazione al benessere della persona; a ciascun tema corrisponde un’emozione (paura –
confrontarsi con un pericolo; gelosia – risentimento per qualcuno per il pericolo di perdita affettiva;

60
felicità – fare progressi per uno scopo). Ai diversi temi relazionali corrispondono sia emozioni
considerate di base, come la paura e la rabbia, sia emozioni più complesse, come la gelosia e la colpa.
Entrambe si basano su un principio psicobiologico: siamo biologicamente fatti in modo che certe
valutazioni si associno a certe emozioni; ma, il fatto che interpretiamo un certo stimolo in base ad uno
o più temi relazionali non è determinato biologicamente, ma dipende dalla personalità individuale, dai
processi di apprendimento e dalla cultura di appartenenza.
Anche secondo Roseman le diverse emozioni dipendono da un numero limitato di processi valutativi
relativi ad elementi delle situazioni che hanno una certa rilevanza per il benessere della persona; e sono
relativi alla valutazione di: ricompensa o punizione; presenza o assenza di ciò che si desidera; probabilità
di avere ciò che si desidera; meriti o colpe delle possibili conseguenze della situazione; responsabile
della situazione; carattere atteso o inatteso della situazione; risorse della persona per gestire la
situazione.
Scherer ha proposto la teoria con dei controlli e sottocontrolli, nella quale i processi valutativi alla base
delle emozioni non corrispondono a processi cognitivi indipendenti, ma ad un insieme di controlli che
si susseguono in un ordine preciso: controllo della novità; della piacevolezza o spiacevolezza; della
rilevanza; del potenziale di adattamento; della compatibilità dello stimolo con regole e norme sociali, e
con l’immagine ideale di sé.
Per Scherer le espressioni facciali non sono innate, mentre lo sono probabilmente le specifiche azioni
facciali associate a ciascun controllo.
Scherer sostituisce l’emozione primaria con l’emozione modale; secondo lui, infatti, non esistono
emozioni basiche o più rilevanti, ma esistono emozioni statisticamente più frequenti di altre. Ciò che è
innato, secondo lui, sono le componenti elementari delle emozioni, cioè i vari processi valutativi e le
loro conseguenze sui cinque sistemi dell’organismo.
Le teorie dell’appraisal sono state molto criticate, soprattutto perché certi studiosi credono nella rapidità
e automaticità dell’esperienza emotiva, e non credono che questo sia possibile per la complessità dei
processi valutativi.
Ortony e colleghi hanno proposto un’articolazione in due fasi dei processi valutativi alla base delle
emozioni: la prima è di valutazione rapida e automatica, dalla quale derivano giudizi, come “positivo o
negativo”; dopodiché avviene una valutazione che coinvolge molti processi valutativi, che coincidono
in gran parte con quelli visti in precedenza. Le due fasi di valutazione sono state indagate tramite
reappraisal (rivalutazione), una strategia di regolazione emotiva basata sul cambiamento del significato
attribuito allo stimolo che ha dato origine all’emozione.
11.4.3 La rappresentazione cognitiva delle emozioni
Per comprendere cosa resta dell’esperienza emotiva nella mente della persona che l’ha provocata,
diversi studiosi hanno ipotizzato che l’emozione sia concettualizzata e rappresentata come una categoria
sfocata organizzata intorno ad un prototipo, descrivibile come un insieme astratto di caratteristiche
condivise e possedute in grado diverso dai membri della categoria. La categoria entro la quale sono
organizzate le emozioni gode di alcune proprietà principali:
- A livello più astratto, o sovraordinato, è concettualizzata come positiva o negativa;
- A livello intermedio, o basico, comprende un prototipo, cioè l’insieme delle caratteristiche che
definiscono il concetto, e una serie di esemplari, alcuni molto prototipici come la rabbia, la
paura, la tristezza, e altri meno come il coraggio, l’invidia e la gelosia;
- A livello subordinato comprende emozioni che rappresentano delle espressioni specifiche delle
emozioni basiche.
Molto meno chiari sono i criteri che regolano la somiglianza all’interno delle diverse categorie; una
possibile spiegazione chiama in causa un’altra forma di rappresentazione in memoria, lo script. Lo
script è una struttura schematica basata su una concatenazione di regole, atta a conservare, in memoria
procedurale, una sequenza di azioni e fasi più o meno costanti e tipiche. Ad esempio, conserviamo in
memoria procedurale le informazioni relative al come e al quanto facciamo certe cose; lo script è in
grado di cogliere meglio del prototipo la struttura interna delle emozioni. Al loro interno gli script
comprendono la rappresentazione di tutti gli elementi dell’esperienza emotiva: antecedenti personali e
situazionali, risposte fisiologiche, espressive, cognitive e comportamentali.

61
La concettualizzazione e la rappresentazione delle emozioni sono state indagate anche dalla prospettiva
della emodied cognition (cognizione incorporata), anche detta grounded cognition, secondo la quale gli
specifici stati relativi alla percezione dell’esterno, all’enterocezione e all’azione, che sono attivi quando la
persona fa una certa esperienza, verrebbero riattivati quando la persona pensa alla stessa esperienza.

11.5 Aspetti sociali delle emozioni


11.5.1 La prospettiva sociocostruzionista
Le emozioni hanno importanti aspetti interpersonali e sociali; e sostanziano momenti fondamentali
delle nostre relazioni con gli altri.
Un fattore comune a tutte le proposte, che cercano di individuare il ruolo da attribuire ai fattori sociali
dell’esperienza emotiva, è il fatto di considerare le emozioni principalmente come dispositivi relazionali
o strumenti comunicativi, e la tendenza a trovare spiegazioni dell’esperienza emotiva nei contesti in cui
le relazioni e i processi di comunicazione hanno luogo. Nella declinazione più estrema del
sociocostruzionismo viene limitato al massimo, o negato, il ruolo degli aspetti biologici delle emozioni.
Nella proposta di Harré sono il linguaggio e la struttura dei valori di una società che determinano le
esperienze emotive individuali, che si configurano come forme speciali di azione sociale. Infatti, le
emozioni non sono risposte naturali, ma schemi esperenziali ed espressivi dovuti al contesto
socioculturale.
Secondo Averill, le emozioni sono insiemi di risposte prescritte socialmente, a cui le persone devono
adeguarsi, perché ad ogni situazione corrispondono delle aspettative socialmente condivise sui
comportamenti considerati corretti e adeguati. Il vissuto e la manifestazione delle emozioni dipendono
da:
- Regole di valutazione, che definiscono come deve essere percepita e valutata una situazione;
- Regole di comportamento, che stabiliscono come un’emozione deve essere espressa;
- Regole prognostiche, che riguardano la giusta durata e lo sviluppo di un episodio emozionale;
- Regole di attribuzione, attraverso cui l’emozione viene spiegata e resa legittima rispetto al
sistema sociale e in rapporto al Sé.
11.5.2 Emozioni e cultura
Le ricerche sulle quali i sostenitori della prospettiva sociocostruzionista fondano le loro teorie sono
finalizzate a verificare la variabilità culturale delle emozioni, come prova della loro dipendenza dal
contesto sociale.
Alcune ricerche hanno individuato differenze anche nel lessico emotivo: quella che noi definiamo
paura, dalla popolazione dell’arcipelago micronesiano viene intesa come un’esperienza emotiva che
corrisponde a situazioni pericolose o minacciose, e come una situazione in cui le persone hanno
comportamenti passivi e sottomessi, quindi l’emozione è definita dalla situazione che la genera e dalla
relativa reazione comportamentale; in questa popolazione, con una parola indicano quelle che per noi
sono compassione, amore e tristezza, perché per loro fenomeni di perdita delle persone care e cose è
un’esperienza comune e la fragilità e il dolore nella vita fanno parte dell’esperienza quotidiana; i
giapponesi, con una sola parola indicano uno stato piacevole di dipendenza che l’individuo adulto
desidera e ricerca nel rapporto con gli altri.
Accanto a questi studi, ce ne sono altri che hanno studiato il vissuto soggettivo e i processi di appraisal
caratteristici dell’esperienza emotiva.
Il programma di Scherer e colleghi ha indagato: gli antecedenti delle emozioni; il luogo in cui si
sperimentano; la loro durata e intensità; le espressioni non verbali, le reazioni fisiologiche e il controllo
delle reazioni loro associate.
Per gli antecedenti sono state individuate diverse somiglianze con i processi di appraisal: le situazioni
che generano paura sono valutate spiacevoli in tutte le culture, svantaggiose rispetto agli scopi e difficili
da fronteggiare.
La rabbia è associata ad eventi spiacevoli e inattesi, dannosi per gli scopi, ma anche ingiusti e causati da
un altro individuo verso cui è rivolta la rabbia.

62
Mesquita e Ellsworth hanno osservato come la solitudine possa assumere una connotazione positiva in
diverse culture occidentali, dove è percepita come un’opportunità di privacy, mentre per gli eschimesi
vuol dire isolamento sociale.
La paura è per tutti l’emozione di minor durata, mentre la tristezza dura più a lungo.
La rabbia è la più intensa, seguita da gioia, tristezza e paura.
Studi successivi hanno dimostrato che anche la differenza tra emozioni positive e negative non ha lo
stesso grado di polarizzazione in tutte le culture: molti paesi occidentali danno una forte valorizzazione
della positività associata alla riuscita personale, la felicità è percepita come un diritto e l’individuo cerca
di raggiungerla e conservarla, come una buona immagine di sé. In molti paesi orientali, sono invece
valorizzati il gruppo sociale e i legami di appartenenza; sperimentano più frequentemente emozioni
socialmente connotate, come compassione e colpa, rispetto ad emozioni che possono sfavorire le
relazioni sociali, come l’orgoglio e la collera.

CAP 12. LA MOTIVAZIONE


Lo studio della motivazione cerca di individuare cosa vuol dire esattamente “essere motivati”; se esiste
un comportamento non motivato; e cosa motiva le persone che, evidentemente, non sono sempre e
tutte motivate allo stesso modo e per le stesse cose. Per questo lo studio della motivazione cerca di
mettere a fuoco i diversi elementi che rendono conto dell’avvio, della direzione e del mantenimento del
nostro comportamento nel corso del tempo e nei diversi contesti di vita.

12.1 La motivazione. Definizioni e tematiche


12.1.1 Le tante domande dello studio della motivazione
Motivare deriva dal latino, movere, che significa “muovere”, ovvero dare avvio. Quindi, studiare la
motivazione vuol dire indagare i fattori che danno avvio a singole azioni, a comportamenti e ad
abitudini della persona. Il comportamento può essere dovuto, anche, dalla direzione in cui viene
guidato dalla motivazione; dalle spinte che vengono dall’interno della persona; dall’attrazione che
proviene dall’esterno. In ognuno di questi casi le persone arrivano comunque a fare delle scelte o a
prendere decisioni. Occuparsi di motivazione significa, quindi, considerare anche quei fattori e quei
processi che sono all’origine di certe scelte e che garantiscono il mantenimento del comportamento
nel corso del tempo.
La motivazione non influenza solo il comportamento manifesto, ma anche i pensieri e le emozioni, ad
esempio: voler dimagrire può generare stati di ansia che uniti a pensieri continui possono mettere a
rischio l’obiettivo. Inoltre, i fattori motivazionali non sempre agiscono sinergicamente, in molti casi ci
sono fattori che spingono in direzioni diverse, dando luogo a situazioni di vero e proprio conflitto
motivazionale, che hanno conseguenze negative per l’adattamento psicosociale e il benessere della
persona.
12.1.2 Le “classiche” parole della motivazione. Dagli istinti ai motivi
12.1.2.1 Gli istinti e le pulsioni
Una convinzione che accomunava diversi studiosi era che, le persone, come molti animali, sono
predisposte a mettere in atto certi comportamenti diretti ad uno scopo, senza avere consapevolezza di
quest’ultimo. James e McDougall attribuirono a queste spinte innate il nome di istinti.
Per James, gran parte del comportamento umano può essere spiegato in termini di istinti a
intraprendere certe azioni, come succhiare, mordere e piangere, che operano in maniera riflessa.
Secondo McDougall, l’istinto è una disposizione innata a prestare attenzione ad agire verso specifici
oggetti, utili alla sopravvivenza e al benessere. Ogni comportamento istintuale, quindi è caratterizzato
dal riconoscere qualcosa, da un’emozione nei suoi confronti e da un tendere verso di, o lontano da,
essa. Questo studioso ha elaborato una lista di istinti, a cui ha attribuito la più generale definizione di
propensities, cioè tendenze istintive del comportamento umano.

63
Affini a quelle basate sugli istinti sono le teorie che mettono al centro della spiegazione del
comportamento le pulsioni. Queste vengono definite omeostatiche, perché l’organismo viene visto
come un sistema finalizzato a raggiungere e a mantenere una condizione di equilibrio, o omeostasi;
quando l’equilibrio si rompe si crea una carenza biologica che va compensata e che viene sentita, a
livello psicologico, come una pulsione. La pulsione, quindi, è una spinta che induce l’organismo a
cercare gli oggetti in grado di colmare lo stato di carenza, e a ripristinare l’omeostasi.
Freud definisce la pulsione come un concetto limite tra lo psichico e il corporeo, che deriva da
un’eccitazione somatica, e attiva un comportamento che aiuta ad eliminare la tensione.
Per Hull, qualunque tendenza comportamentale deriva dalla combinazione tra pulsione ed abitudine.
Egli riteneva che la direzione del comportamento derivasse da un’abitudine appresa a rispondere ad
uno stimolo con una certa risposta, e che la forza di questa abitudine dipendesse dalla frequenza con cui
la risposta è stata rinforzata. La pulsione (drive), per Hull, è una componente energizzante dell’azione,
che è in grado di dare avvio a diversi comportamenti sulla base delle abitudini apprese.
Hull, grazie ai suoi esperimenti con i ratti, mise in evidenza come l’idea di un’unica componente di
spinta fosse troppo semplice per spiegare efficacemente il comportamento motivato, per questo iniziò a
considerare anche l’aspettativa e l’incentivo.
12.1.2.2 I bisogni
Murray ha proposto il concetto di bisogno come principale dimensione motivazionale, in grado di dare
origine ad azioni organizzate e orientate al raggiungimento di uno scopo. Secondo lui, il bisogno è una
specie di “forza psicologica” che si trova nel cervello e guida l’azione, influenzando i processi di
attenzione, percezione e pensiero, in modo da modificare una situazione non soddisfacente.
I bisogni si dividono in:
- Primari (o viscerogeni), come la fame e la sete, che sono innati e agiscono nella direzione di
ridurre la tensione generata dalla mancanza di bisogno;
- Secondari (o psicogeni), come il bisogno di riuscita e di affiliazione, sono acquisiti durante lo
sviluppo individuale, e non sono sempre finalizzati ad una diminuzione della tensione, ma a
volte possono addirittura aumentarla.
I bisogni individuali sono sempre in interazione con le pressioni, che corrispondono per lui al potere
delle situazioni di favorire od ostacolare il conseguimento di un obiettivo. Le pressioni si distinguono
in:
- Alpha, le pressioni oggettive, come il vivere in un luogo isolato per chi ha bisogno della
vicinanza e dell’accettazione degli altri;
- Beta, le pressioni percepite, come la “percezione” di isolamento che può essere presente anche
quando siamo in mezzo a tante persone.
L’interazione tra bisogni e pressioni dà luogo a dei temi, che determinano le scelte delle persone e la
direzione della loro condotta. Visto che le persone non hanno sempre piena consapevolezza dei loro
temi, il metodo più appropriato per analizzarli consiste nell’impiego di test di tipo implicito: test che
raccolgono indizi indiretti, senza porre domande dirette. Murray ha elaborato il test proiettivo, Test di
Appercezione Tematica (TAT), per il quale si chiede ai partecipanti di elaborare delle storie, su cosa stia
succedendo, nelle immagini che vengono presentate loro.
Un altro importante psicologo fu Maslow, che riteneva che le persone siano intrinsecamente spinta alla
crescita psicologica e all’autorealizzazione, e che la spinta corrisponda al più elevato livello dei bisogni.
Egli ha elaborato una teoria gerarchica, dove ha collocato 5 tipi di bisogni, da quelli fisiologici di base
a quelli più evoluti di autorealizzazione.

64
Maslow ipotizza anche una sequenza nel soddisfacimento dei bisogni: la gerarchia può essere percorsa
solo dal basso verso l’alto; per sperimentare un bisogno superiore, bisogna prima aver soddisfatto quelli
precedenti. Numerose sono le situazioni in cui alcuni bisogni possono essere sacrificati a vantaggio di
altri, oppure bisogni diversi spingono in direzioni opposte. I bisogni sono anche influenzati dagli
stimoli ambientali, che possono modificarne l’insorgenza e l’intensità. Ad esempio, la vista di una
bevanda fresca d’estate fa aumentare la sete; la visione di persone attraenti può sollecitare il bisogno di
sessualità, che è un bisogno quasi completamente sganciato dalla sua finalità evolutiva.
12.1.2.3 I motivi
Il termine motivo è stato introdotto negli anni ’50 da McClelland, che ha introdotto un’altra distinzione
tra motivo e motivazione: il motivo è una preoccupazione ricorrente (concern), che orienta i processi
attentivi e percettivi, e selezione ed energizza il comportamento, orientandolo verso il raggiungimento
di determinate mete. I motivi non sono sempre tutti attivati, cioè non si sperimenta
contemporaneamente e continuamente l’attivazione di tutti i motivi. L’attivazione è la motivazione, che
è un impulso a mettere in atto azioni e comportamenti, che possono essere diversi in base alle
interpretazioni che le persone danno agli stati interni e alle circostanze.
McClelland distingue tre motivi: il motivo alla riuscita, all’affiliazione e al potere.
Il motivo alla riuscita è caratterizzato dal desiderio di eccellenza e dalla paura del fallimento: il
desiderio di eccellere porta ad affrontare sfide impegnative per ottenere risultati positivi; la paura di
fallire conduce a rifiutare occasioni di mettersi alla prova, perché potrebbero portare all’insuccesso. Le
persone cercano di fare le cose nel miglior modo possibile, preferiscono misurarsi con compiti
moderati, amano avere feedback, analizzano le situazioni e amano i modi nuovi di fare le cose.
Il motivo all’affiliazione è animato dal desiderio di protezione, che spinge ad instaurare e mantenere
relazioni interpersonali, e dalla paura del rifiuto, che porta a fuggire per non rischiare di essere esclusi.
Le persone preferiscono incentivi come l’approvazione e l’accettazione, ascoltare e collaborare, e non
competere, non amano posizioni di comando e non amano essere al centro dell’attenzione.
Il motivo al potere è caratterizzato da una parte dal desiderio di dominare e controllare gli altri, e
dall’altra la paura della dipendenza, che induce a rinunciare a certe situazioni per non rischiare di essere
dominati dagli altri. Le persone hanno una forte spinta verso l’autoaffermazione, sono attratte da
posizioni ad elevato status socioeconomico, sono disposte a intraprendere attività rischiose e sacrificare
legami, amano essere al centro dell’attenzione e la competizione.
La prevalenza di un motivo e il suo sviluppo, dipendono soprattutto da fattori di tipo sociale, infatti,
secondo McClelland i motivi sono appresi prima di tutto come risultato alle esperienze precoci e dei
processi di socializzazione. Anche lui ha molto utilizzato la TAT, perché sosteneva che solo strumenti
di tipo proiettivo possono cogliere gli aspetti motivazionali di cui la persona non ha piena
consapevolezza; questi aspetti motivazionali inconsapevoli, definiti motivi impliciti, però, non
riempiono tutta la sfera motivazionale; esistono anche elementi di cui la persona è consapevole, e che è
in grado di elencare e descrivere: motivi espliciti o immagini di sé riferite alla sfera motivazionale.
I motivi impliciti sono a base biologica, e hanno effetti a lungo termine nella vita della persona; i motivi
espliciti corrispondono a rappresentazioni cognitive delle proprie motivazioni che vengono apprese
durante lo sviluppo e hanno effetti a breve termine, dal momento che orientano preferenze e guidano
comportamenti nell’esperienza quotidiana. Questi possono essere analizzati con questionari e interviste.
12.1.3 Motivazione e volizione
Interruzioni imposte, ostacoli e difficoltà possono rendere molto difficile portare avanti un
comportamento, anche quando è mosso da spinte o attrazioni molto forti. A volte è necessario
“stringere i denti” e “farsi forza” per andare avanti; per descrivere questi processi alcuni autori hanno
utilizzato il concetto di volizione, introducendo una distinzione tra motivazione e volizione: le
componenti motivazionali rendono conto della formazione delle intenzioni e avviano il
comportamento; quelle volizionali, invece, lo mantengono nel corso del tempo, e sono quindi più
connesse alla realizzazione delle intenzioni. Tra i modelli teorici che considerano questa distinzione, il
più famoso è il modello Rubicone di Heckhausen, ispirato all’episodio in cui Cesare nel 49 a.C.
attraversa con le legioni in armi il fiume Rubicone dando inizio alla guerra civile; il modello fa una

65
distinzione tra i processi precedenti alla decisione di compiere una certa azione (prima di attraversare il
fiume), e quelli successivi (dopo l’attraversamento).
Per lui, i processi predecisionali sono di natura motivazionale, mentre quelli successivi, sono di tipo
volizionale, e durano finché l’azione non si è conclusa.
Le fasi del modello sono:
- Motivazionale predecisionale, in cui la persona valuta le alternative e fa una scelta, dando
origine all’intenzione;
- Due fasi volizionali, la preazionale e l’azionale, in cui l’intenzione viene avviata e poi
realizzata;
- Motivazionale postazionale, in cui la persona valuta se ha realizzato ciò che voleva, e in caso
contrario cerca di individuare le cause del fallimento. A questo punto può decidere se insistere o
dedicarsi ad altro.
La distinzione tra motivazione e volizione ha contribuito a mettere in evidenza come l’azione motivata
non sia solo il frutto dell’attivazione di un bisogno o un motivo, ma racchiude una serie di processi in
cui la persona ha un ruolo attivo si selezione, programmazione, realizzazione e valutazione.

12.2 Le teorie cognitive e sociocognitive della motivazione


12.2.1 Aspettative, incentivi e attribuzioni causali
Secondo Atkinson, una tendenza motivazionale (cioè una tendenza a mettere in atto un’azione) è il
risultato di tre elementi: motivo; probabilità, cioè l’aspettativa di ciò che succederà se si agisce in un
modo; e incentivo, cioè il valore attribuito ad uno scopo. Questi elementi caratterizzano due tendenze:
la tendenza al successo, e la tendenza al fallimento. Da queste deriva la tendenza motivazionale
generale. Nella teoria di Atkinson gli incentivi corrispondono a delle emozioni anticipate di orgoglio e
soddisfazione, nel caso del successo, e di vergogna, in caso di insuccesso.
Questa teoria è stata anche criticata, perché non tutti riescono ad elaborare aspettative di successo o
fallimento, e perché a volte le persone prendono decisioni lontane dai principi della scelta razionale.
La teoria di Atkinson si riferisce alle aspettative sul futuro; la teoria di Weiner, invece, si concentra sulle
spiegazioni che le persone danno a ciò che è successo in passato, e soprattutto alle attribuzioni delle
cause di quanto accaduto.
Le attribuzioni causali variano in base a 4 dimensioni:
- Il locus. Se la causa è interna o esterna;
- La controllabilità. Se la causa è controllabile tramite le azioni;
- La stabilità. Se la causa è stabile nel tempo, quindi può essere generalizzata ad altri momenti;
- La globalità. Se la causa è globale e può quindi essere generalizzata ad altre situazioni.
A ogni attribuzione sono associate delle emozioni, che hanno un’ulteriore valenza motivazionale, dal
momento che a loro volta influenzano le scelte e le azioni future.
12.2.2 L’importanza del senso di controllo. L’autoefficacia percepita
L’elevata specificità è una delle caratteristiche principali dell’autoefficacia percepita che, nella teoria
social-cognitiva di Bandura, corrisponde all’insieme di valutazioni che le persone fanno rispetto al loro
sentirsi capaci di eseguire certe azioni e di raggiungere livelli stabiliti di prestazione in certi compiti.
Secondo Bandura, l’efficacia percepita è molto importante nei vari contesti dell’esperienza individuale,
perché i modi in cui ognuno decide di agire sono influenzati dalla percezione che abbiamo delle nostre
capacità. Egli ipotizza una configurazione di nessi di influenza che vede l’autoefficacia percepita come
fattore primario nel processo che dalle attribuzioni causali va verso la generazione di aspettative e,
dopo, le intenzioni di agire, fino all’azione vera e propria.
L’autoefficacia percepita è sempre specifica perché noi possediamo tante percezioni del nostro “saper
fare” quante sono le attività e i contesti che ci troviamo a gestire, e non in tutti ci sentiamo capaci allo
stesso modo; fa parte della categoria di costrutti di controllo, dove per controllo si intende la capacità
percepita che le persone hanno di controllare gli eventi e le situazioni delle loro vite.

66
Per differenziare i costrutti di controllo, Skinner ha introdotto una distinzione tra agenti, cioè i soggetti
del controllo, mezzi, le azioni che gli agenti mettono in atto per controllare gli eventi, e fini, gli esiti
desiderati dagli agenti.
Il legame tra agente e mezzo corrisponde all’autoefficacia di Bandura, e riguarda la convinzione che
l’agente ha di essere in grado di controllare il mezzo a disposizione; il legame tra mezzo e fine
corrisponde alle aspettative di esito. Il legame diretto tra agente e fine corrisponde ad un senso generale
di controllo.
I deficit di controllo, cioè le sensazioni di non essere in grado di controllare eventi o situazioni, possono
riguardare aspetti diversi.
12.2.3 Obiettivi, progetti e valori
I costrutti di controllo sono centrali nei processi di autoregolazione, attraverso i quali le persone
regolano il proprio comportamento in base agli obiettivi.
Gli obiettivi sono un importante oggetto di indagine per gli studiosi della motivazione, infatti gran
parte del nostro comportamento è mosso nella direzione di ciò che vogliamo ottenere. Gli obiettivi
possono essere diversi in base a: livello di definizione, risorse richieste per il loro raggiungimento,
possibilità di articolazione in sotto-obiettivi, probabilità del loro effettivo raggiungimento.
Gli obiettivi si distinguono dai desideri, perché i primi sono rappresentazioni di ciò che le persone
vogliono ottenere, e verso cui dirigono il loro comportamento; i secondi, invece, corrispondono a
qualcosa che le persone vogliono fortemente ma che hanno connotazioni generiche e spesso poco
realistiche; infatti, gli obiettivi sono caratterizzati da:
- Concretezza ed elevata definizione;
- Specificità di contesto;
- Collocazione temporale;
- Misurabilità, cioè è possibile quando un obiettivo è stato raggiunto.
Nella teoria del goal setting di Locke e Latham, gli obiettivi si distinguono per:
- Il livello di difficoltà o sfida che comportano per la persona;
- L’ampiezza. Alcuni obiettivi sono particolarmente ampi e implicano un’articolazione in sotto-
obiettivi più ristretti;
- La prossimità temporale. Alcuni obiettivi sono a breve termine, altri a medio e altri a lungo
termine;
- Il significato che rivestono per la persona.
Simili agli obiettivi sono gli striving e i personal project, che si estendono sul lungo periodo e
possono riguardare anche ambiti diversi della vita della persona; la loro presenza dota di significato la
vita delle persone, il cui benessere di lunga durata è generalmente il frutto della partecipazione a
progetti desiderati e valorizzati.
Anche i valori, che sono principi guida che determinano cosa è desiderabile, importante e giusto per
una persona, hanno un’importante valenza motivazionale, perché le persone sono spinte a comportarsi
in sintonia con i propri valori e a stabilire obiettivi in base ad essi.
Schwartz ha sviluppato una tassonomia costituita da dieci valori di base: autodirezione, stimolazione,
edonismo, successo, potere, sicurezza, conformismo, tradizione, benevolenza, universalismo.
Questi sono collocati in uno spazio definito da due dimensioni:
- L’apertura al cambiamento, costituita dai valori di autodirezione e stimolazione, contrapposta
al conservativismo, formato dai valori di tradizione, conformismo e sicurezza; questa
dimensione riflette un conflitto tra l’enfatizzazione dell’indipendenza del proprio pensiero e
delle proprie azioni e la preferenza per una remissiva autolimitazione, finalizzata al rispetto della
tradizione e alla protezione della stabilità sociale;
- L’autoaffermazione, costituita dai valori di successo e potere, contrapposta
all’autotrascendenza, costituita dai valori di benevolenza e universalismo. Questa dimensione
riflette, invece, un conflitto tra l’accettazione degli altri e l’impegno per il loro benessere, e la
ricerca del successo personale e del dominio sugli altri.

67
12.2.4 Modelli sociocognitivi ampliati
Eccles, per capire quali elementi motivazionali influenzino l’impegno e il successo in ambito scolastico,
ha elaborato un modello che considera diversi fattori: le aspettative di esito proprie e altrui,
l’attribuzione di causalità rispetto al fallimento e ai successi passati, l’autoefficacia percepita nella
gestione di attività di apprendimento, l’adeguatezza degli obiettivi che vengono stabiliti, la percezione di
facilità o difficoltà dei compiti da svolgere e il valore attribuito alla riuscita.
Schwarzer ha proposto un modello focalizzato al cambiamento comportamentale connesso alla salute,
il modello HAPA (Health Action Process Approach), nel quale pone come predittori dell’intenzione a
cambiare: l’autoefficacia percepita, le aspettative relative al cambiamento e la percezione del rischio.
L’intenzione di smettere di fumare è influenzata dalla percezione di essere in grado di smettere
(autoefficacia percepita), da ciò che mi aspetto che succeda se smetto (aspettative relative al
cambiamento) e da quanto ritengo che il fumo metta a rischio la mia salute (percezione del rischio).
Nelle aspettative hanno un ruolo rilevante le emozioni anticipate, positive e negative, connesse al
cambiamento; la prospettiva di smettere di fumare può, infatti, dar luogo a vissuti anticipati di orgoglio
e soddisfazione, che aumentano l’intenzione di smettere, così come alla previsione di stati di
nervosismo o depressione, che invece riducono fortemente l’intenzione.
Tra l’intenzione di cambiare e l’effettivo cambiamento del comportamento, Schwarzer introduce la
pianificazione, ovvero l’elaborazione e implementazione di piani strategici finalizzati a definire il come e
il quando del cambiamento. Se si vuole smettere di fumare bisogna stabilire come cambiare le abitudini
quotidiane, come comportarsi se altri ci invitano a fumare, come gestire lo stress e le preoccupazioni
che ci inducono a fumare, quando dire addio all’ultima sigaretta.
Molti studi indicano come variabile chiave l’importanza della pianificazione, il modello HAPA, ad
esempio, indica che nelle diverse fasi del cambiamento comportamentale entrano in gioco diversi tipi di
autoefficacia percepita: in una prima fase conta il sentirsi in grado di cambiare; nella seconda fase
diventa importante il sentirsi in grado di gestire i piani di cambiamento, che spesso implicano il saper
affrontare ostacoli e difficoltà; nella terza fase, quando il cambiamento è stato realizzato, entrano in
gioco le convinzioni di saperlo mantenere nel tempo e saper gestire eventuali ricadute. Questo modello
è stato molto utilizzato per ricerche e interventi su comportamenti connessi alla salute.

12.3 Il ruolo delle rappresentazioni di sé


12.3.1 I tanti Sé del nostro Sé
Grazie al Twenty Statements Test, uno strumento sviluppato per misurare le rappresentazioni di sé che
hanno le persone, è emerso che gli individui hanno rappresentazioni di sé che si riferiscono a diversi
aspetti: caratteristiche personali, ruoli, posizioni lavorative, hobby, obiettivi e valori.
Markus e Nurius hanno proposto la teoria dei Sé possibili, in cui il “chi siamo” corrisponde al Sé
attuale, il “chi vorremmo essere” al Sé ideale, e il “chi dovremmo essere” al Sé imperativo.
Gli studiosi, per categorizzare gli aspetti del Sé e comprendere l’influenza dei fattori culturali, hanno
proposto una divisione tra aspetti di indipendenza e aspetti di interdipendenza del Sé. Gli aspetti di
indipendenza caratterizzano un’idea del Sé in cui si valorizza la propria indipendenza dagli altri e si
tende ad affermare caratteristiche, obiettivi e valori personali; gli aspetti di interdipendenza, invece,
esprimono una concezione di Sé in cui si evidenzia soprattutto il legame con gli altri e la priorità data a
valori e obiettivi della collettività di appartenenza.
Oltre alle differenze culturali, gli studi hanno evidenziato anche le differenze di genere: gli uomini
mostrano più spesso un Sé indipendente-autonomo, mentre le donne un Sé più interdipendente-
relazionale.
Higgins sostiene che possono esistere diversi gradi di coerenza o discrepanza tra i diversi Sé, a cui
corrispondono specifici vissuti emotivi con un forte potere motivazionale: ad esempio, una forte
discrepanza tra Sé attuale e Sé ideale dà luogo ad insoddisfazione; la discrepanza tra Sé attuale e Sé
imperativo dà luogo a colpa e vergogna.

68
La discrepanza tra i diversi Sé, inoltre, dipende dal grado di rilevanza e di accessibilità delle loro
caratteristiche; non tutte sono importanti allo stesso modo nel definire il nostro Sé, e non tutte sono
sempre accessibili alla nostra consapevolezza.
12.3.2 Teorie implicite e obiettivi
Secondo Dweck, le persone elaborano delle teorie implicite sulle proprie caratteristiche alle quali
associano diversi gradi di modificabilità. Più precisamente, ci sono persone che hanno concezioni:
entitarie, secondo cui “si è come si è”, e i margini per cambiare le proprie caratteristiche sono ridotti; o
incrementali, secondo cui “si diventa come si è”, e ci sono maggiori possibilità di cambiamento anche
per caratteristiche che potrebbero sembrare doti o limiti naturali.
Gli entitari, in genere, si preoccupano di dimostrare ciò che sono e ciò che valgono, vedono le
valutazioni degli altri come giudizi sul loro essere, ai quali sono molto sensibili; inoltre, si pongono
obiettivi di prestazione (o di giudizio).
Gli incrementali, invece, sono orientati all’accrescimento delle loro caratteristiche e vedono le
valutazioni come giudizi sulla prestazione, grazie ai quali migliorarsi, gli errori e i fallimenti vengono
attribuiti allo scarso impegno o alle strategie sbagliate, che possono essere corrette o migliorate; inoltre,
si pongono obiettivi di padronanza (o apprendimento).
Alla distinzione tra obiettivi di prestazione e di padronanza, Elliot e McGregor hanno aggiunto quella
tra obiettivi di approccio e di evitamento. Gli obiettivi di approccio spingono la persona ad
affrontare compiti, attività e situazioni, mentre quelli di evitamento inducono ad evitarli; entrambi i tipi
di obiettivi possono combinarsi con quelli di prestazione e padronanza.
Anche se le persone hanno degli orientamenti piuttosto generalizzati ai diversi ambiti delle loro vite, la
ricerca dimostra come alcuni fattori di contesto possono influenzare gli obiettivi che esse stabiliscono e
perseguono.

12.4 Il cervello motivato


12.4.1 Sistemi di attivazione e sistemi di inibizione
Gable ha ideato una gerarchia motivazionale che pone alla base gli obiettivi, a livello intermedio i
motivi, e all’apice i tratti temperamentali di un sistema di approccio e di un sistema di evitamento.
Secondo questo modello, quindi, il comportamento è indirizzato al raggiungimento di obiettivi di
approccio o evitamento, sostenuti da due motivi corrispondenti che, a loro volta, sono espressione di
due sistemi che regolano vari aspetti emotivi, motivazionali e comportamentali del funzionamento della
persona.
Una distinzione simile è quella di Gray, che parla di un sistema di attivazione del comportamento
(behavioral activation system, BAS), che induce ad avvicinarsi e ad affrontare, è sensibile al rinforzo ed
è alla base dell’impulsività; e di un sistema di inibizione del comportamento (behavioral inibition
system, BIS), che porta al ritiro e all’allontanamento, è sensibile alla punizione e alla mancanza di
rinforzo, ed è alla base dell’ansia.
La predisposizione ad un’elevata attivazione del BAS o del BIS viene spesso misurata con le BIS/BAS
scale di Carver e White, costituite da una serie di domande che misurano le diverse sfaccettature
comportamentali dei due sistemi.
Una proposta più recente arriva da Higgins, che differenzia tra un focus (orientamento) regolatorio che
definisce promotion, e un focus regolatorio che definisce prevention. Secondo lui le persone sono
diversamente caratterizzate in termini di atteggiamento verso il rischio. La teoria di Higgins è mossa dal
presupposto che la motivazione al comportamento è almeno in parte riconducibile ad un principio
edonico di massimizzazione del piacere che può essere ottenuto evitando un danno (prevention) o
ottenendo qualcosa (promotion).
12.4.2 Piacere e volere
Numerose ricerche hanno contribuito alla definizione del sistema della ricompensa (reward system),
che coinvolge diverse aree della corteccia prefrontale e del sistema mesolimbico, compreso il principale
centro di rilascio della dopamina, che viene rilasciata quando anticipiamo qualcosa di piacevole, o

69
quando riceviamo una ricompensa; la dopamina ci consente anche di distinguere tra gli stimoli e gli
eventi ambientali quelli che hanno valore di rinforzo, orientando il nostro comportamento nella loro
direzione.
Secondo Berridge e Kringelbach il sistema della ricompensa comprende due sottosistemi, che possono
attivarsi anche indipendentemente: il sistema del piacere nell’ottenere ricompense e il sistema del
volere alcune cose più di altre. Solitamente i due sistemi agiscono insieme, cioè desideriamo le cose che
ci arrecano piacere; ma ci possono essere anche casi di dissociazione nei quali desideriamo cose che non
ci fanno stare particolarmente bene: caso tipico delle dipendenze.
12.4.3 Ricercare sensazioni
Alcune persone amano le attività varie ed estreme, si sentono sfidate dall’aspettativa di affrontare il
rischio e di superare i propri limiti.
Zuckerman chiama sensation seeking (ricerca di sensazioni), il bisogno che alcuni hanno di essere
stimolati da nuove e complesse esperienze, e da emozioni continue ed intense.
Le persone maggiormente sensation seeker tendono ad ignorare il rischio, lo negano o lo minimizzano
e si sperimentano in attività rischiose di vario genere: fisiche, sociali o finanziarie. Elevati livelli di
sensation seeking sono tipici anche di alcune scelte professionali, come la carriera militare, e di
condizioni di dipendenza da droghe e attività antisociali.
Studi recenti hanno confermato l’influenza genetica sulla sensation seeking e l’associazione positiva con
i livelli di testosterone, che spiegherebbero il maggiore livello di sensation seeking riscontrato nei
maschi rispetto alle femmine.
La ricerca di novità che caratterizza la sensation seeking è in certa misura espressione di quella che
Berlyne definì curiosità epistemica, alla cui base pose il bisogno di conoscere e di esplorare il mondo
fisico e quello immateriale. Nel sensation seeker non sono importanti l’obiettivo e il risultato, ma ciò
che si prova cadendo giù.

12.5 Il ruolo dell’esperienza soggettiva


12.5.1 Motivazione intrinseca e motivazione estrinseca
Quando la ragione per svolgere l’attività risiede nell’attività stessa si dice che essa è retta da motivazione
intrinseca, per cui gli incentivi e le ricompense sono interni alle attività e la persona è disposta a
investire tempo ed energie.
Opposta è la motivazione estrinseca, in cui la ragione per svolgere l’attività risiede all’esterno
dell’attività stessa: il comportamento è alimentato dal desiderio di una ricompensa esterna.
Numerosi studi in ambito scolastico hanno dimostrato che, rinforzare estrinsecamente un’attività
intrinsecamente motivata, per esempio somministrando ricompense varie, compromette l’attività stessa
e riduce l’interesse.
Non sempre le attività “nascono” come attività da motivazione intrinseca, ma possono diventarlo. Deci
e Ryan ipotizzano un continuum motivazionale che va dall’assenza di motivazione alla motivazione
intrinseca, passando per 4 stadi di motivazione estrinseca:
- Stadio della regolazione esterna, in cui lo svolgimento dell’attività è conseguenza di rinforzi,
minacce di punizione e desiderio di compiacere gli altri. Il controllo nello svolgimento
dell’attività è totalmente esterno e la persona non sceglierebbe mai di fare una cosa se non
spinta da qualcosa o qualcuno;
- Stadio della regolazione introiettata, in cui la persona agisce sotto la spinta di premi o
punizioni che si dà da sola, per evitare stati emotivi di colpa e ansia o per alimentare l’autostima.
Il controllo è interno e l’attività è scelta dalla persona, ma non viene vissuta come espressione di
sé;
- Stadio della regolazione per identificazione, che è regolato dalla presenza di un obiettivo che
ha valore per la persona. Il controllo è interno e l’attività è sorretta da autoregolazione e viene
valorizzata perché rispecchia i valori della persona;

70
- Stadio della regolazione integrata, che caratterizza lo svolgimento di un’attività che è
espressione di sé o comunque in armonia con il Sé. Il controllo e la regolazione sono totalmente
interni. La persona si sente competente e ritiene importante ciò che fa.
Il continuum motivazionale si trova nell’ambito della teoria dell’autodeterminazione di Deci e Ryan,
secondo cui le persone sono realmente motivate a fare qualcosa quando hanno la possibilità di scegliere
autonomamente attività che sono espressioni di sé e che permettono il coinvolgimento delle proprie
capacità, nella direzione di un crescente sviluppo psicologico e relazionale. Questi due studiosi
ritengono che le persone abbiano una naturale spinta all’autorealizzazione che si raggiunge solo quando
alcuni bisogni psicologici innati e universali trovano piena soddisfazione; questi bisogni sono
competenza, autonomia e relazionalità.
12.5.2 Il flow
La presenza di motivazione intrinseca è una delle caratteristiche del flow (flusso), o esperienza ottimale,
una particolare condizione di assorbimento e coinvolgimento nell’attività, descritta grazie a una serie di
interviste fatte a sportivi e artisti. È stato osservato che gran parte degli intervistati riconosceva un
particolare stato di esperienza, chiamato “esperienza di flow”, caratterizzato da:
- Chiarezza di direzione e azione. La persona sa dove e come andare in una direzione;
- Senso di controllo sulla situazione e sull’attività svolta;
- Percezione di fluidità e di mancanza di ostacoli nello svolgimento dell’azione;
- Concentrazione spontanea e senza sforzo;
- Esperienza temporale distorta. La persona non sa da quanto è concentrata nell’attività;
- Perdita di consapevolezza di sé. La persona vive uno stato di totale coinvolgimento.
La principale condizione che rende possibile questa esperienza è il bilanciamento tra elevate
opportunità di azione e sfide offerte dall’ambiente (challenges) e adeguate capacità personali di
affrontarle (skills). A situazioni di sbilanciamento tra queste due si associano esperienze di noia o ansia:
la noia si presenta quando le capacità eccedono le sfide dell’ambiente; l’ansia quando si verifica il
contrario.
La chiarezza degli obiettivi e la disponibilità di feedback sono ulteriori elementi che facilitano
l’esperienza di flow, che ha una forte valenza motivazionale, soprattutto perché la positività dello stato
affettivo e della gratificazione, a questo associate, permettono che la persona tenda nel tempo a
ricercare attività che hanno condotto al flow, per poterle svolgere ancora (processo di selezione
psicologica). Tramite questo processo le persone costruiscono un proprio tema di vita, costituito
dall’insieme delle attività, degli interessi, e degli obiettivi più ricercati e coltivati nel corso della vita.

CAP 13. LA DECISIONE


13.1 Introduzione
Al termine della catena di processi che portano l’organismo a ricevere e codificare informazioni,
apprenderle in memoria ed elaborarle suscitando emozioni, motivazioni, comunicazioni e pensieri, si
trova il comportamento manifesto. Alcuni comportamenti sono automatici, altri derivano da decisioni
consapevoli.
La decisione, o scelta consapevole tra almeno due possibilità, che riusciamo a concepire mentalmente, è
in molti casi l’ultimo passaggio di elaborazione mentale prima della pianificazione e dell’attuazione di
comportamenti. Decidere bene può significare evitare problemi; decidere male il contrario: per questo
lo studio della decisione è collegato a quello sulla razionalità umana.

13.2 Due approcci complementari


Nel dibattito sulla razionalità umana è centrale la ricerca di criteri che permettono la distinzione tra
scelte più o meno razionali; in questo è si dividono due indirizzi nello studio della decisone: l’approccio
normativo e l’approccio descrittivo.

71
13.2.1 L’approccio normativo: una logica della decisione
L’obiettivo dell’approccio logico-normativo consiste nell’individuare dei formalismi per definire le
scelte, in modo da poter raggruppare quelle che, rispettando un numero di assiomi di coerenza
interna e uno o più criteri di scelta (regole decisionali), possono essere definite razionali, intese come
logiche, o internamente coerenti. Adattando queste scelte ad un contesto, le scelte razionali sono anche
quelle ottimali o vantaggiose per chi le utilizza.
Si studiano le decisioni come se gli individui facessero i calcoli necessari per scegliere, decidere e agire
nel rispetto di alcuni assiomi di razionalità. Il protagonista dei modelli economici di questo tipo è un
agente o decisore virtuale, il cui comportamento è relativamente semplice e definibile da un insieme di
assiomi. L’agente decisore viene chiamato homo oeconomicus, ed è dotato di un definito ordinamento
di preferenze sulle alternative a disposizione; è anche in grado di formare aspettative probabilistiche ed
elaborare informazioni secondo le leggi del calcolo delle probabilità.
I tipi di scelte si distinguono in: quelle in condizioni di certezza, che sono quelle fra corsi d’azione
alternativi che comportano sempre un esito sicuro; e quelle in condizioni di incertezza, che sono quelle
in cui le conseguenze di almeno una delle alternative non è sicura, ma legata a gradi di probabilità, e si
dividono in rischiose (quando i gradi di probabilità degli esiti sono definiti) e incerte in senso proprio
(quando si sa che un esito è possibile ma non si sa in quale probabilità).
In condizioni di incertezza, l’homo oeconomicus è un massimizzatore dell’utilità attesa. La Teoria
dell’utilità attesa (sviluppata in seguito da Savage con la Teoria dell’utilità attesa soggettiva) costituisce
il fondamento storico di questo approccio. La nozione di utilità è associata a quella di valore atteso: il
valore è una misura assoluta e oggettiva; l’utilità, invece, è una misura relativa, associata ad un valore. Il
valore atteso di un’opzione di scelta consiste nella valutazione delle conseguenze di quella scelta,
considerando il momento in cui quelle conseguenze si verificheranno, e le probabilità che si verifichino
effettivamente.
I modelli normativi si occupano soprattutto dei risultati aggregati dei comportamenti di molti agenti, o
di molte scelte fatte da uno stesso agente. In certi casi fare una scelta che massimizza il valore atteso,
può portare anche all’aumento del rischio, infatti, la massimizzazione del valore atteso non può
costituire l’unica regola decisionale di un modello razionale. È necessario, quindi, considerare anche il
valore personale attribuito dal decisore in un certo contesto, insieme al valore oggettivo associato agli
esiti di una scelta. Il concetto di valore atteso è stato così affiancato, grazie a Bernoulli, da quello di
utilità attesa, per cui una funzione di utilità è intesa come misura della soddisfazione associata agli esiti
monetari di una scelta, e introduce il concetto di utilità marginale decrescente; nel considerare
l’utilità associata ad un esito monetario, incrementi successivi della stessa entità di questo stesso esito
determinano un incremento di utilità sempre minore per l’individuo.
Molto tempo dopo, von Neumann e Morgenstern rielaborarono la Teoria dell’utilità attesa, nella loro
Teoria dei giochi e comportamento economico, per cui la massimizzazione dell’utilità attesa è il
criterio razionale nella scelta tra una serie di alternative definite “rischiose”, in quanto inserite in un
contesto decisionale caratterizzato dall’incertezza, ma con gradi di probabilità ben definiti. Alla base c’è
l’idea che un agente, di fronte ad una decisione da prendere, sia sempre in grado di esprimere
preferenza, o indifferenza, tra uno stato e un altro, e riesca sempre a stabilire un ordinamento di
preferenze tra le combinazioni probabilistiche di questi stati. Questa teoria, quindi, prevede che una
qualche funzione di utilità, che può variare in base all’atteggiamento verso il rischio dell’agente e in base
al tipo di ambito in cui si presenta la scelta, permetta di convertire le caratteristiche di un’opzione in
utilità. La funzione di utilità è razionale se rispetta i criteri di coerenza interna:
- Principio della transitività. Se in una scelta, un agente, preferisce un esito A ad un esito B, e un
esito B ad un esito C, allora dovrà preferire A a C;
- Principio della dominanza. Se in una scelta l’alternativa A è preferita a B in tutte le
rappresentazioni possibili, allora necessariamente A sarà preferita a B sempre;
- Principio dell’invarianza. L’ordine delle preferenze tra opzioni di scelta non cambia in base al
modo in cui sono presentate, quindi la presentazione del problema decisionale non ha nessun
effetto sull’ordinamento di preferenze;

72
- Principio dell’indipendenza. L’ordine delle preferenze tra opzioni di scelta è indipendente dalle
alternative irrilevanti.
Savage si soffermò sui problemi decisionali in condizioni di incertezza in senso proprio, con la sua
Teoria dell’utilità attesa soggettiva: la principale differenza rispetto alla prima teoria consiste
nell’introduzione del concetto di probabilità soggettiva. Savage nota che in molti casi anche i valori di
probabilità associati agli esiti non sono oggettivamente dati, ma il risultato è in gradi di fiducia.
13.2.2 Alcune critiche all’approccio normativo
Nonostante il modello normativo resti un fondamentale metro di paragone della razionalità delle scelte
umane in ambiti professionali, nel corso del tempo si notò che non era molto in grado di predire la
direzione di alcune scelte umane. Si sentì, quindi, l’esigenza di creare modelli che fossero più in grado di
catturare i principali fattori che caratterizzano non tanto la scelta “ideale”, ma la scelta umana così come
essa si svolge; da qui vennero introdotti alcuni fattori umani che influenzano le scelte e che sono
indagati empiricamente.
Simon è tra i primi ad affermare che la comprensione del comportamento di scelta tra individui richiede
lo studio di fattori cognitivi che portano a comportamenti di scelta diversi da quelli considerati razionali
nei modelli normativi. Per Simon, l’attività cognitiva dei singoli decisori è caratterizzata da razionalità
limitata: esistono numerosi limiti cognitivi che si esprimono nell’incertezza e nell’ambiguità dei criteri
cui attenersi nel prendere decisioni. In presenza di fattori come la complessità dei problemi, la
disponibilità di un numero ridotto di informazioni ed esperienze, e il tempo limitato per scegliere, i
decisori ricercano esiti soddisfacenti rispetto a certi livelli di aspirazione, invece di perseguire
l’ottimizzazione dei risultati conseguibili. Da queste critiche nacque l’approccio descrittivo allo studio
della descrizione umana.
13.2.3 L’approccio descrittivo e la Teoria del prospetto
Tversky mostrò che il principio di transitività è spesso disatteso, arrivando addirittura ad affermare che
in alcuni ambiti decisionali è proprio l’intransitività delle preferenze a costituire la condizione più
frequente delle scelte individuali.
Un’altra proposta fu quella di Lichtenstein e Slovic, che si concentrò sul rovesciamento delle
preferenze: osservarono che gli individui, in numerosi esperimenti, di fronte alle stesse opzioni tendono
ad assumere un atteggiamento avverso al rischio (cercando di massimizzare la probabilità di vincita, per
quanto piccola) in compiti di scelta, mentre si dimostrano propensi al rischio (cercando di massimizzare
la vincita, anche riducendone la probabilità) in compiti di valutazione.
A partire dagli anni ’70 numerose prove empiriche evidenziariono la bassa euristicità del modello
normativo per la comprensione delle scelte individuali; così si consolidò l’approccio descrittivo, che si
proponeva di descrivere il modo in cui le persone effettivamente ragionano, prendono decisioni e
formulano giudizi.
Tra i tentativi di sviluppare la Teoria dell’utilità attesa in senso psicologicamente realistico, il migliore è
stato quello della Teoria del prospetto di Kahneman e Tversky, che introduce all’utilità attesa delle
modifiche che permettono di catturare le divergenze tra comportamento decisionale atteso in un agente
razionale e comportamento effettivo osservato nei decisori umani. L’idea alla base della teoria è che gli
individui valutino le alternative di scelta in termini di scarto da un punto di riferimento, e che queste
valutazioni siano differenti in base al fatto che si tratti di guadagni o perdite rispetto a quel punto di
riferimento, quindi uno stesso prospetto può avere utilità diverse per ogni decisore.
Secondo la Teoria del prospetto, il processo decisionale si articola in due fasi: la strutturazione del
problema decisionale e la conseguente valutazione. Nella prima fase, il decisore procede a un’analisi
del problema attraverso:
- La codifica delle opzioni di scelta, in termini di guadagno o perdita rispetto al punto di
riferimento;
- La segregazione, che porta a separare le decisioni che implicano rischi da quelle che non li
implicano;
- La cancellazione, che prevede l’eliminazione dalle descrizioni delle opzioni delle componenti
condivise dalle varie alternative;

73
- La combinazione, attraverso cui le alternative che portano ad esiti identici vengono raggruppate
e valutate complessivamente;
- La semplificazione, che si ottiene arrotondando le probabilità e i risultati attesi percepiti come
simili;
- La rilevazione di dominanza, che prevede l’eliminazione dei prospetti dominanti e la
focalizzazione per la decisione sui soli prospetti dominanti.
Nella seconda fase, il decisore confronta i diversi prospetti decisionali e sceglie quello con valore più
alto, che è assegnato ad ogni opzione secondo la funzione di valore. La Teoria del prospetto e la Teoria
dell’utilità attesa si differenziano per: la nozione di valore, il concetto di peso decisionale e il ruolo della
rappresentazione decisionale.
La funzione di valore è una funzione di utilità razionale in accordo con la teoria di von Neumann e
Morgenstern, ma riflette anche un’importante innovazione: l’argomento della funzione non è il valore
oggettivo di un esito, ma il differenziarsi dell’esito oggettivo dal punto di riferimento individuale, subito
nella fase di strutturazione dei prospetti; questo, dal punto di vista psicologico, si traduce in due delle
proprietà delle decisioni umane:
- gli individui hanno una sensibilità marginale ai guadagni e alle perdite che diminuisce man mano
che ci si allontana dal punto di riferimento;
- gli individui sono maggiormente sensibili alle perdite rispetto ai guadagni (effetto di avversione
alle perdite).
Il secondo elemento fondamentale della teoria del prospetto è il concetto di peso decisionale, che indica
il modo in cui le persone considerano le probabilità associate agli esiti di una scelta (probabilità
soggettiva).
Se il punto di riferimento spesso coincide con la posizione attuale del decisore, in altri casi può
spostarsi, e questo spostamento può essere influenzato dal modo in cui si presenta il prospetto
decisionale, e può determinare cambiamenti nell’atteggiamento verso il rischio, a seconda che gli esiti di
un prospetto siano mentalmente rappresentati come possibili guadagni o perdite.
13.2.4 Gli effetti di incorniciamento
Il terzo elemento distintivo riguarda il ruolo della rappresentazione mentale del problema decisionale,
connesso all’operazione di codifica. Alcuni cambiamenti nei punti di riferimento, con i conseguenti
cambiamenti di preferenze, sono causati da effetti di incorniciamento; lo stesso problema decisionale
può condurre a decisioni differenti a seconda del modo in cui è descritto (decision frame)
Uno dei punti di forza della teoria del prospetto è stato quello di individuare una serie di fenomeni
precedentemente non considerati, e comunque non facilmente catturati nel modello normativo.

BOX. Effetti di incorniciamento e comunicazione della salute


Esistono diversi tipi di effetti di incorniciamento, uno dei quali è l’effetto di incorniciamento del
fine; i messaggi che vengono utilizzati in quest’ambito possono essere formulati in modo da
sottolineare i costi o da evidenziare i benefici.
Rothman e Salovey identificano tre contesti differenti all’interno dei quali studiare questo effetto:
- Decisioni di salute personale riferite a comportamenti di individuazione di possibili malattie;
sono visti come comportamenti “rischiosi”, perché possono portare all’individuazione di
una malattia;
- Decisioni di salute personale riferite a comportamenti di prevenzione di possibili malattie;
effetto che sembra essere più forte in chi ha una maggiore percezione del rischio, sembra
aumentare all’aumento della percezione di efficacia del comportamento di prevenzione e
all’aumento della percezione di esposizione al problema di salute che si cerca di evitare.
- Decisioni di salute personale riferite alla scelta di una cura tra più possibili. Le persone
sembrano più propense a sottoporsi a trattamenti chirurgici quando i rischi vengono
presentati in termini di percentuali di sopravvivenza.

74
13.3 Eurustuche di giudizio ed errori
L’incertezza è uno degli aspetti fondamentali della vita quotidiana.
Nell’ambito della decisione e dell’azione umana, il programma di ricerche più vasto è quello delle
euristiche e bias di Kahneman e Tversky; secondo i risultati di questo programma, le persone sono
incapaci, in molti casi, di analizzare completamente le situazioni che prevedono giudizi di natura
probabilistica, e non hanno risorse computazionali adeguate per lo svolgimento delle stime richieste dai
principi di calcolo probabilistico e statistico. Quando queste giudicano delle probabilità, si affidano a
delle euristiche, cioè delle scorciatoie mentali che semplificano il compito, ma che in alcuni casi
inducono ad esprimere giudizi erronei.
Il concetto di euristica fu introdotto da Simon nell’ambito degli studi sul problem solving. Lui le
considerava strategie, principi ed espedienti che permettono agli individui di affrontare e gestire la
complessità dei problemi.
Secondo Tversky e Kahneman, essendo strategie semplificate, le euristiche sono inappropriate, perché
si basano su valutazioni automatiche e quindi sono messe in atto non solo per compiti complessi, ma
anche per rispondere a problemi molto semplici.
Analizzando il tipo di informazioni di cui si avvale ogni strategia euristica, è possibile prevedere in quali
contesti, e attraverso quali meccanismi, quella strategia porterà a giudizi sistematicamente e
prevedibilmente erronei: i bias.
Le tre strategie euristiche più studiate, per quanto riguarda i giudizi probabilistici, sono quelle della
rappresentatività, della disponibilità, e dell’ancoraggio e aggiustamento.
13.3.1 L’euristica della rappresentatività
L’euristica della rappresentatività porta a valutare la probabilità di un evento in base al grado in cui
questo rappresenta la sua fonte o il processo che lo produce.
L’esempio più noto è il problema di Linda: esperimento in cui i partecipanti dovevano leggere la
descrizione di una donna e ordinare dal punto di vista probabilistico otto possibili attività che
riguardavano la donna descritta; la descrizione era ideata in modo da risultare rappresentativa per una
categoria di persone e non per un’altra. I risultati ottenuti indicavano che la congiunzione delle due
categorie veniva ordinata dalla maggioranza dei soggetti in una posizione più alta rispetto ad uni dei
suoi costituenti, quello meno rappresentativo. La risposta dei soggetti rappresentava un’evidente
violazione della regola di congiunzione, che deriva direttamente dalla regola di estensione: la
congiunzione di due eventi non può mai essere più probabile di ciascuno dei suoi costituenti (fallacia
dell’intersezione).
L’euristica della rappresentatività sembra essere responsabile anche della fallacia delle probabilità di
base.
13.3.2 L’euristica della disponibilità
L’euristica della disponibilità consiste nel valutare la probabilità di un evento in base alla sua
disponibilità, cioè in base alla facilità con cui esemplari o casi di tale evento possono venire in mente. Il
concetto di disponibilità fa riferimento a due diversi processi: la facilità di recupero in memoria e la
facilità di costruzione/immaginazione dei casi dell’evento che si deve stimare.
In molte situazioni questa euristica può condurre a stime abbastanza accurate, per il fatto che gli esempi
più frequenti di un evento sono in genere più facili da ricordare e da immaginare rispetto a quelli meno
frequenti. Il recupero di casi o esempi, però, è influenzato anche da altri fattori che non hanno niente a
che fare con l’effettiva occorrenza degli eventi e, di conseguenza, ci sono varie situazioni in cui questa
euristica porta a errori di giudizio (giudizi di probabilità che si discostano in maniera significativa dalle
probabilità reali).

75
BOX. Euristica della disponibilità e distorsioni di giudizio nelle decisioni
mediche: un esempio
La ricerca sperimentale nell’ambito della psicologia della decisione ha mostrato come spesso anche
gli esperti abbiano difficoltà nell’elaborazione di giudizi probabilistici normativamente corretti.
Un esempio è lo studio di Poses e Anthony, che analizzarono le decisioni dei medici in un contesto
che prevedeva un giudizio sulle probabilità di infezioni batteriche in pazienti ospedalizzati a cui
erano prescritte delle emoculture: i medici dovevano decidere la terapia antibiotica da utilizzare in
base alla stima diagnostica che il paziente avesse, o meno, un’infezione batterica. I risultati hanno
mostrato che l’euristica della disponibilità ha un effetto significativo sulle diagnosi: le valutazioni
intuitive della probabilità di infezione da parte dei medici non furono accurate, perché quasi tutti
sovrastimarono la probabilità; c’è stata una scarsa capacità di discriminazione dei medici tra pazienti
con, e senza, infezione. L’influenza dell’euristica della disponibilità su queste percezioni errate fu
rifiutata da una serie di dati: ci fu un legame tra alcune variabili associate al ricordo, da parte dei
medici, di esperienze cliniche passate e i loro giudizi; fu rilevata una correlazione positiva tra la
proporzione degli individui sotto antibiotici che i medici ricordavano tra i loro pazienti, e le stime di
probabilità di infezione batterica sui singoli pazienti coinvolti nello studio.
I risultati ottenuti suggerirono l’esistenza di una distorsione valutativa: i medici assegnarono stime di
probabilità di infezione più basse a pazienti ritenuti più a rischio di morte, nel caso fossero stati
effettivamente colpiti da quell’infezione. Effetto noto come wishful thinking: si ritiene più bassa di
quanto sia la probabilità di un evento indesiderabile, e si ritiene più alta la probabilità di un evento
desiderabile.
L’euristica della disponibilità può in molti casi condurre a giudizi di buona qualità (ad esempio, nel
giudizio di eventi legati da nessi causali può permettere di riconoscere in tempo reali cambiamenti
nella prevalenza della malattia), ma va considerato anche che i casi in cui essa può allontanare il
giudizio da quello corretto, favorendo diagnosi sbagliate, con conseguenze anche gravi per la vita.

13.3.3 L’euristica dell’ancoraggio e aggiustamento


L’euristica dell’ancoraggio e aggiustamento è definita da Tversky e Kahneman come un processo
tramite il quale le persone formulano delle stime partendo da un valore iniziale che viene poi aggiustato
per produrre una stima finale. Il dato iniziale, cioè il punto di riferimento al quale le persone ancorano i
loro giudizi, può essere suggerito dalla formulazione del problema, o essere il risultato di un calcolo
parziale; in molte situazioni, però, l’aggiustamento che segue non è sufficiente (la stima finale di colloca
quindi più vicina al punto di riferimento iniziale rispetto a quanto dovuto per un giudizio corretto).
13.3.4 L’immagine compromessa della razionalità umana
Il programma di ricerche di Tversky e Kahneman evidenziò una serie di errori sistematici commessi
dalla maggioranza delle persone su molti tipi di problemi di giudizio. I risultati ottenuti vedono gli
individui come sostanzialmente irrazionali quando esprimono i loro giudizi.
Gli errori evidenziati dalle ricerche sono errori di competenza, intrinseci ai meccanismi della
cognizione, e quindi sistematici. Gli individui nell’esprimere i loro giudizi intuitivi, non utilizzano le
regole della logica e della probabilità, e si avvalgono di un insieme di regole e principi (le euristiche)
che possono portare a giudizi e scelte corrette, ma in certi contesti inducono in errori sistematici,
prevedibili, ma con effetti anche molto gravi.
13.3.4.1 Le ipotesi alternative
L’intenzione dei critici dell’approccio euristiche e bias è quella di fornire spiegazioni alternative degli
errori sistematici, e innegabili. Le ipotesi sono sostanzialmente quattro:
- Gli errori rilevati sono errori di prestazione e non errori di competenza (ipotesi degli errori di
prestazione). Le differenze tra i modelli normativi e le risposte dei soggetti sono dovute ad
errori di prestazione. Le motivazioni possono essere: distrazione o mancanza di attenzione,
problemi di memoria, carenza di motivazione. Il dato che contrasta con questa ipotesi è la

76
sistematicità degli errori rilevati, infatti, non è facilmente spiegabile come errori dovuti a
qualcosa di poco prevedibile si ripetano ogni volta con determinati problemi di ragionamento.
- Gli errori sono dovuti alla presenza di limiti computazionali dei quali spesso non si tiene
conto (ipotesi dei limiti computazionali). Anche se ci sono studi che evidenziano una
correlazione tra le abilità cognitive dei soggetti e le loro prestazioni in alcuni problemi di
giudizio, per altri problemi di giudizio e di ragionamento i risultati mostrano che non c’è
correlazione tra le abilità cognitive generali e l’aderenza alle regole della logica e della
probabilità.
- Gli errori sono dovuti a una scelta sbagliata, da parte degli sperimentatori, delle norme a cui
fare riferimento (ipotesi del modello normativo errato). Questa critica riguarda la scelta delle
norme attraverso le quali poter valutare come razionali o meno le scelte e i giudizi degli
individui. Questa ipotesi prevede che sia proprio la scelta di un modello normativo sbagliato ad
aver portato i soggetti a prestazioni apparentemente deludenti. L’ipotesi frequentista è l’esempio
più noto in letteratura: viene criticata la teoria normativa della probabilità utilizzata come
parametro per valutare le prestazioni dei soggetti.
- Gli errori sono dovuti a una interpretazione dei problemi, da parte dei soggetti, diversa da
quella intesa (e attesa) dagli sperimentatori (ipotesi della costruzione del compito alternativa).
Secondo questo punto di vista, si ritiene che i soggetti forniscano effettivamente risposte
normativamente corrette, ma a problemi diversi da quelli intesi dallo sperimentatore. La causa
dell’errore non risiede nei soggetti, ma nel problema stesso, e in alcune sue caratteristiche che
portano a una sua interpretazione non univoca.
13.3.5 Gli sviluppi del dibattito sulla razionalità: il modello dei due sistemi di pensiero e
la nuova concezione delle euristiche
Nel tentativo, da parte di diversi studiosi, di costruire un modello teorico della cognizione umana
comprendendo le diverse prospettive sul dibattito della razionalità umana, è nata la proposta di un
modello cognitivo che prevede l’azione di due sistemi di pensiero distinti, che si riferisce ad una
famiglia di teorie, tutte accomunate da sostanziali concordanze sull’ipotesi di due processi distinti di
pensiero: il sistema 1 e il sistema 2.
Il sistema 1 è descritto come intuitivo, basato su processi largamente inconsci, automatico, veloce; una
specie di sistema esperenziale che prevede elaborazioni esclusivamente euristiche, associative, o basate
su un solo modello mentale, e che non richiede un grande utilizzo di risorse cognitive.
Il sistema 2 è un potenzialmente razionale, consapevole, controllato, relativamente lento, con
elaborazione di tipo analitico basata su regole o sulla costruzione di molteplici modelli mentali, e che
richiede l’utilizzo di maggiori risorse cognitive.

13.4 Rischio e decisione


La parola rischio ha un senso tecnico della scienza delle decisioni: con “decisioni rischiose” ci si
riferisce a quei contesti di scelta incerta dove sia i possibili esiti, sia le loro probabilità sono noti.
Rischio, inoltre, ha anche un’altra accezione, che si riferisce all’incertezza verso l’avverarsi di una
possibile perdita, anche se il suo grado di probabilità non è noto.
La percezione del rischio è una particolare forma di giudizio, ampiamente studiata per i suoi
importanti aspetti applicativi; fa riferimento ad un processo cognitivo attivo e selettivo: l’individuo
elabora le informazioni che provengono dall’ambiente in cui vive, le seleziona, le trasforma, per poi
organizzarle e darle un significato, giungendo alla costruzione di una personale rappresentazione della
realtà.
Il comportamento dell’individuo dipenderà da questo tipo di rappresentazione.
Analizzare la percezione del rischio permette anche di comprendere le ragioni alla base di alcune
importanti anomalie del comportamento umano: sono frequenti i casi in cui gli individui percepiscono
o si focalizzano solo su alcuni aspetti della situazione rischiosa, generando vere e proprie distorsioni
nella percezione del rischio, che portano a valutare come pericoloso un comportamento che in realtà
non lo è, oppure come innocuo un comportamento decisamente pericoloso.

77
13.4.1 Definizione di rischio
Uno dei modi possibili di definire il rischio è legato alla teoria formale delle probabilità, e implica la
possibilità di calcolare il rischio in modo obiettivo, attraverso, per esempio, il prodotto della probabilità
di una perdita per l’entità della stessa.
Un secondo tipo di definizione si focalizza sulla percezione “ingenua” dei rischi; sono teorie
descrittive, strettamente connesse ad una visione soggettiva delle probabilità. Il rischio è determinato
dalla possibilità di perdite, dalla rilevanza di queste perdite, e dall’incertezza associata a queste.
Una terza prospettiva si focalizza sul processo o meccanismo attraverso il quale si può verificare, per
l’individuo, l’evento indesiderato. È stato sottolineato come l’esperienza del rischio preveda una
mancanza di “controllo percepito” per i soggetti associata ad un esito ritenuto indesiderabile dagli
stessi: in questo caso, il rischio è rappresentato proprio dall’impossibilità di impedire ed evitare il
verificarsi dell’evento dannoso per il soggetto.
Le diverse definizioni di rischio prevedono comunque, quasi sempre, la presenza di tre elementi: una o
più conseguenze associate all’oggetto del rischio, che possono avere un impatto sull’uomo sia a breve
che a lungo termine; la probabilità associata al verificarsi di queste; e il contesto specifico in cui si
possono manifestare quelle conseguenze.
È stata evidenziata la differenza tra rischio oggettivo e soggettivo: il rischio oggettivo è calcolabile
tramite le leggi della probabilità; il rischio soggettivo è rappresentato dalla valutazione individuale e
personale del rischio.
Per Sandman, per esempio, il rischio è dato dalla somma del pericolo e dell’offesa: il pericolo è ciò che
causa l’evento dannoso per il soggetto, mentre l’offesa racchiude tutto ciò che concerne la percezione
del rischio da parte del pubblico dei non esperti.
13.4.2 Lo studio della percezione del rischio
Ciò che influenza la percezione del rischio dipende dall’origine del rischio stesso, e differisce secondo il
pubblico considerato. Oltre al contesto sociale, influenzano la percezione del rischio fattori come la
posizione sociale degli individui, le loro credenze culturali, i loro valori individuali o di gruppo.
La maggior parte delle ricerche sulla percezione del rischio che hanno studiato la base comune dalla
quale prendono forma i comportamenti esposti a rischi, hanno cercato di individuare la differenza tra il
pubblico dei non esperti e quello degli esperti.
Lo studio della percezione del rischio è stato attuato con diversi metodi di indagine: studi sperimentali,
studi di natura correlazionale-psicometrica e studi condotti con metodi qualitativi.
13.4.3 Le determinanti cognitive della percezione del rischio
Gli aspetti del rischio più considerati dai non esperti, impegnati a valutare la rischiosità di particolari
oggetti o azioni sono:
- Il potenziale catastrofico. Con cui si intende l’insieme delle conseguenze dannose del
verificarsi dell’evento dannoso, ad esempio il numero medio di morti in seguito ad un evento
rischioso correla con la rischiosità percepita;
- Le circostanze del rischio (caratteristiche qualitative). La percezione del rischio è influenzata
dalla volontarietà del rischio (un rischio provocato dall’uomo è più negativo di uno naturale);
dalla controllabilità; dalla dilazione nel tempo delle conseguenze; dal danno percepito per le
generazioni future; dalla familiarità con il rischio; dall’uguaglianza rispetto all’esposizione al
rischio e la percezione di esclusività dei benefici associati all’attività rischiosa.
- Le credenze rispetto alla causa del rischio. Prima di interpretare le informazioni che
provengono dall’esterno, gli individui operano una selezione sulla base delle proprie attitudini e
delle proprie credenze personali; i rischi naturali sono percepiti come più accettabili rispetto a
quelli artificiali;
- La credibilità delle istituzioni volte a controllare l’impatto dei rischi. Che agisce per tutti i
rischi che vengono presi dalla società senza il consenso individuale di ogni cittadino, e senza la
possibilità di intervenire sui rischi attraverso un intervento personale. Questi rischi sono
accettati se le persone hanno certezza che la mancanza del proprio controllo sia compensata
dalla presenza di un corretto controllo istituzionale.

78
Lo studio dei giudizi intuitivi sul rischio ha il merito di aver evidenziato la componente affettiva nella
percezione del rischio, e la funzione delle emozioni nella decisione.

13.5 Emozioni e decisione


L’approccio normativo ha portato lo studio della decisione a focalizzarsi principalmente sui processi
analitici e deliberativi della cognizione, trascurando l’influenza delle emozioni. Le decisioni sono state
spesso indagate con compiti sperimentali emotivamente neutri, ideati per filtrare le capacità logiche del
decisore dalle emozioni.
Le emozioni, però, possono influenzare le decisioni con: emozioni anticipate, che riguardano
l’anticipazione delle conseguenze della scelta; emozioni immediate, che si provano al momento della
decisione. Le emozioni immediate si dividono in: emozioni integrali, che riguardano direttamente
l’oggetto della decisione; ed emozioni incidentali, svincolate dall’oggetto della decisione.
A partire dagli anni ’80, Zajonc sottolinea come le reazioni emotive sorgano automaticamente e
vengano poi utilizzate per guidare l’elaborazione delle informazioni che precede il giudizio e la
decisione. Un altro contributo è la teoria dei marcatori somatici di Damasio, che evidenzia come, in
assenza di reazioni emotive integre, il comportamento di scelta sia gravemente ostacolato.
L’approccio descrittivo allo studio della decisione e le teorie del doppio sistema cognitivo aprono la
strada ad una nuova linea di studi che analizza le emozioni come parte integrante del processo
decisionale.
13.5.1 L’euristica dell’affetto
Con il termine affetto ci si riferisce ad un’informazione sensoriale associata ad uno stimolo, in grado di
conferirgli un significato emotivo e di influenzarne la successiva elaborazione. L’affect è la componente
direzionale che può connotare un’emozione (quel che ci fa dire “mi piace” o “non mi piace”); viene
utilizzato anche per comprendere tutto ciò che riguarda stati d’animo ed emozioni.
Alcuni autori hanno ipotizzato l’esistenza di una euristica di giudizio, l’euristica dell’affetto, in parte
derivata dal marcatore somatico di Damasio. Secondo questa ipotesi, durante il processo decisionale le
persone consultano un insieme di “valutazioni affettive”, una specie di contenitore mentale di tutte le
etichette positive o negative associate, consapevolmente o meno, alle rappresentazioni degli stimoli;
queste informazioni poi sarebbero utilizzate come segnali per indirizzare il giudizio. Le caratteristiche
affettive che diventano salienti nel processo di giudizio dipendono sia dalle caratteristiche
dell’individuo, sia da quelle del compito.
Il ruolo delle emozioni è importante anche per quanto riguarda i giudizi di rischio. Secondo l’ipotesi
risk as feeling, le scelte compiute in situazioni rischiose sarebbero il risultato delle reazioni emotive
suscitate dalle situazioni stesse; mentre in realtà, i rischi e i benefici tendono ad essere positivamente
correlati, nei giudizi medi delle persone essi sembrano correlate negativamente.
La relazione inversa tra i rischi e i benefici percepiti di una certa attività è legata alla forza con cui le
sensazioni emotive sono associate all’attività. Le persone baserebbero i loro giudizi non solo su quello
che pensano, ma anche su quello che “sentono”.
13.5.2 Le diverse funzioni delle emozioni
Le recenti ricerche sull’influenza dell’affect nel processo decisionale hanno mostrato come le emozioni
siano in grado di svolgere numerose funzioni:
- Emozioni come elementi informativi. L’emozione si trasforma in informazione ed entra
direttamente nel processo decisionale degli individui aiutando la scelta del comportamento da
adottare. Le emozioni sono in grado di indirizzare le elaborazioni degli stimoli, aiutare nella
comprensione delle informazioni analitiche e guidare la costruzione di preferenze tra le diverse
alternative di scelta.
- Emozioni come elementi che influenzano le strategie decisionali. Le emozioni guidano il
decisore nel riconoscimento delle dimensioni di giudizio più informative, e lo inducono ad
effettuare una rapida semplificazione della situazione decisionale. Uno stato emotivo positivo
predispone il decisore ad affrontare le scelte in modo disinvolto, a riflettere più a lungo, e a
riesaminare informazioni già prese in esame in precedenza; uno stato di attivazione emotiva

79
(arousal) alto lo predispone ad acquisire un minor numero di informazioni, a ridurre il processo
di ricerca, considerando solo gli elementi più importanti.
- Emozioni come elementi motivatori. L’affect ha un ruolo nel condizionare il
comportamento degli individui spingendoli al mantenimento di uno stato d’animo positivo, è in
grado di influenzare i meccanismi di approccio-evitamento, e rappresenta uno dei principali
motori del processo motivazionale decisore.
- Emozioni come filtri. Le emozioni possono filtrare le informazioni, rendendole più o meno
salienti. Gli individui tendono a filtrare gli stimoli focalizzando l’attenzione su aspetti della
decisione più congruenti con il proprio stato d’animo. La condizione emotiva suscitata dal
contesto decisionale induce il decisore a recuperare le informazioni più coerenti con la
situazione che sta vivendo.
- Emozioni come “valuta comune”. Le emozioni permettono il confronto tra informazioni
diverse: attraverso la traduzione di complicate analisi costi-benefici in valutazioni affettive
semplici, le persone sarebbero più in grado di confrontare le diverse alternative di scelta e
verrebbero quindi facilitati nella scelta. Sarebbe la complessità dei contesti decisionali a rendere
irrealizzabile una comparazione analitica delle alternative di scelta e a rendere appropriato
l’affidamento a valutazioni di tipo affettivo (concetto di razionalità affettiva).

80

Potrebbero piacerti anche