Sei sulla pagina 1di 38

FORSTER, K.I. (1979). Levels of processing and the structure of the language processor.

In Sentence processing: Psycholinguistic studies presented to Merrill Garrett (Vol. 27, p.


85).
FRAZIER, L., & FODOR, J.D. (1978). The sausage machine: A new two-stage parsing
model. «Cognition», 6(4), 291-325.
GLUCKSBERG, S., & DANKS, J.H. (1975). Experimental Psycholinguistics: An
Introduction. Hillsdale, NJ: LEA.
HARM, M.W., & SEIDENBERG, M.S. (1999). Phonology, reading acquisition, and
dyslexia: insights from connectionist models. «Psychological review», 106(3), 491.
HAUSER, M.D., CHOMSKY, N., & FITCH, W.T. (2002). The faculty of language: what
is it, who has it, and how did it evolve?. «Science», 298(5598), 1569-1579.
LEVELT, W.J., ROELOFS, A., & MEYER, A.S. (1999). A theory of lexical access in
speech production. «Behavioral and brain sciences», 22(1), 1-38.
MARSLEN-WILSON, W.D. (1987). Functional parallelism in spoken word-recognition.
«Cognition», 25(1), 71-102.
MARTINET, A. (1960). Elements of a functional syntax. «Word», 16(1), 1-10.
MACDONALD, M.C. (1994). Probabilistic constraints and syntactic ambiguity
resolution. «Language and cognitive processes», 9(2), 157-201.
MORTON, J. (1969). Interaction of information in word recognition. «Psychological
review», 76(2), 165.

Capitolo 9
Il pensiero
Katya Tentori

1.Introduzione
2.Il ragionamento
3.La decisione

◼1. Introduzione
Stiamo guardando una trasmissione televisiva su un caso ancora irrisolto che ha destato
l’attenzione generale negli ultimi mesi. Ad un certo punto, il presentatore rivela in
anteprima l’esito di un nuovo esame di laboratorio. Uno dei commentatori sostiene che
questo risultato inchioda il sospetto principale. Un altro dissente e sostiene che, al
contrario, lo scagiona completamente. Come è possibile che due osservatori divergano
così tanto nella valutazione dell’impatto di uno stesso elemento di prova (il risultato
dell’esame) rispetto ad una stessa ipotesi (la colpevolezza del sospetto)? Esistono
procedure per calcolare in modo oggettivo il contributo di un’evidenza rispetto ad una
ipotesi o la probabilità di un’ipotesi alla luce delle evidenze disponibili? Le persone sono
solitamente capaci di realizzare queste stime? Riescono poi ad integrare tutte le
informazioni in loro possesso per prendere delle buone decisioni? In questo capitolo
cercheremo di rispondere a queste ed altre domande sul pensiero umano, inteso qui come
l’insieme dei processi cognitivi che ci permettono di elaborare le informazioni provenienti
dal mondo esterno mettendole in relazione tra loro e con le conoscenze che già
possediamo, per trarre inferenze, prendere decisioni, pianificare azioni e risolvere
problemi. Queste attività vengono spesso considerate di «livello elevato» in
contrapposizione ad altri processi più basilari, come per esempio quelli coinvolti nella
percezione sensoriale. Le ragioni di una tale dicotomia sono fondamentalmente due. La
prima deriva dall’osservazione che i processi cognitivi di alto livello sono caratteristici
(anche se non esclusivi) degli umani, mentre quelli di basso livello sono comuni a varie
specie di animali, spesso supportati da strutture anatomiche e funzionali simili. La seconda
è di carattere metodologico. Diversamente da quanto osservato per i processi di basso
livello, la comprensione dei processi cognitivi di alto livello non ha finora beneficiato
granché dei progressi delle neuroscienze e delle moderne tecniche di elaborazione
dell’informazione. Anche le implementazioni artificiali di maggior successo per simulare
processi di pensiero complessi (si pensi, per esempio, ai programmi sempre più avanzati
per giocare a scacchi o go) non sembrano, per ora, riflettere come questi processi si
realizzano nel nostro cervello. Le difficoltà nello studio del pensiero, per sua natura
«interno» e quindi non direttamente osservabile, spiegano in parte anche la fortuna
altalenante che questo argomento ha trovato nella ricerca psicologica: centrale per alcune
scuole (per esempio, le scienze cognitive o la psicologia della Gestalt), pressoché negletto
da altre (su tutte, il comportamentismo). È tuttavia innegabile che molte importanti attività
umane siano il prodotto di un qualche processo di pensiero, e che i processi di pensiero
non siano poi così diversi fra loro. Le inferenze e le decisioni di un medico impegnato in
una diagnosi clinica, di un pubblico ministero che esamina un caso per decidere se
chiederne o meno l’archiviazione, di un ricercatore che cerca di comprendere un certo
fenomeno, malgrado i contenuti specifici, sono strutturalmente molto simili. In tutti i casi,
si tratta di fare una scelta sulla base della fiducia che si ripone in un’ipotesi alla luce delle
evidenze disponibili. Per esempio, il medico deciderà di prescrivere al paziente un certo
farmaco perché i suoi sintomi e gli esiti degli esami a cui si è sottoposto fanno ipotizzare
che sia affetto dalla tal malattia, il pubblico ministero deciderà di archiviare il caso perché
le prove raccolte non sono sufficienti a ipotizzare che l’indagato abbia commesso il fatto
di cui lo sia accusa, il ricercatore deciderà di abbracciare una determinata posizione
teorica perché i risultati degli esperimenti che ha condotto sembrano favorirla rispetto alle
spiegazioni alternative. Comprendere come le persone pensano, quali errori commettono e
perché li commettono è dunque interessante non solo da un punto di vista strettamente
cognitivo, ma anche nell’ottica di ricavare delle indicazioni concrete per cercare di
migliorare le prestazioni umane nella vita di tutti i giorni. Proprio in virtù dell’importanza
dei risultati sperimentali finora ottenuti e delle loro potenziali ricadute applicative, in
questo capitolo, ci occuperemo nello specifico di due processi di pensiero: il ragionamento
e la decisione.

◼2. Il ragionamento
Con il termine ragionamento si indicano i processi di pensiero coinvolti nella costruzione
o nella valutazione di argomenti (detti anche inferenze), sequenze finite di enunciati in cui
l’ultima (la conclusione) viene posta in relazione all’insieme delle rimanenti (assunte
come premesse). Un insieme di proposizioni, quali
Marco non è a casa. Giovanni è in soggiorno. Non ho idea di dove sia Tommaso.
non costituisce dunque un argomento, in quanto, nelle intenzioni del parlante, non vi è una
proposizione che viene asserita e giustificata in virtù delle altre (quali sono le premesse e
qual è la conclusione?). In un argomento le condizioni di accettabilità delle proposizioni
non sono tutte sullo stesso piano, ma la conclusione viene fatta conseguire (in modo più o
meno giustificato) dalle premesse, come nell’esempio che segue:
Marco non è a casa. Infatti il lunedì pomeriggio ha lezione di pianoforte.
La prima delle due proposizioni nell’esempio sopra rappresenta la conclusione
dell’argomento, mentre la seconda è una premessa, in quanto fornisce un’evidenza a
sostegno della proposizione che la precede. L’argomento risulta convincente solo se il
parlante condivide con chi l’ascolta anche un’altra premessa che rimane implicita: «è
lunedì pomeriggio».
Per identificare le premesse e la conclusione di un argomento possono essere di aiuto i
cosiddetti indicatori inferenziali, espressioni che tipicamente precedono le premesse (per
esempio, «infatti», «siccome», «poiché», «dal momento / visto / dato / assumendo che»,
ecc.) o la conclusione («dunque», «quindi», «di conseguenza», «se ne conclude / segue /
significa che», ecc.). Ovviamente, come avviene per le premesse o la conclusione, anche
gli indicatori inferenziali possono essere impliciti.
Quando la verità degli enunciati che fungono da premesse garantisce necessariamente la
verità dell’enunciato che compare nella conclusione, allora l’argomento si dice deduttivo
(o più precisamente deduttivamente valido). Se la conclusione di un argomento deduttivo
è falsa, sarà dunque necessariamente falsa anche qualche (ne basta una) sua premessa. Un
esempio di argomento deduttivo è il seguente:
Marco non è figlio unico, infatti ha una sorella di nome Marta.
Quando, invece, la verità delle premesse non garantisce la verità della conclusione, e di
conseguenza la falsità della conclusione non implica la falsità di qualche premessa,
l’argomento si dice induttivo (o deduttivamente invalido). Ciò non significa che negli
argomenti induttivi non ci sia un nesso fra premesse e conclusione. Al contrario, la verità
delle premesse può avere un impatto anche forte sulla plausibilità della conclusione, senza
tuttavia garantirne la verità. In un argomento induttivo vi è, dunque, sempre la possibilità
che, nonostante la verità delle premesse, la conclusione sia falsa. Un esempio di
argomento induttivo è il seguente:
Marco non è figlio unico. Vedo spesso una ragazza che gli somiglia entrare a casa sua.
Si possono fare a questo punto alcune osservazioni. La prima è che nelle inferenze
induttive la conclusione contiene alcuni elementi di novità rispetto alle premesse, mentre
le conclusioni delle inferenze deduttive esplicitano informazioni già implicitamente
contenute nelle premesse. Questa caratteristica viene talvolta sintetizzata nell’espressione
banalità del ragionamento deduttivo. Si noti però che «banale», in questo caso, non deve
essere confuso con facile. Malgrado siano deduttive, le dimostrazioni matematiche
risultano ai più tutt’altro che scontate ed alcune di esse sono così difficili da aver
impegnato menti brillanti per decenni (si pensi all’appassionante storia della
dimostrazione del teorema di Fermat).
Una seconda caratteristica che distingue gli argomenti induttivi da quelli deduttivi
concerne la loro vulnerabilità a nuove informazioni, nel senso che gli argomenti induttivi
possono essere rinforzati o indeboliti dall’aggiunta di nuove premesse. Immaginiamo, per
esempio, di aggiungere questa premessa all’argomento precedente:
Le cugine di Marco vivono nel suo stesso condominio.
La conclusione che Marco non sia figlio unico appare ora più incerta. Un argomento
deduttivo, invece, rimane sempre tale, anche se vengono aggiunte nuove premesse,
indipendentemente dal loro contenuto specifico.
La terza riflessione riguarda il fatto che le definizioni sopra fornite di argomento deduttivo
e induttivo sono, di fatto, una la negazione dell’altra, e quindi se un argomento non è
deduttivo sarà per forza induttivo (e viceversa). È possibile che si sia sentito però parlare
di abduzione, una modalità di ragionamento (spesso presentata come distinta dalle
precedenti) attraverso cui partendo da alcuni fatti (premesse) si cerca di individuare una
possibile ipotesi che li spieghi (conclusione). Anche in questo caso, come per qualsiasi
argomento, possiamo chiederci se la verità dei fatti assunti in premessa implichi
necessariamente la verità dell’ipotesi in esame. Se la risposta é «si» allora l’argomento in
questione é una deduzione, mentre se la risposta é «no» allora non ci resta che concludere
che é un’induzione. Le induzioni, infatti, non si limitano alle generalizzazioni che
facciamo quando, partendo dall’osservazione di uno o più casi particolari, ipotizziamo una
regola generale (come si trova ancora erroneamente nella maggior parte dei dizionari). I
processi di diagnosi sono, per esempio, quasi sempre induttivi: il medico, partendo dai
sintomi del paziente, dagli esiti dei suoi esami clinici, dalla sua storia familiare, ecc.,
ipotizza una possibile patologia. Ma, per quanto bravo il medico possa essere e per quanto
vere siano le informazioni in suo possesso, è pur sempre possibile che la conclusione a cui
giunge sia falsa.
Infine, è importante sottolineare che la validità di un argomento (ossia se l’argomento è
deduttivo oppure induttivo) non deve essere confusa con la verità delle proposizioni che
compaiono in premessa e/o conclusione. Coerentemente con ciò, la validità di un
argomento e la verità della sua conclusione possono essere dissociate. La Figura 1 mostra
un esempio di argomento per ciascuna delle situazioni ottenibili combinando la
validità/invalidità di un argomento con la verità/falsità delle sue premesse o conclusione.
(Nota: nella Figura 1 e nel resto di questo capitolo, useremo la notazione in cui una linea
tratteggiata separa le premesse dalla conclusione di un argomento.) Come si può notare,
l’unico caso impossibile è un argomento valido con premesse vere e conclusione falsa,
perché ciò contraddirebbe la definizione stessa di validità (si veda sopra). Ovviamente,
avere premesse vere è importante in sé perché, per quanto buona possa essere
un’argomentazione, se le premesse da cui parte sono false non contribuirà a stabilire la
verità della conclusione a cui giunge. Un’inferenza si dice fondata se le sue premesse sono
effettivamente vere, infondata altrimenti. La validità di un argomento può essere quindi
intesa come la proprietà di preservare la verità nel passaggio da un insieme (non vuoto) di
premesse alla conclusione.

Figura 1
Esempi di argomenti validi o invalidi, con premesse vere o false e conclusione vera o
falsa.
Ogni argomento può essere valutato con riferimento a due criteri distinti, anche se legati
da precise dipendenze matematiche:
(i) la probabilità della conclusione una volta presupposta (anche solo ipoteticamente) la
verità di tutte le premesse;
(ii) l’impatto delle premesse sulla conclusione o, in altri termini, la loro rilevanza per la
conclusione.
In un argomento valido, la probabilità della conclusione e l’impatto delle premesse sulla
conclusione hanno valore massimo. [Stiamo implicitamente escludendo i casi-limite di
argomenti deduttivi in cui la congiunzione delle premesse è falsa per ragioni puramente
logiche (una contraddizione, per esempio «piove e non piove») o una conclusione è vera
per ragioni puramente logiche (una tautologia, per esempio «piove o non piove»)]. Se un
argomento è valido, infatti, le premesse, nel loro insieme, sostengono la conclusione a tal
punto da determinarne necessariamente la verità. Negli argomenti induttivi, tuttavia, la
convergenza dei due criteri (i) e (ii) viene meno: ci possono essere argomenti con una
conclusione molto probabile ma poco supportata (o addirittura non supportata) dalle
premesse, o viceversa argomenti in cui le premesse hanno un impatto molto positivo sulla
conclusione ma la probabilità di questa rimane bassa (perché era ancora più bassa in
partenza). Un esempio di argomento in cui la conclusione è molto probabile (anche alla
luce delle premesse) ma le premesse sono del tutto irrilevanti per la conclusione è il
seguente:
Marco possiede un paio di scarpe nere
-------------------------
Nei prossimi 6 mesi pioverà almeno una volta a Trento
Il fatto che Marco possieda un paio di scarpe nere è ovviamente del tutto irrilevante per le
condizioni meteorologiche di Trento. Tuttavia, a prescindere da ciò, è estremamente raro
che a Trento non piova per 6 mesi consecutivi. In questo caso, si dice che l’argomento
soffre di una fallacia di pertinenza. Un esempio, invece, di argomento induttivo dove le
premesse hanno un impatto positivo sulla conclusione senza però che la probabilità della
conclusione alla luce di tali premesse sia alta, verrà discusso più avanti, quando parleremo
della fallacia della probabilità di base (si veda il paragrafo 2.2.1).
2.1 Il ragionamento deduttivo
2.1.1 I sillogismi condizionali
I sillogismi sono argomenti che consistono di tre proposizioni, due premesse e una
conclusione. Nei sillogismi condizionali le due premesse sono costituite da una
proposizione condizionale «se P allora Q» (che indicheremo con la notazione P→Q) e da
una delle proposizioni atomiche che compaiono nella proposizione condizionale, in forma
affermativa (P o Q) o negativa (¬P o ¬Q, il simbolo ¬ indica «non»). Vi sono quindi
quattro possibili combinazioni (si veda la Figura 2), che danno luogo a due inferenze
valide e due inferenze invalide (o fallacie).

Figura 2
I quattro sillogismi condizionali.

Il primo dei due argomenti validi è il modus ponens. Per esempio, dal condizionale «se
Marco è italiano, allora è europeo» e dall’affermazione del suo antecedente «Marco è
italiano» (P) possiamo concludere che è vero anche il conseguente del condizionale
«Marco è europeo» (Q). Il secondo argomento valido è il modus tollens. Riprendendo
l’esempio sopra, dal condizionale «se Marco è italiano, allora è europeo» (P→Q) e dalla
negazione del suo conseguente «Marco non è europeo» (¬Q) possiamo concludere che è
falso anche l’antecedente del condizionale, ossia «Marco non è italiano» (¬P).
Mentre il modus ponens è un’inferenza che viene compiuta spontaneamente già a partire
dai tre anni di età e spesso in modo del tutto inconsapevole (Reverberi, Pischedda, Burigo
& Cherubini, 2012), il modus tollens risulta più complicato. Tipicamente le persone non
solo sono più lente nel produrre questa inferenza, ma commettono degli errori, primo fra
tutti quello di ritenere che dalle due premesse non consegua nulla. Questo suggerisce che
sia più difficile rappresentarsi mentalmente i casi falsi di quelli veri. Le difficoltà
inferenziali legate al modus tollens vengono considerate (Johnson-Laird, 1999) fra gli
errori cognitivi che hanno contribuito a gravi incidenti, incluso quello alla centrale
nucleare di Chernobyl nel 1986 (in cui gli ingegneri non intervennero nonostante fossero a
conoscenza della regola che «se il test proseguiva allora la turbina doveva ruotare
abbastanza velocemente», e del fatto che «la turbina non stava ruotando abbastanza
velocemente»).
Gli altri due sillogismi sono invalidi. Riprendiamo il condizionale dell’esempio
precedente «se Marco è italiano, allora è europeo» insieme, questa volta, alla negazione
del suo antecedente «Marco non è italiano» (¬P). Possiamo concludere che Marco é
europeo? O che Marco non è europeo? La risposta corretta è «no, non possiamo». Infatti
Marco potrebbe essere cittadino di una qualche nazione europea diversa dall’Italia così
come di una nazione extraeuropea. Concludere che dalla verità di P → Q e ¬P segua
quella di ¬Q significa commettere un errore di ragionamento noto come fallacia della
negazione dell’antecedente. Analogamente, ritenere che dalla verità di P → Q e Q segua
quella di P significa commettere una fallacia dell’affermazione del conseguente. Questo
errore può essere visto come un’inversione della direzionalità dell’espressione
condizionale se... allora (ossia confondere P → Q con Q → P), che rappresenta a sua volta
la confusione di una condizione di sufficienza (essere italiano è una condizione sufficiente
per essere europeo) con quella di necessità (essere italiano non è una condizione
necessaria per essere europeo).
2.1.2 Il compito di selezione (Wason selection task)
Uno dei più noti esperimenti di ragionamento che coinvolge proposizioni condizionali del
tipo «se … allora» è il compito di selezione ideato da Wason (1966) per studiare come le
persone stabiliscono se un’ipotesi è vera o falsa. Tipicamente vengono mostrate ai
partecipanti quattro carte con una lettera su un lato e un numero sull’altro. Le carte
poggiano su un piano, e quindi solo un lato di ciascuna di esse risulta visibile. Sul lato
visibile delle quattro carte (quello in bianco in Figura 3) si trovano rispettivamente: una
vocale (A), una consonante (B), un numero pari (2) e un numero dispari (3). Compito dei
partecipanti è indicare la/e carta/e che è necessario girare (rendendone così visibile il lato
nascosto) per stabilire se la seguente regola è vera o falsa:

Figura 3
Esempio di carte utilizzate nel compito di selezione, il lato bianco è visibile, il lato grigio
no.

«Se su un lato della carta c’è una vocale, allora sull’altro lato della carta c’è un numero
pari».
In accordo con le analisi convenzionali di questo compito, la risposta corretta consiste nel
selezionare la prima e l’ultima carta. Infatti, se sul lato nascosto della carta con la A ci
fosse un numero dispari la regola sarebbe violata, così come se sul lato nascosto della
carta con il 3 ci fosse una vocale. Girare le altre due carte è, invece, del tutto inutile ai fini
del controllo della regola in esame, in quanto nessuno degli esiti possibili potrebbe
falsificarla. Tipicamente, il numero di risposte corrette è inferiore al 10%. La maggioranza
dei partecipanti propone, infatti, di girare solo la prima carta o la prima e la terza carta. La
selezione della terza carta (quella con il 2 sul lato visibile) è stata interpretata come una
tendenza alla conferma, ossia un’inclinazione a cercare esempi confermatori (ossia a
favore) anziché controesempi (casi a sfavore) che, al contrario dei primi, anche da soli
potrebbero falsificare a regola in esame.
Si noti che la regola «Se su un lato della carta c’e una vocale (V), allora sull’altro lato
della carta c’e un numero pari (P)» ha forma di una proposizione condizionale V→P e le
quattro carte rappresentano le proposizioni atomiche: V (vocale), ¬V (consonante), P
(numero pari), e ¬P (numero dispari). Le inferenze che portano a decidere quali carte
girare possono quindi essere ricondotte ai sillogismi condizionali introdotti nel paragrafo
precedente: la negazione dell’antecedente (rappresentato dalla seconda carta) e
l’affermazione del conseguente (rappresentato dalla terza carta) di un condizionale non
permettono alcuna inferenza in merito alla verità, rispettivamente, del conseguente e
dell’antecedente del condizionale.
Molto interessante è stata la scoperta che se al posto degli stimoli astratti originariamente
utilizzati da Wason vengono impiegati stimoli più concreti e/o familiari (per esempio, una
regola del tipo «tutte le volte che vado nel tal posto ci vado con la macchina») la
percentuale di risposte corrette sale in modo significativo (fino a superare
abbondantemente il 50%). Questo risultato è in linea con quanto riscontrato anche in altri
compiti di ragionamento (si veda il paragrafo successivo) e indica che, in generale, le
prestazioni di ragionamento non sono indipendenti dal contenuto del materiale presentato.
2.1.3 I sillogismi categorici (o aristotelici)
Le proposizioni che compaiono nei sillogismi categorici contengono un quantificatore ed
esprimono l’appartenenza di alcuni elementi (oggetti o persone) a degli insiemi (o appunto
categorie). Le proposizioni sono quantificate in modo universale o particolare, e la
relazione di appartenenza può essere affermativa o negativa, per un totale di quattro
possibili forme (si veda la Figura 4).

Figura 4
Forma delle proposizioni che compongono i sillogismi categorici.
È importante sottolineare che, mentre «ogni» ha in questo contesto lo stesso significato
che ha nel linguaggio ordinario, «qualche» va inteso qui come sinonimo di «esiste almeno
un caso», e non richiede né la pluralità (potrebbe essere uno solo) né esclude l’universalità
(potrebbero essere tutti). Prendiamo ora, quale esempio, il noto sillogismo:

Tutti gli uomini sono mortali


Socrate è un uomo
-------------------------
Socrate è mortale

«Socrate» rappresenta il termine minore, in quanto funge da soggetto nella conclusione,


«mortale» rappresenta il termine maggiore, in quanto funge da predicato nella
conclusione, mentre «uomo/uomini» viene detto termine medio, in quanto compare in
entrambe le premesse ma non nella conclusione. La sua diversa posizione nelle due
premesse origina le quattro possibili figure dei sillogismi categorici, come mostrato in
Figura 5.

Figura 5
Le quattro possibili figure dei sillogismi categorici.

In totale, vi sono quindi 256 possibili sillogismi (il numero si ottiene moltiplicando 4
forme della premessa maggiore x 4 forme della premessa minore x 4 forme della
conclusione x 4 figure), ma solo una minima parte di questi (24) sono validi (il numero
scende ulteriormente a 15, se non si assume che tutti i termini coinvolti nelle proposizioni
categoriche siano non vuoti, assunzione nota come assioma di Aristotele). È utile
sottolineare che questi numeri si riferiscono ai modi in cui si possono costruire i
sillogismi, indipendentemente dal loro contenuto. Questo significa che, per la logica
formale, il sillogismo visto sopra (di figura 1 e valido) è del tutto equivalente a questo:

Tutti gli A sono B


Qualche C è A
-------------------------
Qualche C è B
Altri esempi di sillogismi validi (rispettivamente di figura 2, 3 e 4) sono i seguenti:
Tutti gli A sono B
Tutti i C non sono B
-------------------------
Tutti gli A non sono C

Tutti gli A non sono B


Alcuni A sono C
-------------------------
Alcuni C non sono B

Tutti gli A sono B


Tutti i B non sono C
-------------------------
Tutti i C non sono A

Quale esercizio, è possibile verificare che non è possibile avere dei sillogismi validi con
due premesse particolari o due premesse negative.
I sillogismi categorici sono stati tipicamente studiati con tre diversi compiti sperimentali
(qui elencati dal più semplice al più difficile):
– si presenta un sillogismo e si chiede se è valido o invalido;
– si presentano due premesse e una serie di possibili conclusioni e si chiede di scegliere
quella che rende il sillogismo valido;
– si presentano due premesse e si chiede se è possibile far seguire una conclusione che
renda il sillogismo valido (e, in caso affermativo, di produrla).
Di seguito sono riportati brevemente alcuni risultati piuttosto robusti che sono stati
ottenuti utilizzando tali compiti.
Un primo risultato riguarda, come nel caso dei sillogismi condizionali, l’effetto del
contenuto. Quando gli argomenti hanno un contenuto concreto, le nostre credenze
pregresse possono facilmente distorcere i nostri giudizi. In particolare, le persone sono più
propense a ritenere un argomento valido se la sua conclusione è in accordo con le loro
precedenti credenze e, simmetricamente, a ritenere un argomento invalido se la sua
conclusione è in disaccordo con le loro precedenti credenze. Questa tendenza a
confondere la validità dell’inferenza con la verità della sua conclusione è nota anche come
belief bias. Si considerino, quale esempio, le due coppie di premesse sotto riportate:

Tutti i francesi nel ristorante sono buongustai


Alcuni buongustai bevono vino
-------------------------

Tutti i francesi nel ristorante sono buongustai


Alcuni buongustai sono italiani
-------------------------

Cosa segue? Nel caso di sinistra, la maggior parte (78%) degli studenti intervistati da
Oakhill, Garnham, e Johnson-Laird (1990) ha erroneamente concluso che «alcuni francesi
bevono vino», mentre solo una minoranza (8%) degli studenti a cui è stato sottoposto il
caso di destra ha erroneamente concluso che «alcuni francesi sono italiani». Essendo le
premesse identiche dal punto di vista della struttura astratta (in entrambi i casi sono: «tutti
gli A sono B» ed «alcuni B sono C»), questo risultato non può che dipendere dal
contenuto, e in particolare dal fatto che la prima conclusione è ritenuta plausibile mentre
la seconda lo è molto meno. (Le conclusioni in questione non sono conseguenza
necessaria delle premesse in quanto gli elementi di B che sono anche elementi di C
potrebbero benissimo non essere elementi di A.)
Un secondo risultato è che non tutti i sillogismi sono ugualmente intuitivi: alcuni vengono
correttamente riconosciuti come validi o invalidi da quasi tutti, già a partire dai sette/otto
anni di età, mentre altri risultano talmente difficili da essere valutati in modo corretto solo
da una minoranza di persone adulte. La difficoltà sembra dipendere dalla forma delle
proposizioni, dalla figura del sillogismo, e anche dall’ordine delle premesse. Prendendo un
esempio discusso in Johnson-Laird (2006), consideriamo un sillogismo che abbia come
premesse:

Nessun avvocato è borsaiolo


Tutti i borsaioli sono contabili
-------------------------
...

Assumendo che gli insiemi in questione non siano vuoti (cioè contengano ciascuno
almeno un elemento), è possibile far seguire una conclusione tale da rendere il sillogismo
valido? In caso affermativo, quale? Secondo alcune persone non segue alcuna
conclusione, altre traggono la conclusione «nessun avvocato è contabile», altre la
conclusione «nessun contabile è avvocato», altre ancora la conclusione «alcuni avvocati
non sono contabili». Ben pochi traggono la conclusione corretta: «alcuni contabili non
sono avvocati».
Infine, un terzo risultato (Galotti, Baron, & Sabini, 1986) riguarda l’esistenza di
considerevoli differenze individuali nelle strategie adottate e nell’accuratezza con cui le
persone che non hanno fatto studi di logica valutano o completano i sillogismi: alcune
prediligono strategie di tipo linguistico, altre spaziali, ma soprattutto non tutte
commettono lo stesso numero di errori. L’abilità nei compiti deduttivi sembra essere,
almeno in parte, legata ad abilità intellettive più generali, intese soprattutto come capacità
di astrazione e buona memoria di lavoro. Non è però chiaro da cosa dipendano, a loro
volta, questi fattori. Per esempio, le abilità di memoria non è detto che siano innate, ma
potrebbero essere il prodotto di conoscenze su come raggruppare le informazioni in modo
più economico.
2.1.4 La teoria dei modelli mentali
In accordo con la spiegazione più accreditata del ragionamento deduttivo (Johnson-Laird,
1999), le inferenze deduttive delle persone non si fonderebbero su derivazioni sintattiche
che riproducono le regole formali della logica, ma bensì sulla costruzione e manipolazione
di rappresentazioni semantiche. Tali rappresentazioni, definite modelli mentali, sono
iconiche (cioè hanno una struttura analoga a ciò che rappresentano, anche se sono meno
ricche di dettagli) ed esprimono i possibili stati del mondo compatibili con le premesse
dell’inferenza e le proprie conoscenze generali. Riprendiamo, quale esempio, il modus
ponens. La prima premessa «se P allora Q» verrebbe rappresentata attraverso un modello
del tipo:
P Q
La seconda premessa indica che P è vero. A questo punto la persona concluderà
agevolmente che anche Q è vero, perché nel modello del condizionale che ha esplicitato
compaiono sia P che Q. In linea di principio, vi ssarebbero altri modelli che esprimono
possibilità compatibili con le premesse:
¬P Q
¬P ¬Q
ma non verrebbero solitamente esplicitati. La ragione, secondo i sostenitori di questa
teoria, risiederebbe nella limitatezza delle risorse cognitive: per ridurre i tempi
dell’inferenza e il carico della memoria di lavoro, le persone tenderebbero a costruire solo
i modelli che rappresentano contingenze vere (principio di verità). La maggiore difficoltà
del modus tollens rispetto al modus ponens sarebbe quindi dovuta alla necessità nel
secondo caso ma non nel primo di costruire un modello mentale (quello corrispondente
alla falsità del conseguente) con due proposizioni false.
La teoria dei modelli mentali offre una spiegazione per la diversa complessità delle
inferenze deduttive e per le differenze individuali. Due sarebbero i fattori che
inciderebbero sulla difficoltà di un sillogismo: la sua forma, che può promuovere o meno
la ricerca di modelli alternativi, e soprattutto il numero dei modelli richiesti per
rappresentare adeguatamente l’informazione semantica contenuta nelle premesse. Quanti
più sono i modelli necessari tanto più è probabile che alcuni non vengano costruiti, con
conseguente aumento della probabilità di commettere un errore. L’omissione di alcuni
modelli comporterebbe il rischio di ritenere che le premesse implichino necessariamente
delle conclusioni che, malgrado siano vere nei modelli costruiti, risultano false in uno o
più modelli compatibili con le premesse che non sono stati costruiti. Secondo Johnson-
Laird e collaboratori, i ragionatori più abili sarebbero proprio coloro che riescono a
costruire con maggiore completezza ed accuratezza tutti i modelli compatibili con le
premesse, inclusi quelli che rappresentano le contingenze false.
La teoria dei modelli mentali è compatibile anche con gli effetti del contenuto, che
influenzerebbe il processo di ragionamento motivando in modo più o meno forte la ricerca
di controesempi. Riprendiamo i due argomenti introdotti nel paragrafo precedente. Una
conclusione come «alcuni francesi sono italiani» risulta per la maggior parte delle persone
più assurda della conclusione «alcuni francesi bevono vino». Nel primo caso verranno
quindi cercati più assiduamente dei modelli alternativi per rappresentare le premesse, con
conseguente aumento della probabilità di riconoscere l’argomento come invalido.
Nel suo complesso, la teoria dei modelli mentali ha riscosso una certa popolarità, grazie
anche allo sviluppo di software in grado di simulare le effettive prestazioni di soggetti alle
prese con problemi di logica. Non è stata tuttavia esente da critiche, che hanno riguardato
una certa vaghezza dei termini, la mancanza di una spiegazione più dettagliata delle
modalità di ricerca dei controesempi, e la necessità di definire più adeguatamente il ruolo
dei fattori pragmatici. Infine, dal momento che questa teoria viene proposta come una
teoria generale del pensiero umano, non è chiaro come possa essere efficacemente estesa
alle inferenze induttive.
2.2 Il ragionamento induttivo
Abbiamo già detto che gli argomenti induttivi non sono mai validi, in quanto la
conclusione non è conseguenza logica delle premesse. Tuttavia, le premesse possono
avere un impatto (anche molto forte) sulla conclusione, influenzandone la credibilità. Nei
prossimi paragrafi, cercheremo di capire come sono le abilità di ragionamento induttivo
delle persone, e lo faremo in relazione ai due criteri per valutare un argomento sopra
introdotti: la probabilità della conclusione alla luce delle premesse e l’impatto delle
premesse sulla conclusione.
2.2.1 Il ragionamento probabilistico
Possiamo considerare la conclusione di un argomento induttivo come un’ipotesi (H) e le
premesse come l’insieme di elementi di evidenza disponibili (E). Il teorema (o regola) di
Bayes ci indica come calcolare la probabilità di H alla luce di E, e può essere espresso
nella seguente forma:

dove:
– P(H|E) indica la probabilità a posteriori di H rispetto ad E, ossia la probabilità che
l’ipotesi H sia vera se l’evidenza E è vera;
– P(H) indica la probabilità a priori di H, ossia la probabilità che l’ipotesi H sia vera
senza ulteriori informazioni o assunzioni sull’evidenza E;
– P(E|H) indica la verosimiglianza (o likelihood) di H, ossia la probabilità di osservare
l’evidenza E se l’ipotesi H è vera;
– P(E) indica la probabilità di E, ossia la probabilità che l’evidenza E sia vera, senza
ulteriori informazioni o assunzioni sull’ipotesi H.
Il teorema di Bayes ci dice quindi che due sono gli «ingredienti» fondamentali per un
corretto aggiornamento probabilistico di un’ipotesi alla luce di un’evidenza: la probabilità
iniziale dell’ipotesi e il contributo che l’evidenza fornisce all’ipotesi. La probabilità
dell’evidenza E, cioè P(E), può essere a sua volta calcolata nel seguente modo:
P(E) = P(E|H) x P(H) + P(E|¬H) x P(¬H)
Nei paragrafi che seguono, cercheremo di capire se le persone aggiornano i loro giudizi di
probabilità alla luce di nuove informazioni come normativamente prescritto dal teorema di
Bayes.
Conservatorismo (Conservatism)
Uno dei primi paradigmi sperimentali utilizzati per vedere se gli aggiornamenti di
probabilità intuitivi delle persone sono in linea con quanto prescritto dal teorema di Bayes
è stato introdotto da Edwards (1968). Ai partecipanti vengono tipicamente mostrate due
urne opache contenenti un certo numero di biglie, per esempio, una (A) con 7 biglie rosse
e 3 biglie verdi e un’altra (B) con 7 biglie verdi e 3 biglie rosse. Una delle due urne viene
poi selezionata a caso, senza che venga reso noto qual è. Dall’urna selezionata vengono
quindi estratte casualmente delle biglie, il cui colore viene mostrato ai partecipanti.
Immaginate, per esempio, che dall’urna selezionata vengano fatte 12 estrazioni con
reinserimento (ossia una volta estratta la biglia e annotato il suo colore, la biglia viene
reinserita nell’urna), e che l’esito dell’estrazione sia: 8 biglie rosse e 4 biglie verdi.
Provate ora a stimare la probabilità che l’urna selezionata, da cui sono state estratte queste
12 biglie, sia la A oppure la B. Nonostante la maggior parte delle persone convenga che,
alla luce del colore delle biglie estratte (in gran parte rosse) sia più probabile che sia stata
selezionata l’urna A rispetto alla B, tipicamente la loro stima di probabilità a favore di
questa ipotesi è troppo modesta (il valore medio della risposta si attesta intorno al 70%,
mentre la risposta corretta è 97% circa). Edwards definì questo fenomeno conservatorismo
per indicare un aggiornamento troppo «prudente» della probabilità a posteriori alla luce di
nuova evidenza, che venne interpretato come una tendenza generale degli individui a
rimanere ancorati alle proprie convinzioni o a cambiarle troppo lentamente.
Fallacia della probabilità di base (Base-rate fallacy)
Ma le persone sono sempre conservative quando devono aggiornare la probabilità di
un’ipotesi alla luce di nuova evidenza? Proviamo ora a considerare un altro famoso
scenario sperimentale (tratto da Tversky e Kahneman, 1982):
In una città operano due compagnie di taxi, la compagnia Blu e la compagnia Verde, così
denominate per il colore della carrozzeria dei loro veicoli. L’85% dei taxi è blu e il
rimanente 15% è verde. Una notte un taxi rimane coinvolto in un incidente stradale. Un
testimone che ha assistito all’incidente identifica il taxi coinvolto nell’incidente come
verde. Durante il processo il giudice verifica l’abilità del testimone di distinguere tra taxi
blu e verdi in condizioni di visibilità paragonabili a quelle della notte dell’incidente. Dalla
prova, in cui viene presentato un campione costituito per metà da taxi blu e per metà da
taxi verdi, emerge che il testimone è in grado di identificare correttamente il colore dei
taxi nell’80% dei casi mentre sbaglia nel 20% dei casi. Qual è la probabilità che il taxi
coinvolto nell’incidente sia verde?
Il teorema di Bayes permette di rispondere a questa domanda. Traduciamo il problema nei
termini che compaiono nell’equazione presentata sopra, indicando con H l’ipotesi «Il taxi
coinvolto nell’incidente è verde» (quindi ¬H indica l’ipotesi complementare «Il taxi
coinvolto nell’incidente è blu») e con E l’evidenza «il testimone ha riconosciuto il taxi
come verde» (quindi ¬E indica «il testimone ha riconosciuto il taxi come blu»).
Cominciamo con il calcolare la probabilità di E, utilizzando la seconda delle due formule
presentate: P(E) = 0,8 x 0,15 + 0,2 x 0,85 = 0,29. Quindi il 29% di tutti i taxi mostrati al
testimone saranno identificati come verdi. Ma quanti di loro saranno veramente verdi?
Una volta nota la probabilità dell’evidenza, abbiamo tutti i valori che ci servono per
calcolare, attraverso il teorema di Bayes, la probabilità a posteriori di H alla luce di E:
P(H|E) = (0,15 x 0,8) / 0,29 = 0,414. La probabilità che il taxi coinvolto nell’incidente sia
verde è dunque circa del 41%. La maggior parte delle persone a cui viene presentato
questo problema intuitivamente risponde, invece, che è più probabile che il taxi sia verde
rispetto a blu. Questo risultato è stato interpretato da Tversky e Kahneman (1982) come
un errore per certi versi opposto al conservatorismo: in alcune circostanze, le persone
stimano la probabilità di un’ipotesi concentrandosi sull’evidenza in suo favore
(nell’esempio, la testimonianza) a scapito della sua probabilità a priori (la diversa
percentuale di taxi appartenenti alle due compagnie), anche qualora quest’ultima sia
fornita in modo esplicito. Ciò viola quanto prescritto dal teorema di Bayes che, come
abbiamo visto, fornisce un algoritmo per «pesare» entrambe le informazioni ai fini di un
corretto aggiornamento probabilistico.
Riassumiamo il problema presentato sopra attraverso una «struttura ad albero» in cui i dati
sono presentati in forma di frequenze invece che percentuali.

Quando si presentano i dati in questo modo, si osserva tipicamente un incremento delle


risposte corrette. Tale risultato è stato inizialmente interpretato come una prova in favore
dell’argomento evoluzionista secondo cui la mente umana sarebbe intrinsecamente
incapace di valutare correttamente la probabilità di casi singoli, in quanto non
direttamente osservabile. Secondo questa ipotesi, il formato cognitivo privilegiato per
trattare le probabilità sarebbero le frequenze, perché riproducono come i nostri antenati
hanno osservato e registrato la ripetizione di eventi. Studi più recenti hanno però
dimostrato che l’effetto di facilitazione non risiede tanto nell’utilizzo delle frequenze in sé
quanto piuttosto nella struttura ad albero (o annidata, nested-set structure), che permette di
rappresentare l’informazione probabilistica in sottoinsiemi, semplificano di fatto le
operazioni per arrivare alla soluzione.
A questo punto, si potrebbe essere tentati di pensare che le fallacie di ragionamento
probabilistico viste nei paragrafi precedenti siano semplicemente dovute alla difficoltà dei
calcoli (oggettivamente complessi) richiesti da teorema di Bayes. La questione, tuttavia,
non è così banale, come mostrato dai risultati di un altro esperimento in cui Kahneman &
Tversky (1973) hanno mostrato a un gruppo di partecipanti il seguente scenario:
Degli psicologi hanno intervistato 30 ingegneri e 70 avvocati, tutte persone di successo nei
rispettivi ambiti di lavoro, sottoponendo loro alcuni test di personalità. Sulla base delle
informazioni raccolte, sono state create delle descrizioni succinte dei 30 ingegneri e dei 70
avvocati. Sui tuoi moduli troverai 5 descrizioni che sono state tratte a caso dalle 100
descrizioni disponibili. Per ciascuna descrizione, per favore, indica la probabilità che la
persona descritta sia un ingegnere, su una scala da 0 a 100. Lo stesso compito è stato
svolto da un gruppo di esperti, che sono stati molto accurati nell’assegnare le probabilità
alle varie descrizioni. Ti verrà pagato un bonus nella misura in cui le tue stime si
avvicinano a quelle del gruppo di esperti.
Ad un secondo gruppo di partecipanti veniva mostrato lo stesso scenario con una sola
differenza: il campione da cui era estratta la descrizione era formato da 70 ingegneri e 30
avvocati. A entrambi i gruppi venivano poi presentate 5 descrizioni, inclusa la seguente
(che rispecchia di più lo stereotipo degli ingegneri di quello degli avvocati):
Jack ha 45 anni. È sposato e ha quattro figli. Di solito è moderato, prudente e ambizioso.
Non ha interessi di tipo socio-politico e passa la maggior parte del suo tempo libero con
vari hobby, fra cui il bricolage, la vela e gli enigmi matematici. La probabilità che Jack sia
uno dei 30 ingegneri nel campione di 100 è ____%.
Lo scopo dello studio era controllare se due probabilità di base opposte avrebbero avuto
un effetto sulle stime di probabilità dei soggetti. Da un punto di vista normativo, infatti,
sarebbe lecito aspettarsi stime di probabilità più basse nel caso del campione con pochi
ingegneri. Il risultato dell’esperimento mostrò però che non era così: i due diversi gruppi
sperimentali assegnarono una probabilità del tutto paragonabile all’ipotesi che Jack fosse
un ingegnere, suggerendo una mancata considerazione della probabilità di base nel loro
giudizio di probabilità a posteriori. Gli autori dello studio definirono questo fenomeno
come fallacia della probabilità di base e lo interpretarono come una tendenza a considerare
solo o prevalentemente l’informazione specifica (relativa a casi singoli o a sottogruppi
della popolazione di riferimento) a scapito della probabilità di base (relativa all’intera
popolazione di riferimento).
Fallacia della congiunzione (Conjunction fallacy)
Nelle pagine precedenti abbiamo visto che le persone non aggiornano correttamente la
probabilità di un’ipotesi alla luce di nuova evidenza. Ci si potrebbe però chiedere se
rispettano almeno alcuni principi fondamentali della teoria della probabilità. Fra questi vi
è la regola della congiunzione, secondo cui l’occorrenza congiunta di una coppia di eventi
(H1&H2) non può essere più probabile rispetto al verificarsi di uno solo di essi (per
esempio, H1), ossia:
P(H1&H2) ≤ p(H1)
Si tratta di un principio piuttosto intuitivo e difficile da mettere in discussione su un piano
puramente astratto, tanto da essere considerato da Tversky e Kahneman (1983) il «più
semplice e basilare requisito di probabilità». In quanto segue, riportiamo lo scenario
originariamente utilizzato da Tversky e Kahneman (1983) per documentare la violazione
di questo principio (si noti però che il fenomeno è stato replicato con decine di altri
scenari dal contenuto molto diverso fra loro).
Linda ha 31 anni. È nubile, schietta e molto brillante. Ha una laurea in filosofia. Da
studentessa si batteva contro la discriminazione razziale e in favore della giustizia sociale,
e ha partecipato anche a manifestazioni antinucleari. Ordina le seguenti asserzioni in base
alla loro probabilità (le parentesi quadre sono state aggiunte per chiarificazione):
– Linda è un’insegnante di scuola elementare
– Linda lavora in una libreria e frequenta corsi di yoga
– Linda è attivista di un movimento femminista [H2]
– Linda è un’assistente sociale psichiatrica
– Linda è membro dell’Organizzazione Elettorale Femminile
– Linda è un’impiegata di banca [H1]
– Linda è un agente assicurativo
– Linda è un’impiegata di banca e attivista di un movimento femminista [H1 & H2]
La grande maggioranza dei partecipanti (80% circa) ha giudicato H1&H2 come più
probabile di H1, violando quindi la regola della congiunzione. Questo risultato,
denominato fallacia della congiunzione, è stato confermato utilizzando modalità diverse
per l’espressione del giudizio di probabilità (per esempio, una scelta diretta dell’ipotesi
più probabile). È seguito un fervente dibattito sulla razionalità umana, che ha interessato
per decenni gli psicologi sperimentali e i filosofi della scienza. La domanda a cui si è
cercato di rispondere è la seguente: la fallacia della congiunzione è un vero errore di
ragionamento o, piuttosto, un artefatto sperimentale dovuto ad un’interpretazione dello
stimolo diversa da quella assunta dallo sperimentatore? La grossolanità dell’errore in
questione ha portato, infatti, alcuni ricercatori ad ipotizzare che alla base di questa fallacia
potesse esserci qualche problema di natura pragmatica. Fra le possibili fonti di
fraintendimento che avrebbero potuto giustificare le risposte dei partecipanti sono state
ipotizzate in particolare:
– l’interpretazione del congiunto H1 come H1&¬H2 (se l’ipotesi «Linda è una
impiegata di banca» venisse interpretata dai partecipanti come «Linda è una impiegata di
banca e non è attivista di un movimento femminista», ovviamente non ci sarebbe alcuna
violazione della regola della congiunzione);
– l’interpretazione della congiunzione (nel linguaggio ordinario talvolta i connettivi
proposizionali sono ambigui, se la congiunzione «Linda è un’impiegata di banca e
attivista di un movimento femminista» venisse letta come una disgiunzione «Linda è
un’impiegata di banca o attivista di un movimento femminista», ovviamente non ci
sarebbe alcuna violazione della regola della congiunzione);
– l’interpretazione del termine «probabilità» (la regola della congiunzione vale solo per
la probabilità intesa come nozione matematica, se tuttavia il termine «probabile» venisse
inteso dai partecipanti come «verosimile», «plausibile», o altro ancora, non ci sarebbe
necessariamente una violazione della regola della congiunzione).
Questo dibattito è interessante in quanto ci fa capire quanto sia difficile realizzare un buon
esperimento di psicologia del pensiero, escludendo che il compito, gli stimoli o il formato
della risposta possano risultare in qualche modo fuorvianti per i partecipanti. Non
abbiamo lo spazio in questa sede per descrivere i dettagli degli studi che hanno controllato
i problemi sopra elencati. Ci basti dire che quando si sono utilizzati stimoli sperimentali
che eliminassero queste possibili fonti di fraintendimento l’entità della fallacia è diminuita
senza però scomparire (si attesta tipicamente intorno al 50-60% circa delle risposte).
Coerentemente con ciò, la maggior parte dei ricercatori sono propensi a ritenere che la
fallacia della congiunzione rappresenti un errore di ragionamento genuino.
Sono stati documentati molti altri interessanti (e per certi versi incredibili) errori di
ragionamento probabilistico (per un elenco esaustivo si rimanda a Baron, 2007). La
pervasività di queste fallacie che non risparmiano neppure gli esperti, spesso impegnati
(con buoni risultati) in inferenze in condizioni di incertezza (come medici o giudici, ma
anche professori di statistica!), ha contribuito all’espressione «paradosso della
razionalità». Ma siamo sempre così irrimediabilmente irrazionali? Nei prossimi paragrafi
vedremo che non è così, e che esistono compiti di ragionamento in cui riusciamo
sorprendentemente bene.
2.2.2 La conferma induttiva
La probabilità a posteriori non è adeguata per esprimere il secondo criterio con cui può
essere valutato un argomento induttivo, e cioè l’impatto delle premesse sulla conclusione.
Per capire perché, riprendiamo l’argomento:
Marco possiede un paio di scarpe nere
-------------------------
Nei prossimi 6 mesi pioverà almeno una volta a Trento

La probabilità a posteriori di H alla luce di E è molto alta, vicinissima al valore massimo


(cioè 1). Tuttavia, è piuttosto facile intuire che ciò accade non per il sostegno che E
fornisce a H, ma perché è alta la probabilità a priori di H. Fra E e H non c’è, difatti, alcun
nesso, tant’è che la probabilità di H alla luce dell’evidenza complementare ¬E («Marco
non possiede un paio di scarpe nere») è altrettanto alta. Questo è dunque un caso in cui la
probabilità a posteriori dell’ipotesi alla luce dell’evidenza è molto alta, mentre la
conferma dell’evidenza sull’ipotesi è nulla. È possibile avere dissociazioni, in un certo
senso, opposte, in cui malgrado un’evidenza rafforzi un’ipotesi, la probabilità di
quest’ultima alla luce della prima rimane piuttosto bassa. Situazioni di questo genere si
osservano, tipicamente, con ipotesi che hanno una probabilità a priori ancora più bassa,
come nello scenario del taxi descritto nel paragrafo precedente a proposito della fallacia
della probabilità di base. La testimonianza fornisce, infatti, un certo sostegno all’ipotesi
che il taxi coinvolto nell’incidente sia verde, tuttavia la bassa probabilità a priori di tale
ipotesi (dovuta al fatto che i taxi verdi sono pochi rispetto al totale dei taxi che circolano
nella città) fa sì che, anche alla luce della testimonianza, l’ipotesi più probabile rimanga
¬H («Il taxi coinvolto nell’incidente è blu»).
L’impatto di un’evidenza E su un’ipotesi H (o, in altri termini, la forza di un argomento
induttivo che ha come premessa E e come conclusione H) non può essere espressa
attraverso P(H|E) perché, come si è visto sopra, questa potrebbe essere alta o bassa a
prescindere dall’impatto di E. Occorre dunque una grandezza che esprima il cambiamento
(in positivo o negativo) della credibilità di H dovuto proprio ad E. La conferma induttiva
da E a H, solitamente indicata con la notazione C(H, E), esprime proprio questa grandezza
e può essere definita come segue:

Quindi possiamo dire che un’evidenza E conferma (in una misura che può essere più o
meno grande) un’ipotesi H se e solo se è più probabile avere E in presenza che in assenza
di H (si noti che ciò equivale a dire che P(H|E) > P(H)). Analogamente, se è più probabile
avere E in assenza invece che in presenza di H allora significa che E disconferma in una
certa misura H (e quindi P(H|E) < P(H)). Infine, se la probabilità di E è la stessa (non
importa se si tratti di un valore più o meno alto) indipendentemente dal fatto che sia vera
H o ¬H, significa che E è un’evidenza che non aiuta a discriminare fra queste due ipotesi
ed è dunque un’evidenza neutrale (o irrilevante o anche non pertinente) rispetto ad esse
(P(H|E) = P(H), nello scenario del taxi, un’evidenza irrilevante potrebbe essere, per
esempio, che la vettura coinvolta nell’incidente aveva 4 ruote, assumendo che tutti i taxi le
abbiano a prescindere dalla compagnia). Appare quindi chiaro che la nozione bayesiana di
conferma induttiva non deve essere confusa con l’utilizzo dei termini conferma /
disconferma nel linguaggio ordinario, dove tipicamente vengono utilizzati per indicare
che, alla luce di un’evidenza, l’ipotesi in esame è certamente vera / falsa.
La definizione che abbiamo appena dato è qualitativa, nel senso che ci dice solo se
un’evidenza E è a favore o a sfavore di una certa ipotesi H. Per quantificare quanto E
conferma o disconferma H, basta fare il rapporto fra le due grandezze confrontate sopra,
ossia calcolare quello che nella letteratura bayesiana si chiama rapporto di verosimiglianza
(o likelihood ratio, LR):

Questa grandezza esprime quante volte è più probabile che E sia vera quando H è vera
rispetto a quando H è falsa (ossia quando è vera ¬H). Immaginiamo, per esempio, che una
persona si sottoponga ad un test utile a diagnosticare una certa malattia e che l’esito del
test sia positivo. Che probabilità ha di avere la malattia in questione? Come indicato dal
teorema di Bayes, dipende dalla probabilità a priori della malattia (ossia quanto è diffusa
nella popolazione a cui la persona appartiene) e anche della «bontà» del test a cui la
persona si è sottoposta. Infatti, l’esito positivo del test non implica necessariamente che la
persona sia malata, poiché i test presentano sempre un tasso di errori: i falsi negativi
(l’esito del test è negativo ma la persona è malata) e i falsi positivi (l’esito del test è
positivo ma la persona non è malata). Supponiamo che il test risulti positivo nell’80%
delle persone con la malattia (grandezza nota come sensibilità del test), ossia P(E|H) = 0,8,
e negativo nel 90% delle persone non affette dalla malattia (grandezza nota come
specificità del test), ossia P(¬E|¬H) = 0,9. Dall’ultimo valore si ricava che il denominatore
del rapporto di verosimiglianza è P(E|¬H) = 0,1 (infatti P(E|¬H) = 1 – P(¬E|¬H)).
Possiamo ora calcolare l’impatto della positività del test sull’ipotesi che la persona sia
malata:

Il peso dell’evidenza è 8, questo significa che è 8 volte più probabile che il test sia
positivo quando una persona è malata rispetto a quando non lo è.
I giudizi di conferma induttiva
Il conservatorismo e la fallacia della probabilità di base indicano che le persone non
operano una revisione della probabilità rispettando quanto previsto dal modello normativo
Bayesiano. Sono altrettanto inaccurate quando devono valutare un argomento induttivo
utilizzando il secondo dei criteri visti sopra, ossia quando devono stimare la conferma
induttiva? Questo filone di ricerca è decisamente più recente, ma i risultati sono molto
incoraggianti. Le persone, infatti, sembrano in grado di giudicare con grande naturalezza e
precisione l’impatto di nuove evidenze sulle ipotesi in esame, anche quando i loro giudizi
di probabilità riferiti a questi stessi contenuti sono fallaci. Per esempio, in un contesto
sperimentale analogo agli scenari in cui tipicamente si riscontra conservatorismo (si veda
il paragrafo 2.2.1), in aggiunta alla domanda sulla probabilità che una certa urna fosse
stata selezionata alla luce dell’estrazione effettuata, veniva posta anche una domanda in
cui si chiedeva di stimare l’impatto dell’estrazione effettuata sull’ipotesi che una certa
urna fosse stata selezionata. In questo caso, dunque, il focus non era più sulla probabilità
dell’ipotesi (alla luce dell’evidenza ottenuta) ma sul peso dell’evidenza (rispetto all’ipotesi
in esame). Per rispondere, i partecipanti dovevano mettere una croce su una scala come
quella raffigurata in Figura 6 (nota: gli stessi risultati sono stati ottenuti utilizzando scale
diverse per quantificare i giudizi di conferma, comprese scale discrete, per esempio, da –
50 a +50).

Figura 6
Esempio di scala con cui si possono quantificare i giudizi di conferma induttiva.

Come si vede, la scala ha un punto di neutralità al centro (corrispondente alla risposta che
l’evidenza è irrilevante per l’ipotesi) e due direzione opposte: a sinistra per le disconferme
e a destra per le conferme (la risposta sarà tanto più a sinistra / destra quanto più per il
partecipante l’evidenza indebolisce / rafforza l’ipotesi in esame). Malgrado i giudizi di
probabilità si siano rivelati ancora una volta poco accurati (si è riscontrato forte
conservatorismo), i giudizi di conferma non solo sono stati formulati più agevolmente dai
partecipanti ma sono risultati anche del tutto in linea con quanto previsto dal modello
normativo di riferimento (il LR, si veda sopra).
Ancor più sorprendente è la scoperta che le persone riescono a valutare con estrema
precisione l’impatto di evidenze incerte. Da un punto di vista formale, calcolare l’impatto
di un’evidenza incerta è un compito piuttosto complesso perché richiede non solo di
stimare la rilevanza dell’evidenza per l’ipotesi in esame ma anche di aggiustarne il peso
sulla base della probabilità dell’evidenza stessa (per esempio, l’impatto complessivo di
un’evidenza molto rilevante ma con una probabilità appena superiore al 50% sarà
tendenzialmente modesto). Nonostante ciò, i giudizi di conferma sono risultati altamente
correlati con i valori normativamente corretti, sia quando l’incertezza veniva
esplicitamente quantificata (dicendo ai partecipanti, per esempio, che l’evidenza aveva
una probabilità del 70%) sia quando era implicita e doveva essere stimata (per esempio,
quando le evidenze erano immagini ambigue che dovevano essere interpretate dai
partecipanti).
Un terzo importante risultato è che le relazioni di conferma possono spiegare alcune
fallacie di ragionamento probabilistico. Per esempio, è stato dimostrato che la variabile
cruciale perché una congiunzione H1&H2 venga erroneamente giudicata come più
probabile di uno dei suoi congiunti (H1) è che l’altro congiunto (H2, «Linda è attivista di
un movimento femminista» nello scenario riportato nel paragrafo 2.2.1) sia percepito
come fortemente confermato dall’evidenza in questione (la descrizione di Linda). Se,
invece, il congiunto aggiunto è un’ipotesi probabile in sé ma non confermata, né
dall’evidenza fornita né dall’altra ipotesi (per esempio, «Linda possiede un ombrello»),
allora le persone non commettono la fallacia. Analogamente, nella fallacia della
probabilità di base riveste un ruolo cruciale la presenza di un’evidenza con un forte
impatto positivo sull’ipotesi in questione (la testimonianza nello scenario del taxi). La
percezione di una relazione positiva di conferma sembra dunque confondere, in qualche
modo, le persone, spingendole ad aggiornare troppo le loro stime probabilistiche. Questa
interpretazione è stata corroborata anche da uno studio recente (Tentori, Chater & Crupi,
2016) che ha confrontato direttamente i due tipi di giudizi in relazione a vari argomenti,
trovando che non solo i giudizi di conferma sono più accurati e stabili nel tempo dei
giudizi di probabilità, ma anche che vi è una tendenza generale a sovrastimare la
probabilità di ipotesi confermate e a sottostimare la probabilità di ipotesi disconfermate.
L’accuratezza dei giudizi di conferma, anche in presenza di giudizi di probabilità scorretti,
e la possibilità di spiegare alcune fallacie di ragionamento probabilistico come il risultato
di una maggiore salienza delle relazioni di conferma rispetto a quelle di probabilità
suggeriscono una riflessione conclusiva. I giudizi di conferma sembrano essere in qualche
modo più «primitivi» dei giudizi di probabilità, e malgrado la conferma induttiva sia
formalmente espressa in funzione di valori di probabilità, le persone riescono a stimarla in
modo più diretto, anche se non sappiamo ancora esattamente come. Possiamo quindi
concludere che le abilità di ragionamento induttivo delle persone dipendono dal tipo di
compito: a giudizi di probabilità tendenzialmente instabili e fallaci si accompagnano
giudizi di conferma coerenti e molto accurati. Il perché di questa selettività nelle abilità
inferenziali rimane ancora da spiegare, e sarà un tassello estremamente importante per
capire come funziona la nostra mente.

◼3. La decisione
Il termine decidere, composto di caedere con il prefisso de-, denota l’atto del tagliare via
qualcosa (per tenere o prendere qualcos’altro). L’etimologia di questa parola ci fa intuire
perché alcune decisioni risultano difficili e, una volta prese, possano cambiarci anche
profondamente (torneremo sul punto, in particolare, nell’ultimo paragrafo di questo
capitolo).
Vediamo ora quali sono gli elementi costitutivi di una decisione. Gli oggetti o le azioni a
cui si rivolge il processo decisionale si chiamano opzioni o alternative, mentre le loro
caratteristiche rilevanti sono le dimensioni o attributi. Per esempio, se vogliamo
comperare una casa, le proprietà disponibili sul mercato immobiliare rappresentano le
opzioni mentre le loro caratteristiche (ubicazione, costo, ampiezza, finiture, ecc.,)
costituiscono le dimensioni rispetto alle quali le valuteremo. Tipicamente, gli studiosi
della decisione si interessano alle decisioni volontarie che esprimono valutazioni personali
di almeno due opzioni e, in particolare, a situazioni in cui le preferenze non sono scontate
in quanto la massimizzazione del valore sulle varie dimensioni è contrastante (ossia
nessuna opzione fra quelle disponibili presenta il valore più elevato lungo tutte le
dimensioni). In questi casi, si rendono necessari dei trade-off, ossia dei compromessi fra la
diminuzione di valore lungo alcune dimensioni in cambio dell’incremento su altre.
Riprendendo l’esempio sopra, potremmo rinunciare a comperare la casa con la posizione
che reputiamo migliore in favore di una casa di maggiore ampiezza. Dall’esempio si
intuisce anche che, mentre alcune caratteristiche sono oggettive (per esempio,
l’ampiezza), altre hanno un valore squisitamente soggettivo (due persone potrebbero
valutare la posizione di uno stesso appartamento in modo differente, semplicemente
perché hanno gusti diversi o esigenze specifiche a riguardo). Nelle decisioni multi-
attributo (ossia, in cui le opzioni sono definite lungo più di una dimensione) c’è
tipicamente anche un’altra componente soggettiva: l’importanza che le varie dimensioni
rivestono per il decisore (per esempio, una persona potrebbe considerare l’ampiezza di un
appartamento e la sua ubicazione più rilevanti delle finiture, mentre per un’altra le priorità
potrebbero essere diverse). Questa informazione è solitamente veicolata assegnando a
ciascuna dimensione un peso (per esempio, su una scala da 1 a 10).
Lo studio dei processi decisionali ha conosciuto un notevole sviluppo negli ultimi 60-70
anni. Progressivamente si è passati da una prospettiva «normativa», di carattere statistico-
economico, volta a stabilire i presupposti teorici delle decisioni razionali, ad un approccio
«descrittivo», più psicologico, in cui, abbandonata la figura idealizzata del decisore
razionale con preferenze ben definite ed indipendenti dal contesto in cui la decisione si
realizza, si sono cercati modelli e teorie che descrivessero effettivamente come le persone
prendono le proprie decisioni. Nelle pagine che seguono ripercorreremo brevemente
questi due approcci, illustrandone i principali contributi.
3.1 L’approccio normativo: La teoria della scelta razionale
I modelli normativi si fondano su una concezione della razionalità quale modalità di
pensiero che consente di raggiungere delle mete, da cui discende che una decisione è
buona nella misura in cui porta al conseguimento degli obiettivi desiderati. L’interesse
fondamentale, in una simile ottica, non è il processo decisionale in sé, quanto il suo
risultato. Al fine di trovare una regola semplice per decidere in modo ottimale si è quindi
cercato di quantificare in un singolo numero il valore complessivo di un’opzione. Tale
misura viene definita utilità dell’opzione, ed indica il raggiungimento degli obiettivi del
decisore che essa consente. Riprendendo l’esempio dell’acquisto di una casa, una volta
identificate le dimensioni rilevanti, il decisore dovrebbe assegnare a ciascuna un peso, che
esprima l’importanza di quella dimensione per lui. I valori specifici delle opzioni su ogni
dimensione vanno poi trasposti su una scala più generale, per indicare quanto soddisfano
la dimensione in questione (per esempio, le diverse ampiezze originariamente in mq
potrebbero essere ricodificate su una scala da 0 a 100, dove 100 significa «ampiezza del
tutto soddisfacente» e 0 significa «ampiezza del tutto insoddisfacente»). Infine, per
calcolare l’utilità dell’opzione non rimane che sommare fra loro tutti i valori, ciascuno
moltiplicato per il peso della dimensione a cui si riferisce. (Stiamo assumendo qui che le
dimensioni siano fra loro indipendenti, ossia che i valori su una dimensione non
influenzino i valori lungo le altre dimensioni. In caso contrario, il calcolo è possibile ma
più complicato.) La scelta dell’opzione con il valore di utilità più elevato garantisce la
massimizzazione dell’utilità e rappresenta il criterio decisionale dell’approccio normativo.
La decisione considerata sopra è un esempio di decisione in condizioni di certezza, in
quanto le caratteristiche rilevanti di un appartamento sono verosimilmente definite al
momento della decisione. Molte delle nostre decisioni, tuttavia, avvengono in condizioni
di incertezza, ossia riguardano opzioni le cui conseguenze non sono del tutto note in
quanto dipendono (almeno in parte) da eventi casuali, indipendenti dal comportamento del
decisore, dovuti alla «natura» o ad altre persone che possono trovarsi in posizione
collaborativa o competitiva rispetto al decisore (in quest’ultimo caso, si parla di decisioni
di interazione strategica e il settore di ricerca che se ne occupa è noto come teoria dei
giochi). L’utilità di un’opzione in condizioni di incertezza viene detta attesa e viene
quantificata sommando le utilità di tutti i possibili esiti ciascuna moltiplicata per la
probabilità di accadimento dell’esito stesso. Per esempio, immaginiamo di voler calcolare
l’utilità attesa della seguente scommessa riguardo al lancio di un dado non truccato: se
esce un numero dispari si perdono €20, se esce il 2 si vincono €10, se esce il 4 o il 6 si
vincono €30. L’utilità complessiva dell’opzione sarà data dall’utilità (negativa) di perdere
€20 × 1/2 + l’utilità (positiva) di ricevere €10 per 1/6 + l’utilità (positiva) di ricevere €30
× 1/3. È bene ribadire che i valori di utilità dipendono da fattori soggettivi, in quanto
riflettono i desideri e gli obiettivi di un particolare decisore in merito a uno specifico
contenuto, e dunque possono differire notevolmente da quelli di un altro. La teoria non
impone vincoli su questi valori, ma prevede che un decisore, se agisce razionalmente,
sceglierà invariabilmente l’opzione che massimizza la sua utilità.
L’approccio normativo si fonda sull’assunzione che le preferenze delle persone siano non
solo ben definite e disponibili all’introspezione ma anche stabili nel tempo. La
massimizzazione dell’utilità comporta, inoltre, l’osservazione di vari principi, fra cui
l’invarianza, secondo cui qualsiasi caratteristica delle opzioni che non interessi il loro
valore dovrebbe essere ignorata, e la regolarità, in accordo con la quale l’aggiunta di una
nuova opzione non può incrementare la probabilità di scelta di quelle preesistenti (cioè la
probabilità di scegliere un’opzione A da un insieme contenente solo A e B non può essere
inferiore alla probabilità di scegliere quella stessa opzione A da un insieme contenente le
opzioni A, B e una nuova opzione C). Come vedremo, le violazioni di questi principi (e
molti altri) si sono rivelate così frequenti e sistematiche da escludere che fossero il
prodotto di fattori casuali. Nonostante la sua indubbia eleganza formale, la teoria
dell’utilità non si è quindi dimostrata in grado di cogliere come le persone prendono le
loro decisioni.
3.2 Alcuni bias decisionali
A partire dagli anni Settanta, vari esperimenti hanno dimostrato come le preferenze per
due opzioni possano capovolgersi (preference reversals) in funzione di variabili che
dovrebbero essere irrilevanti per la teoria dell’utilità. Fra queste:
– la modalità di espressione della decisione, per esempio scelta versus rinuncia;
– i termini utilizzati per presentare le opzioni, per esempio a connotazione positiva
versus negativa;
– il contesto di riferimento, per esempio costituito da opzioni simili versus dissimili.
Nelle pagine che seguono, vedremo nel dettaglio alcuni di questi bias, dove tale termine
indica proprio una deviazione sistematica dai principi normativi (e non quindi il risultato
di un errore casuale). Come le illusioni percettive, i bias decisionali sono difficili da
eliminare, sono persistenti (tendono a ripresentarsi anche dopo che l’errore è stato
rivelato) e soprattutto colpiscono tutti, incluse persone con una buona scolarizzazione.
3.2.1 Scelta basata sulle ragioni (Reason-based choice)
Se ci vengono presentate due opzioni, A e B, e alla domanda di quale scegliamo
rispondiamo «A», sarebbe lecito aspettarsi che alla domanda opposta, ossia quale
scartiamo, rispondessimo «B». In alcuni brillanti esperimenti, Shafir, Simonson &
Tversky (1993) hanno mostrato che non è così. Per esempio, a un gruppo di partecipanti
veniva mostrato il seguente scenario:
Immagina di far parte della giuria in un caso di custodia esclusiva di un bambino a seguito
di un divorzio piuttosto conflittuale. I fatti del caso sono complicati da considerazioni
economiche, sociali ed emotive piuttosto ambigue. Tu stabilisci di basare la tua decisione
interamente sulle seguenti osservazioni.

Genitore A:
Genitore B:
– reddito medio
– reddito superiore alla media

– salute nella norma


– alcuni lievi problemi di salute

– orario di lavoro nella media


– molti viaggi di lavoro

– ragionevole rapporto con il bambino


– rapporto molto stretto con il bambino

– vita sociale relativamente stabile


– vita sociale estremamente attiva

A quale genitore assegneresti l’affido esclusivo del minore?


A un secondo gruppo di partecipanti, veniva mostrato lo stesso problema ma la domanda
finale era:
A quale genitore negheresti l’affido esclusivo del minore?
I risultati mostrarono che la maggior parte dei partecipanti nel primo gruppo scelsero di
affidare la custodia del bambino al genitore B mentre la maggior parte dei partecipanti nel
secondo gruppo scelsero di negare la custodia del bambino sempre al genitore B. Il tipo di
domanda (ossia la modalità attraverso cui veniva chiesto di esprimere la propria decisione)
si è rivelata dunque sufficiente a capovolgere le preferenze dei partecipanti. Gli autori
dello studio hanno interpretato questo fenomeno a sostegno dell’importanza che le
argomentazioni rivestono nella presa di decisione: in presenza di informazioni conflittuali,
le persone tenderebbero a prendere le loro decisioni e a giustificarle cercando delle ragioni
a favore o a sfavore di un’opzione (nello scenario sopra, il genitore B presenta
caratteristiche più estreme sia in senso positivo che negativo, e si presta dunque a fornire
buone ragioni sia per la scelta che per il rifiuto).
3.2.2 Effetto incorniciatura (Framing effect)
Le decisioni che prendiamo sono influenzate anche dal modo in cui le opzioni ci vengono
presentate. Consideriamo il seguente scenario (noto come «problema della malattia
asiatica», adattato da Tversky & Kahneman, 1981):
Immagina che il tuo paese si stia attrezzando per fronteggiare un’insolita malattia asiatica
che in assenza di interventi si ritiene ucciderà 600 persone. Sono stati proposti due
programmi alternativi per fronteggiarla. Assumi che la stima scientifica esatta delle
conseguenze dei due programmi sia la seguente:
– se viene adottato il programma A, 200 persone si salveranno;
– se viene adottato il programma B, c’è 1/3 di probabilità che 600 persone si salvino, e
2/3 di probabilità che nessuno si salvi.
Quale programma sceglieresti?
A un secondo gruppo di partecipanti veniva presenta la stessa storia ma le due opzioni
offerte erano:
– se viene adottato il programma C, 400 persone moriranno;
– se viene adottato il programma D, c’è 1/3 di probabilità che nessuno muoia e 2/3 di
probabilità che 600 persone muoiano.
Come avrete notato, le due opzioni offerte sono di fatto identiche (ossia, A = C e B = D).
Infatti, salvare 200 persone su 600 equivale a non salvarne (cioè lasciarne morire) 400 su
600, così come salvare 600 persone con 1/3 di probabilità equivale a non salvarne (cioè
lascarne morire) 600 con 2/3 di probabilità. Tuttavia quello che tipicamente si osserva è
che la maggioranza delle persone preferisce l’opzione certa (A) quando viene chiesto di
scegliere fra A e B, ma preferisce l’opzione rischiosa (D) quando viene chiesto di
scegliere fra C e D. Questo risultato (replicato svariate volte con contenuti molto diversi)
costituisce un’esplicita violazione dell’assioma dell’invarianza descritto sopra, e una sua
possibile spiegazione è fornita più avanti, quando parleremo della teoria del prospetto (si
veda il paragrafo 3.3.3).
3.2.3 Effetto attrazione (Attraction effect)
Immaginate che in commercio esistano due prodotti A e B, nel loro complesso ugualmente
appetibili, per esempio due bibite di gusto paragonabile, una (A) di qualità superiore ma
più cara dell’altra (B). Alcune persone preferiranno A altre B, a seconda che per loro sia
più importante massimizzare la qualità o minimizzare il prezzo. Supponete ora che venga
introdotta sul mercato una terza bibita C. Come si comporteranno i consumatori? Da un
punto di vista razionale, sarebbe lecito aspettarsi che le preferenze per A e B diminuissero
(nel caso C piacesse a un certo numero di persone) o al massimo restassero uguali (nel
caso C non piacesse a nessuno). Coerentemente con ciò, fino agli anni Ottanta, gli
economisti davano per scontato che la commercializzazione di un nuovo prodotto avrebbe
compromesso prevalentemente il mercato dei prodotti simili (con cui entrava in diretta
competizione) rispetto a quello dei prodotti dissimili. Questi assunti però sono stati violati
dalla dimostrazione che, in realtà, se l’opzione aggiunta (C) è dominata (cioè è inferiore
lungo una dimensione e non superiore lungo le altre) da una delle due opzioni (per
esempio, A) ma non dall’altra (B), nessuno di fatto la sceglie, ma la sua presenza è
sufficiente a incrementare significativamente le preferenze per l’opzione che la domina a
scapito dell’altra. L’opzione aggiunta (C, per esempio una bibita di qualità inferiore ad A
ma non a B e più cara di entrambe) funge quindi da esca (decoy) e la sua introduzione
serve a spostare le preferenze dei consumatori verso un’opzione (A) che altrimenti
avrebbero apprezzato di meno.

Figura 7
Rappresentazione grafica di due opzioni, A e B, definite esclusivamente dai loro valori
sulle dimensioni x (per esempio «convenienza») e y («qualità»). Se si introduce una terza
opzione C nell’area evidenziata in grigio, essa risulterà asimmetricamente dominata dalle
due opzioni preesistenti, ossia sarà dominata da A ma non da B (è infatti inferiore a B
lungo la dimensione x ma superiore lungo y) e la sua presenza sarà sufficiente ad
aumentare le preferenze per A.

Questo risultato (replicato con diversi contenuti, incluse opzioni concrete in contesti di
scelta reale) costituisce un’esplicita violazione del principio della regolarità descritto
sopra.
3.2.4 Status quo bias
Per illustrare questa fallacia decisionale è utile fare riferimento a un caso reale, invece che
a uno scenario sperimentale (il fenomeno è stato in ogni caso replicato anche in
laboratorio). Nei primi anni Novanta, alcuni stati americani hanno introdotto la possibilità
di avere una polizza assicurativa di base per l’auto, più economica ma che copriva solo
danni a terzi (e non, per esempio, furto o incendio). In New Jersey i nuovi automobilisti
avevano di default l’assicurazione base e se lo desideravano potevano acquistare
l’assicurazione completa (soluzione opt-in), mentre in Pennsylvania i nuovi automobilisti
avevano per default l’assicurazione completa e potevano risparmiare passando a quella
base (soluzione optout). Un’analisi delle polizze nei due stati ha rivelato che la soluzione
di partenza ha condizionato in modo considerevole le scelte: soltanto il 20% degli
automobilisti del New Jersey ha deciso di comprare attivamente l’assicurazione completa
mentre quasi il 75% degli automobilisti della Pennsylvania ha deciso di tenerla. Questo
risultato ci rivela che abbiamo una forte inerzia nei confronti dello status quo, ossia
tendiamo a mantenere le cose come sono, anche se (ed è questa l’aspetto più interessante)
non abbiamo scelto noi il loro stato iniziale.
3.3 L’approccio descrittivo: come le persone prendono le decisioni
I modelli descrittivi sono teorie psicologiche che hanno solitamente due scopi: specificare
le condizioni in cui le decisioni intuitive delle persone tendono a discostarsi dai principi
razionali e cercare di spiegarne il perché, indicando eventualmente anche come
migliorarle.
3.3.1 Il livello sufficiente di soddisfazione (Satisficing)
Uno dei primi a mettere in discussione la teoria dell’utilità attesa quale descrizione del
comportamento decisionale umano fu Simon (1955), che coniò il neologismo satisficing,
dalle parole inglesi satisfy (soddisfazione) e suffice (sufficienza), per esprimere l’idea che
le persone non cercano sempre di ottimizzare ma piuttosto si accontentano di raggiungere
un livello sufficiente di soddisfazione. Secondo Simon, prendere una decisione come
prescritto dalla teoria dell’utilità è di fatto impossibile a causa della nostra razionalità
limitata, ossia dei nostri limiti cognitivi e computazionali (per esempio, la ridotta capacità
della nostra memoria di lavoro), e dei considerevoli vincoli ambientali a cui siamo
tipicamente sottoposti (per esempio, la pressione temporale o l’enormità di informazioni
potenzialmente rilevanti ma solo parzialmente accessibili). Una procedura relativamente
semplice per decidere consiste, invece, nel vagliare serialmente le opzioni disponibili fino
a quando si incontra qualcosa di «abbastanza buono», sufficiente a soddisfare il proprio
livello di aspirazione su ogni attributo rilevante. Per esempio, se desideriamo comprare un
paio di jeans, sarebbe irrealistico pensare di andare in tutti i negozi della città che vendono
jeans e confrontare tutti i modelli disponibili su tutti gli attributi rilevanti, perché il nostro
acquisto richiederebbe mesi. Le persone solitamente si recano in uno o due negozi dove
ritengono ci possa essere un paio di jeans che fa al caso loro ed esaminano le opzioni
disponibili. Se ne trovano una che soddisfa tutti i criteri che si sono dati (taglia, modello,
colore, prezzo, ecc.) allora la prendono, altrimenti continuano a cercare finché non ne
troveranno una che li soddisfi. Nel caso poi il decisore si rendesse conto che non è facile
trovare un’opzione che soddisfa tutti i criteri che si è dato, per evitare di procedere
all’infinito, potrebbe eventualmente aggiustare il livello minimo di soddisfacimento che
considera adeguato su uno o più attributi.
Le idee di Simon non sono state esenti da critiche, soprattutto a causa di una certa
vaghezza nella determinazione del livello di aspirazione, ossia la soglia che specifica ciò
che è considerato soddisfacente da ciò che non lo è. Tuttavia, hanno fortemente
contribuito a spostare l’attenzione dal risultato della decisione al processo decisionale e
sono state applicate con buon successo alla comprensione del comportamento decisionale
dei singoli individui e delle organizzazioni.
3.3.2 Il decisore adattivo (The adaptive decision maker)
Alcune delle idee di Simon sono state riprese da altri ricercatori, come Payne, Bettmann e
Johnson (1993), secondo i quali le persone possiedono un repertorio di strategie
decisionali piuttosto vario che verrebbero attivate in modo selettivo (anche se non
necessariamente consapevole) a seconda dell’importanza o complessità del compito
decisionale e delle condizioni in cui viene svolto (per esempio, assenza o presenza di
pressione temporale).
Una classificazione molto nota contrappone, in particolare, le strategie compensatorie
(come il calcolo dell’utilità visto nel paragrafo 3.1), che implicano il bilanciamento di tutti
i valori di un’opzione, con la conseguente possibilità di sopperire alla bassa attrattività
lungo una dimensione, anche importante, mediante valori elevati lungo le altre, alle
strategie non compensatorie (dette anche sequenziali o gerarchiche), che si realizzano,
invece, attraverso una progressiva eliminazione delle opzioni sulla base di un certo
criterio. Una strategia fortemente non compensatoria è la regola lessicografica, che
prevede il confronto delle opzioni esclusivamente sulla dimensione più importante e, solo
in caso di parità, l’analisi progressiva dei valori delle opzioni lungo le altre dimensioni.
Tornando all’esempio dell’acquisto di un appartamento, se per un certodecisore
l’ampiezza fosse la caratteristica più importante, potrebbe scegliere l’opzione fra quelle
disponibili che risulta per lui avere il valore più elevato rispetto a tale attributo, a
prescindere dai valori (delle opzioni) sugli altri attributi. Qualora ci fossero più
appartamenti di pari metratura, il decisore potrebbe poi confrontarli lungo la seconda
dimensione in termini di importanza (per esempio, il prezzo), e così via. Un certo numero
di studi ha documentato come, non richiedendo calcoli ma solo una serie più o meno
articolata di confronti, l’utilizzo delle strategie non compensatorie sia tanto più efficiente
quanto più numerose sono le opzioni e soprattutto le dimensioni da considerare e quanto
minore è il tempo a disposizione. Al contrario, l’analisi esaustiva delle opzioni sarebbe
ideale in compiti più complessi, quando non vi sono vincoli temporali o dove è utile un
esame più approfondito delle opzioni sopravvissute ad una precedente scrematura non
compensatoria.
Nel complesso, l’idea che le persone siano dei decisori che si adattano e riescono a trovare
un equilibrio fra riduzione dello sforzo cognitivo e accuratezza ha trovato un discreto
supporto, soprattutto con problemi decisionali che coinvolgono opzioni con molte (cinque
o più) dimensioni. Questo però non significa che le decisioni prese siano sempre buone.
Infatti, alla riduzione del carico cognitivo può accompagnarsi la possibilità di trascurare
elementi fondamentali e una maggior suscettibilità a fattori distraenti.
3.3.3 La teoria del prospetto (Prospect theory)
La teoria descrittiva che ha influenzato maggiormente lo studio della decisione in
condizioni di incertezza negli ultimi quarant’anni è la teoria del prospetto, proposta da
Kahneman e Tversky nel 1979. Sebbene preservi l’idea di una regola decisionale basata
sulla massimizzazione in cui le preferenze per un’opzione deriverebbero dalla
moltiplicazione dei suoi vari esiti con le rispettive probabilità di accadimento, la teoria del
prospetto differisce dalla teoria dell’utilità riguardo alla trasformazione soggettiva di
queste due componenti.
Per cominciare, la probabilità soggettiva, illustrata nella cosiddetta funzione π(p), subisce
delle distorsioni caratteristiche, fra cui la sovrastima delle basse occorrenze, la sottostima
di quelle medie e soprattutto di quelle elevate, e una certa insensibilità alle differenze nelle
probabilità intermedie, come riportato in Figura 8. Queste distorsioni nella percezione
della probabilità soggettiva aiutano a comprendere alcuni fenomeni, quali la fiducia che
molte persone ripongono nella vincita alla lotteria (malgrado probabilità oggettive
bassissime) o perché la riduzione di un fattore costante di probabilità (per esempio, –10%)
appaia più saliente quando l’esito è inizialmente certo (per esempio, quando si passa dal
100% al 90%), piuttosto che solo probabile (per esempio, dal 60% al 50%), fenomeno
noto come effetto certezza.

Figura 8
Rappresentazione grafica della funzione di ponderazione delle probabilità secondo la
teoria del prospetto.

Secondo importante elemento di novità è la sostituzione del concetto di utilità, troppo


ancorato all’idea di benessere assoluto, con quello di valore. La funzione che lega la
valutazione soggettiva del valore di un’opzione alle sue conseguenze obiettive è descritta
in Figura 9 ed ha tre importanti proprietà:
Figura 9
Rappresentazione grafica della funzione del valore secondo la teoria del prospetto. Le due
coppie di opzioni utilizzate nel problema della malattia asiatica (si veda il paragrafo
3.3.2), pur essendo formalmente equivalenti, sono incorniciate in modo differente, con
conseguente spostamento del punto di riferimento. In particolare, i termini a connotazione
positiva utilizzati per descrivere A e B stimolerebbero un’interpretazione delle opzioni
come guadagni rispetto al caso peggiore possibile (non si salverà nessuno), mentre i
termini a connotazione negativa in C e D facilitano un’interpretazione delle opzioni come
perdite rispetto alla situazione attuale (non è ancora morto nessuno). La funzione mostra,
inoltre, che (nel primo quadrante) il valore soggettivo di un guadagno di 600 moltiplicato
per 1/3 è inferiore al valore soggettivo di un guadagno sicuro di 200. Analogamente (nel
terzo quadrante), una perdita di 400 appare soggettivamente maggiore dei 2/3 di una
perdita di 600. L’andamento della funzione del valore è dunque compatibile con il
rovesciamento di preferenze che tipicamente si osserva nel framing effect.

– è focalizzata sui cambiamenti, in termini di guadagni o perdite rispetto ad una certa


posizione assunta come punto di riferimento neutrale (che può essere lo status quo, oppure
dipendere dalle aspettative ed esperienze precedenti);
– presenta un incremento marginale decrescente (analogamente a quanto avviene in
psicofisica con la legge di Weber-Fechner, si osserva una diminuzione della sensibilità
alle differenze all’aumentare delle intensità, che conferisce alla funzione la classica forma
concava per i guadagni e convessa per le perdite);
– è asimmetrica, e in particolare più ripida per le perdite (terzo quadrante) e più dolce
per i guadagni (primo quadrante).
La teoria del prospetto consente di interpretare alcuni fenomeni che sfuggono alla teoria
dell’utilità. Immaginate, per esempio, di ricevere inaspettatamente, in uno stesso giorno,
un regalo di €100 e una multa di €90. La teoria del prospetto suggerisce che, malgrado la
vostra ricchezza complessiva sia cresciuta di €10, voi potreste non essere affatto più felici
di prima. La prima caratteristica della funzione valore, infatti, ci dice che tendiamo a
valutare guadagni e perdite separatamente, mentre la terza caratteristica della funzione
valore ci dice che, a parità di valore assoluto, le perdite ci appaiono solitamente più gradi
(dolorose) di quanto ci appaiano i corrispondenti guadagni. Questo determina un
atteggiamento generale di avversione per le perdite superiore al gradimento per i guadagni
(fenomeno noto come loss aversion). Infine, la seconda caratteristica (ossia la diminuzione
della sensibilità) si traduce in una generale avversione al rischio in situazioni di guadagno
e una propensione al rischio in situazioni di perdita. Per esempio, una scommessa con un
guadagno certo (A: €100 con probabilità del 100%) viene tendenzialmente preferita a una
di pari valore atteso ma con un guadagno incerto (B: €200 con probabilità del 50% e €0
con probabilità del 50%). Tuttavia, una perdita incerta (C: –€200 con probabilità del 50%)
viene preferita ad una di pari valore atteso ma certa (D: –€100 con probabilità del 100%).
Al lettore non sarà sfuggito che, come spiegato nella didascalia della Figura 9, questo può
facilmente spiegare anche l’effetto framing (visto nel paragrafo 3.2.2).
3.3.4 La teoria della differenziazione e del consolidamento
Un’altra interessante teoria descrittiva è quella proposta da Svenson (1992), secondo cui le
decisioni avvengono in due momenti distinti. Nella prima fase, il decisore cercherebbe di
differenziare progressivamente le opzioni disponibili attraverso specifici processi di
strutturazione e classificazione, fino ad identificarne una come superiore alle alternative.
Nella seconda fase, il decisore metterebbe in atto dei processi finalizzati a consolidare la
propria decisione, in modo da rafforzare l’attrattività dell’opzione scelta e farle mantenere
il vantaggio accumulato sulle alternative.
Un’evidenza sperimentale a favore della teoria della differenziazione-consolidamento è
costituita dalle distorsioni di memoria post-decisionali. Mather, Shafir e Johnson (2000)
hanno chiesto ai loro partecipanti di scegliere fra due opzioni (per esempio, due potenziali
compagni di stanza al college, ma l’esperimento è stato replicato anche con contenuti
diversi). Ciascuna opzione aveva un certo numero di caratteristiche positive (come
«raramente di cattivo umore») e negative (come «facilmente irritabile»). Dopo aver fatto
la loro scelta, i partecipanti venivano impegnati per circa 45 minuti in un compito
distraente. Al termine, veniva presentato a sorpresa un test di memoria in cui i partecipanti
dovevano indicare se alcune caratteristiche appartenevano o meno alle opzioni che
avevano precedentemente considerato (ed eventualmente a quali). Si trovò che i
partecipanti tendevano ad attribuire più caratteristiche positive all’opzione che avevano
scelto e più caratteristiche negative all’opzione che avevano scartato.
Le procedure di differenziazione e consolidamento sono funzionali al benessere generale
delle persone, in quanto semplificano le decisioni e, soprattutto, le «difendono» da
eventuali «minacce»: più un’opzione è stata differenziata e consolidata, infatti, minore è il
rischio di ambiguità, rimpianto o ripensamento post-decisionale. Tuttavia, questi processi
tendono anche a produrre dei bias nella valutazione delle opzioni e del valore diagnostico
delle evidenze a loro favore o sfavore, risultando problematici non solo da un punto di
vista della memoria, ma anche per l’assunzione di responsabilità e, più in generale, per
l’apprendimento basato sull’esperienza.

La spinta gentile (Nudge)


Nel 2017, Richard Thaler (1945-), statunitense, ha ricevuto il Nobel per l’economia. Non
è il primo economista comportamentale interessato alla psicologia delle decisioni a
ricevere il prestigioso riconoscimento. Era già stato dato a due studiosi più volte
menzionati in questo capitolo: nel 1978 a Herbert Simon (1916-2001) e nel 2002 a Daniel
Kahneman (1934-), psicologo israeliano (il coautore di gran parte dei suoi studi, Amos
Tversky (1937-1996) non fu premiato perché scomparso prematuramente).
Il contributo di Thaler è stato non tanto quello di ribadire la necessità di introdurre delle
ipotesi psicologicamente realistiche nelle analisi economiche dei processi decisionali,
quanto quello di aver cercato di trovare un rimedio alle conseguenze delle deviazioni
dall’ideale normativo razionale. La sua proposta, elaborata insieme a Cass Sunstein
(1954), giurista statunitense, consiste nella promozione di politiche non coercitive che, pur
salvaguardando la libertà decisionale degli individui, li aiutino a orientarsi verso decisioni
desiderabili sul piano individuale e collettivo, riguardo a temi come lo studio, il lavoro, la
salute, il risparmio, gli investimenti, e l’ambiente. Si tratta di una forma di paternalismo,
in quanto viene ritenuto lecito intervenire sui comportamenti delle persone per il loro
bene, ma libertario perché non impone alcuna scelta dall’alto, permettendo alle persone di
prendere le proprie decisioni.
Ma come si realizza? L’idea è quella di agire sull’architettura della decisione attraverso
delle spintarelle (nudge) che orientino il decisore in determinate direzioni. Queste, per
essere tali, devono rappresentare dei tentativi di influenzare le decisioni delle persone in
modo prevedibile (sfruttando i bias descritti in letteratura), senza però proibire delle
opzioni o modificare in modo significativo gli incentivi economici. Le spinte, inoltre,
devono essere facili da evitare. Una spinta gentile per disincentivare il consumo di cibi
spazzatura nei self-service potrebbe essere, per esempio, collocarli non ad altezza dello
sguardo e in una posizione non comodamente raggiungibile. Bandirli, invece, non è
ammesso perché toglierebbe ai decisori la possibilità di scegliere.
L’utilizzo di spinte gentili è stato adottato in molti contesti anglosassoni, e sta ricevendo
una crescente attenzione anche in Italia. Per esempio, lo status quo bias (descritto nel
paragrafo 3.2.4) è stato utilizzato per contrastare la tendenza della popolazione degli Stati
Uniti a non risparmiare abbastanza per la vecchiaia, dando ai lavoratori di alcune
compagnie l’iscrizione di default a dei piani pensionistici e lasciando la possibilità
eventuale di disiscriversi (invece che il contrario, situazione abbastanza comune negli
USA). Un altro caso di successo è rappresentato della donazione di organi: nei paesi in cui
donare è l’opzione di default, malgrado si lasci sempre la libertà di non donare, i donatori
rappresentano la maggioranza schiacciante, al contrario di quanto avviene nei paesi dove
per donare si deve fare un’adesione volontaria.
Le cose non sono, tuttavia, sempre semplici. A volte le spinte gentili non funzionano o
hanno addirittura effetti boomerang (per esempio, si è visto che le stesse strategie per
ridurre i consumi energetici possono indurre reazioni opposte a seconda dell’ideologia
politica del decisore). Inoltre, anche quando funzionano, gli effetti sembrano rimanere
circoscritti a singole decisioni, senza necessariamente promuovere nei decisori una
generalizzazione del comportamento virtuoso. Infine, in molti casi, i dubbi più sostanziali
riguardano la possibilità di stabilire che cosa è davvero buono e giusto per le persone: se
non è sempre banale per sé stessi, figuriamoci per gli altri.
BIBLIOGRAFIA
BARON, J. (2007). Thinking and Deciding. Cambridge, UK: Cambridge University Press.
EDWARDS, W. (1968). Conservatism in Human Information Processing. In B.
Kleinmuntz (Ed.), Formal Representation of Human Judgment, 17-52. New York: Wiley.
GALOTTI, K.M., BARON, J., & SABINI, J.P. (1986). Individual differences in
syllogistic reasoning: Deduction rules or mental models?. «Journal of Experimental
Psychology General», 115, 16-25.
JOHNSON-LAIRD, P.N. (1999). Deductive reasoning. «Annual Review of Psychology»,
50, 109-135.
JOHNSON-LAIRD, P.N (2006). How We Reason. Oxford: Oxford University Press.
KAHNEMAN, D. & TVERSKY, A. (1973). On the psychology of prediction.
«Psychological Review», 80, 237-251.
KAHNEMAN, D. & TVERSKY, A. (1979). Prospect theory: An analysis of decision
under risk. «Econometrica», 47, 263-291.
MATHER, M., SHAFIR, E. & JOHNSON, M.K. (2000), Misrememberance of options
past: Source monitoring and choice. «Psychological Science», 11, 132-138.
OAKHILL, J.V., GARNHAM, A., & JOHNSON-LAIRD, P.N. (1990). Belief bias effects
in syllogistic reasoning. In K.J. Gilhooly, M.T.G., Keane, R.H. Logie, & G. Erdos (Eds.).
Lines of thinking: Reflections on the psychology of thought, 1, 125-138. Chichester:
Wiley.
PAYNE, W., BETTMANN J.R., & JOHNSON, E.J. (1993). The Adaptive Decision
Maker. Cambridge MA: Cambridge University Press.
REVERBERI C., PISCHEDDA D, BURIGO M, & CHERUBINI P. (2012). Deduction
without awareness. «Acta Psychologica», 139, 244-253.
SHAFIR, E., SIMONSON, I., & TVERSKY, A. (1993). Reason-based choice.
«Cognition», 49, 11-36.
SIMON, H.A. (1955). A behavioral model of rational choice. «The Quarterly Journal of
Economics», 69, 99-118.
SVENSON, O. (1992). Differentiation and consolidation theory of human decision
making: A frame of reference for the study of pre- and post-decision processes. «Acta
Psychologica», 80, 143-168.
TENTORI, K., CHATER, N., & CRUPI, V. (2016). Judging the probability of hypotheses
versus the impact of evidence: Which form of inductive inference is more accurate and
time-consistent?. «Cognitive Science», 40, 758-778.
TVERSKY, A. & KAHNEMAN, D. (1981). The Framing of Decisions and the
Psychology of Choice. «Science», 211, 453-458.
TVERSKY, A. & KAHNEMAN, D. (1982). Evidential impact of base rates. In D.
Kahneman, P. Slovic & A. Tversky (eds.), Judgment under uncertainty: Heuristics and
biases, 153-160. Cambridge: Cambridge University Press.
TVERSKY, A. & KAHNEMAN, D. (1983). Extensional versus intuitive reasoning: The
conjunction fallacy in probability judgment. «Psychological Review», 90, 293-315.
WASON, P.C. (1966). Reasoning. In B.M. Foss (Ed.), New Horizons in Psychology, 135-
151). Harmondsworth: Penguin Books.

Capitolo 10
Emozioni e processi cognitivi
Maurizio Codispoti e Vera Ferrari

1.Introduzione
2.Il processo di valutazione
3.La risposta esperienziale soggettiva
4.La risposta espressivo-comportamentale
5.La risposta fisiologica
6.Le funzioni delle emozioni
7.La relazione tra emozioni e processi cognitivi
8.Emozioni e percezione
9.Emozioni ed attenzione
10.Emozioni ed apprendimento

Potrebbero piacerti anche