Sei sulla pagina 1di 202

04/10/2019

PSICOLOGIA DEI PROCESSI COGNITIVI

Note di questo documento:

Non si tratta di un riassunto.


Ho preso tutte le dispense e le ho unite ed integrate con quanto viene detto durante le videolezioni.
Tutto quanto è riportato nelle videolezioni, è scritto in blu.
Quanto, invece, è scritto in nero, è presente solo nelle dispense (ed è considerato dal professore
come “approfondimento”).
Di fatto, leggendo queste pagine si può evitare di ascoltare i video / vocali.

PS: alcuni argomenti nei video vengono trattati prima o dopo l’ordine in cui sono state studiate e
create le dispense…. E in un paio di occasioni i video si ripetono…. 😊

Spero sia uno strumento utile per tutti quelli che dovranno sostenere questo esame!

Buono studio!

Elena

1
I PROCESSI COGNITIVI
I Processi Cognitivi sono quei processi che regolano le abilità che gli individui mostrano nel percepire,
comprendere, ricordare le loro esperienze e, ancora, comunicare, produrre nuova conoscenza e
risolvere I problemi.
Lo studio dei processi cognitivi consente di descrivere e di comprendere scientificamente il
funzionamento della mente e di prevederne la manifestazione nei diversi compiti in cui i processi
mentali sono chiamati ad operare.
I principali stadi dell’elaborazione cognitiva possono essere così ordinati:
• Input ->Percezione: l’informazione catturata dagli organi di senso passa allo stadio della percezione, in
cui è fatta l’analisi del suo contenuto.
• Apprendimento e memoria: l’input viene registrato in modo da poterlo conservare.
• Recupero: in questo modo l’informazione può essere recuperata, anche senza una richiesta esplicita
dell’individuo.
• Pensiero: il recupero può costituire una parte del processo di pensiero per affrontare nuovi problemi.

Sviluppo dei processi cognitivi


I processi cognitivi sono quei processi che, a partire dall’attività della mente, ci fanno comprendere il
mondo esterno. Ma non solo. Sono quei processi che ci permettono di elaborare e trasformare le
informazioni che riceviamo dal mondo esterno in oggetti mentali, vale a dire in rappresentazioni.
È proprio a partire da queste constatazioni che la psicologia cognitiva si sviluppa, infatti cerca di
comprendere sia come avvengono tali processi, sia come sia possibile manipolare le informazioni che
riceviamo dall’ambiente.
Tuttavia, le varie ricerche e studi sui processi cognitivi sono in via di sviluppo vista la complessità della
mente umana.
Un filone di ricerca molto importante è senza dubbio l’intreccio che intercorre tra filosofia e scienze
cognitive, fatto di metodi simili, di critiche e, in alcuni casi, di collaborazione.
La filosofia fin dai suoi primi albori si occupa di sviluppare le teorie che hanno a che fare con la
spiegazione del mentale in tutte le sue diverse sfaccettature, di criticare i metodi troppo ristretti e di
identificare problemi che producono le scienze moderne. In quest’ottica, la filosofia è senza alcun
dubbio una risorsa peculiare per lo sviluppo dei processi cognitivi perché si occupa, come lo è per le
scienze cognitive, della percezione, memoria, attenzione, intelligenza, apprendimento, linguaggio,
relazione intrapersonali e interpersonali ecc.
Ciò, colloca, all’interno delle ricerche filosofiche, due filoni di ricerca molta importanti.
Il primo riguarda la filosofia del linguaggio mentre, il secondo, la filosofia delle scienze cognitive.
A tal proposito, la filosofia può svolgere un ruolo critico e positivo per le scienze cognitive.
Per quanto riguarda il primo filone, ciò che considera è l’analogia tra il pensiero e il linguaggio. Il
linguaggio ha avuto nell’ambito dello studio della mente, sempre un ruolo importante, se non di primo
piano, tant’è vero che è visto come un mezzo che esprime in modo dettagliato il pensiero umano.
Così, si comprende, che il linguaggio nell’ambito della ricerca antropologica contribuisce a risistemare
l’esperienza umana a partire dalla sua cultura. Da questa tesi si sviluppa il determinismo linguistico,
sostenitore di un relativismo linguistico, secondo il quale le diverse lingue si formano in base alle
diverse forme di pensiero. Questo particolare punto di vista, viene espresso nell’opera Linguaggio,
2
pensiero e realtà di Whorf: “analizziamo la natura secondo linee tracciate dalle nostre lingue. Le
categorie e i tipi che isoliamo dal mondo dei fenomeni non vengono scoperti perché colpiscono ogni
osservatore; ma, al contrario, il mondo si presenta come un flusso caleidoscopico di impressioni che
deve essere organizzato […]. Sezioniamo la natura, la organizziamo in concetti, le diamo determinati
significati, in larga misura perché siamo partecipi di un accordo per organizzarla in questo modo, un
accordo che vige in tutta la nostra comunità linguistica ed è codificato nelle configurazioni della nostra
lingua”.
Quindi per Whorf il linguaggio non è solo un mezzo che esprime i pensieri, ma costituisce l’esperienza
vitale a cui si riferisce.
Il secondo filone di ricerca filosofica, come abbiamo già detto, è la filosofia delle scienze cognitive che
tratta le concezioni empiriste e razionaliste della mente.
Il razionalismo prende le mosse non solo dal filosofo Descartes che considera la mente come una
struttura indifferenziata, intrinseca e con facoltà innate, ma anche da Chomsky secondo il quale la
mente è (sin dall’inizio, intrinsecamente, geneticamente) strutturata in facoltà psicologiche o “organi”.
Queste due correnti nonostante siano contrapposte hanno contribuito allo sviluppo propositivo delle
scienze cognitive; infatti, tra le tante teorie, quella che racchiude i due filoni in un minimo comune
denominatore è quella del mindreadind, vale a dire, la capacità che ha l’animale umano di
rappresentarsi gli stati mentali altrui.
La teoria della teoria, mossa da Alan Lesliè e Simon Baron-Choen, dice che gli esseri umani
comprendono gli atteggiamenti altrui in quanto hanno le caratteristiche per sviluppare una teoria della
mente, che ne colga intenzioni, credenze, sentimenti e comportamenti. Detto in modo diverso,
ognuno può indagare l’altro in base alla propria capacità di cogliere la propria mente. Da questa
concezione ne segue la possibilità di cogliere alcune patologie come, per esempio, l’autismo.
Alternativa alla teoria della teoria, invece, è la teoria della simulazione, i cui promotori sono i filosofi
Alvin Goldman e Robert Gordon. Essi considerano, a partire da questa teoria, che l’animale umano
coglie il comportamento e gli stati mentali altrui attraverso un meccanismo di replica o emulazione,
«ossia attraverso la loro simulazione».
Quindi, la filosofia non è solo una disciplina storica, ma, come abbiamo visto, contribuisce in modo
attivo e collaborando in molti casi con le teorie cognitiviste circa l’attività della mente.
Lo sviluppo dei processi cognitivi emerge fin dalla nascita del bambino umano. Quest’ultimo,infatti, è
l’unico mammifero ad essere completamente dipendente, circa la sua sopravvivenza, dalle cure
materne, in quanto, i suoi sistemi cognitivi non sono ancora del tutto sviluppati. Il piccolo alla nascita
non riesce a mettere a fuoco oggetti che distano più di 20 cm dai suoi occhi e a controllare i
movimenti del corpo. Tuttavia, col passare degli anni, sviluppa le capacità cognitive e tale progresso
ontogenetico è per gli scienziati la prova per comprendere e indagare il funzionamento della mente
umana.
Non possiamo non citare l’iniziatore dello sviluppo mentale Charles Darwin che, oltre al capolavoro
L’origine della specie, annotò nei suoi diari tutte le vicende di crescita che riguardavano i suoi figli a
partire dalle origini filogenetiche. Per il padre dell’evoluzionismo, il processo filogenetico dipendeva da
quello ontogenetico. (L'ontogenesi è l'insieme dei processi mediante i quali si compie lo sviluppo
biologico di un organismo vivente dalla cellula ovarica fecondata (zigote) all'embrione fino all'individuo
completo). Tale pratica darwiniana ha permesso il miglioramento delle procedure e pratiche
pedagogiste, mettendo in evidenza i processi di acquisizione delle abilità dei bambini. Ovviamente
l’osservazione dei bambini, non solo nelle scuole, ma in tutto il contesto sociale, è di notevole

3
importanza per comprendere l’attività mentale. Inoltre, ci sono diverse spiegazioni dello sviluppo
cognitivo, come per esempio, spiegazioni a livello psicologico, che indicano i limiti della capacità
individuali, linguistiche di memoria ecc. o a livello biologico che indicano i processi fisiologici delle aree
cerebrali.

Teorie dei processi cognitivi


Lo sviluppo delle teorie sui processi cognitivi ha inizio con Wundt che, a Lipsia, nel 1879, fonda il primo
laboratorio di psicologia sperimentale. Wundt cerca di capire come gli stimoli provenienti
dall’ambiente vengono trasmessi al cervello e diventano percezioni complesse. Inoltre, l’oggetto di
studio di tale autore sono le percezioni, il ruolo attivo e cosciente della mente, l’antropologia, la
psicologia animale ma, soprattutto, l’esperienza immediata di ogni individuo che gli si presenta in
modo fenomenico e diretto. Quindi la sua ricerca consiste nel domandare ai soggetti di esprimere le
sensazioni che provano di fronte ad uno stimolo misurabile e controllabile: questo è il metodo
dell’introspezione di Wundt; si riferisce all’esperienza pura e diretta.
Un altro autore di grande rilievo è Ebbinghaus, studioso sistematico dell’apprendimento e della
memoria attraverso il metodo sperimentale. Utilizzando sé stesso come soggetto per cinque anni, egli
cercò di studiare, ad esempio, la relazione fra quantità di materiale e tempo di apprendimento o la
relazione tra il passaggio del tempo e l’oblio. I suoi studi sulla memoria sono stati pubblicati nel suo
trattato sulla memoria nel 1885.
Negli stessi anni nasce il funzionalismo negli USA ad opera di W. James, sulla scia della teoria
darwiniana dell’evoluzionismo. Il funzionalismo si basa sul fatto che il comportamento degli esseri
umani è un processo di adattamento dell’organismo all’ambiente. Oltre ad essere un grande scrittore,
psicologo e anticonformista, James fonda ad Harvard un laboratorio di psicologia dove sviluppa sul
fronte metodologico il metodo comparativo che intende confrontare i processi psichici dell’adulto con
quelli dei bambini, dei malati e degli animali.
Pochi anni dopo, si assiste alla nascita del comportamentismo grazie a Watson. Il suo approccio alla
psicologia riguarda fondamentalmente lo studio del comportamento. Watson pone l’accento sul fatto
che l’oggetto di studio della psicologia deve essere osservato da tutti gli studiosi. Il
comportamentismo descrive gli obiettivi in termini stimolo-risposta escludendo a priori dal campo di
studio i diversi fattori che non possono essere quantificati e osservabili. Alla base della teoria
comportamentista sta, innanzitutto, la convinzione che il comportamento umano è ampiamente
condizionato dall’ambiente.
L’antecedente più immediato va visto in Pavlov, psicologo russo che, conducendo studi su dei cani,
capisce di poter condizionare gli animali e far emettere la risposta della salivazione non solo alla vista
dello stimolo (cibo) ma anche dopo uno stimolo completamente nuovo (detto stimolo condizionato,
mentre il cibo costituisce lo stimolo incondizionato), ad esempio un suono. Ciò veniva ottenuto
presentando al cane affamato il cibo subito dopo aver prodotto un certo suono e successivamente
presentando solo il suono. Si creava così un riflesso condizionato.
Un ulteriore contribuito che si attribuisce a Pavlov è quello di aver scoperto due processi nervosi, cioè
l’eccitamento e l’inibizione, utili per il funzionamento del sistema cerebrale. Dai processi di eccitazione
e inibitori, dipendono quattro tipi di sistemi nervosi genotipici che sono: sanguigni, collerici,
melanconici e flemmatici.
Altre due scoperte di Pavlov sono le nevrosi sperimentali che scaturiscono da un conflitto tra forze di
inibizione ed eccitazione, collocate in punti adiacenti sulla corteccia cerebrale e utili per conoscere il
4
comportamento umano, e il riflesso di orientamento, che indica la tendenza ad orientarsi verso nuovi
stimoli indipendentemente dal suo significato. Ma è anche vero che il riflesso di orientamento
scompare quando i riflessi condizionati, in parte regolati dal tipo di sistema nervoso, diventano più
forti.
Mentre gli studi comportamentisti di Pavlov riguardano il modello stimolo – risposta, lontano
dall’includere il ruolo attivo dell’essere vivente nel suo ambiente circostante, Skinner ci mostra come
può avvenire un tipo di apprendimento che abbia risposte nuove: una risposta può attivarsi senza che
ci sia uno stimolo, poiché tale risposta diventa subordinata alla possibilità di una ricompensa. È questo
il famoso condizionamento operante inventato da Skinner. Detto in modo diverso, l’apprendimento è
semplicemente il risultato di un condizionamento mediante rinforzo di una risposta scelta tra le tante.
L’esperimento più famoso del condizionamento è quello del ratto che viene posto nella Skinnerbox o
scatola nella quale preme accidentalmente una leva sporgente all’interno della scatola che, se toccata,
fa sì che arrivi del cibo al ratto. Dopo numerose prove, il ratto “impara” che se preme la leva potrà
sfamarsi. È avvenuto un condizionamento operante (cioè basato sull’operare, agire, modificare
l’ambiente al fine di raggiungere un certo risultato).
Per completare gli studi peculiari del comportamentismo, occorre evidenziare due connotati
principali, il primo riguarda l’utilizzo del metodo sperimentale e il secondo, invece, ha a che fare non
con ciò che avviene nella mente ma bensì nel comportamento che può essere osservabile e, dunque,
possibile di misurazione. Oltre al comportamentismo –dove lo sviluppo dipende dal processo di
apprendimento–, circa le prospettive teoriche sullo sviluppo cognitivo, dobbiamo ricordarci anche del
cosiddetto maturazionismo, del costruttitivismo, della psicologia della Gestalt e della psicoanalisi.
Il sostenitore più importante del maturazionismo è Arnold Gesell che considera, l’aspetto biologico-
genetico predeterminato, la base dello sviluppo cognitivo. Tant’è vero che il maturazionismo è
quell’approccio che regola la nascita di nuove attività e abilità con l’avanzare dell’età dell’individuo, ed
è anche indipendente dall’esercizio e dalla pratica, nonché influenzato dall’ereditarietà. Per quanto
concerne per il costruttivismo, invece, si sviluppa intorno agli anni ’60 grazie alla diffusione delle teorie
di Piaget e poggia la sua riflessione sull’individuo che costruisce la propria conoscenza attraverso
l’interazione che ha con l’ambiente. Da questa prospettiva, il pensiero dell’adulto si differenzia da
quello del bambino in modo qualitativo ed è anche caratterizzato da stadi universali e invarianti. Per la
teoria della Gestalt, termine che vuol dire forma o struttura organizzata, l’esperienza psicologica
dell’individuo si presenta come un qualcosa di unitario e non come qualcosa di distaccato e scomposto
come credevano gli psicologi di Lipsia. Per cui, la Gestalt usa un approccio di tipo fenomenologico,
studiando quindi, i fenomeni come li percepisce il sistema visivo degli individui. «Nel caso del
movimento stroboscopico a cui si riferiva l’articolo di Wertheimer, ad esempio, l’aspetto più rilevante
è costituito dal fatto che l’individuo vede una luce che si sposta da una lampadina ad un’altra e non
due lampadine che si accendono e spengono alternativamente con un intervallo di circa 60
millisecondi». Come sostiene Renzo Vianello nell’opera Psicologia dello sviluppo:“I gestaltisti hanno
condotto ricerche relativamente alla percezione, all’intelligenza […], alla memoria […], alla psicologia
genetica e comparata […], alla psicologia dinamica e sociale […]. Secondo gli psicologi della gestalt
l’obiettivo che si ponevano gli studiosi della scuola di Wundt e cioè quello di scoprire gli elementi
costitutivi dell’esperienza psicologica è non solo irraggiungibile, ma del tutto errato. L’esperienza
psicologica si presenta all’individuo come un tutto unico, una totalità che non può essere scomposta
in parti. […] La psicologia della Gestalt riprende una concezione già formulata a suo tempo da Kant
(1724-1804) e cioè che la mente umana non è una “tabula rasa” quando conosce, ma struttura
attivamente la realtà conosciuta secondo certe leggi sue tipiche. La convinzione che la conoscenza […]
sia dovuta ad un’opera attiva, costruttrice della mente, è alla base anche di altre teorie […] tra i quali
5
la teoria di Piaget e posizioni cognitiviste. Famosa è la frase “il tutto è più della somma delle parti” […]
cioè […] le proprietà del tutto non sono il risultato della somma delle proprietà delle sue parti e che le
singole parti assumono un significato diverso a seconda del contesto, il tutto, in cui sono inserite.”
Un altro influsso di notevole importanza per quanto riguardano le teorie dello sviluppo dei processi
cognitivi, è sicuramente quello svolto dall’attività psicoanalitica. Nei primi anni del 1900 le diverse
scuole psichiatriche cercano di studiare i problemi mentali delle persone a partire dalle lesioni
cerebrali ma, Sigmund Freud, padre della psicoanalisi, si distacca dal metodo psichiatrico. Infatti, le
teorie di Freud sostengono: l’organismo come «simbolico e determinato dalla sua storia personale; il
cambiamento è l’esito dei conflitti interni; lo sviluppo è un cambiamento qualitativo e procede
secondo stadi; il metodo ottimale è l’osservazione col minimo di controllo e l’osservazione della
relazione osservatore-osservato». Detto in modo diverso, le teorie freudiane partono dalla tesi
che nella psicoanalisi il corpo dipende dalla parola e la psiche umana dal linguaggio.

CENNI STORICI
NASCITA DELLA PSICOLOGIA
La psicologia nasce ufficialmente nell’800 ma, ovviamente, non si può non fare riferimento a temi già
studiati in epoca più antica.
La concezione di Platone riporta il concetto di psiche diviso in 3 parti di Freud:
Il cocchiere di un carro, pienamente cosciente, che cercava di guidare le altre due parti, una
dipendente dai valori etici e razionali (cavallo bianco) e l’altra dagli impulsi (il cavallo nero). E’ il mito
del carro e dell’auriga, in cui possiamo trovare una somiglianza con quella che nei primi anni del ‘900
Freud fa tra IO, ES e Super Io.

Ricordiamo anche Ippocrate e Galeno che cercarono di trovare delle relazioni tra fenomeni fisici
dell’organismo e fenomeni psichici dell’individuo che, seppur scientificamente infondate, hanno
gettato le basi concettuali per lo sviluppo della psicofisiologia,

Si tratta di uno stretto legame tra la filosofia atomista greca e la teoria strutturalista di Wundt e
Tichner: psicologia come scienza naturale.

RIF.TO STUDIOSI RIFERIMENTI STORICI


1 Wundt ( 1879) 1° laboratorio di psicologia a Lipsia
2 Titchener Strtutturalismo arriva in USA
3 James e Dewey Funzionalismo
4 Watson (1913) Compostamentismo

Rif.to 1: In questo laboratorio si studiò come gli stimoli dell’ambiente esterno venissero trasmessi al
cervello e divenissero percezioni complesse. L’oggetto di studio per Wundt è l’esperienza immediata e
non l’esperienza mediata dalla fisica e dalle altre scienze naturali, cioè così come si presenta alla
coscienza del soggetto. L’esperienza viene studiata in modo diretto e fenomenico. La sua idea
innovativa era che la psicologia si potesse considerare una vera e propria scienza, un dominio di
conoscenze che applica un metodo di indagine chiaro e codificato, come è il metodo scientifico. Si
inizio, quindi, a studiare il modo in cui l’ambiente esterno, una volta tradotti in impulsi nervosi
trasmessi al cervello, divenissero sensazioni elementari e successivamente percezioni complesse. Per
interagire con il mondo esterno l’uomo deve attuare dei processi mentali.

6
Lo strutturalismo
Benché l’uomo si interessi di psicologia da alcuni secoli, il suo riconoscimento come scienza coincide
con la fondazione del primo laboratorio di psicologia sperimentale ad opera di Wundt a Lipsia nel 1879.
Aveva raccolto un gruppo di ricercatori che studiavano principalmente la fisiologia degli organi di
senso e l’organizzazione del sistema nervoso. L’idea innovativa è che la psicologia può essere
considerata una vera e propria scienza: dominio di conoscenze che applica un metodo d’indagine
chiaro e codificato (metodo scientifico). Si iniziò a studiare il modo in cui gli stimoli dell’ambiente
esterno (visivi, acustici…) una volta tradotti in impulsi nervosi e, attraverso le vie sensoriali, trasmessi
al cervello divenissero sensazioni elementari e infine percezioni complesse. Per interagire con il
mondo esterno l’uomo deve attuare dei processi mentali.
Gli studiosi che collaboravano con Wundt erano convinti che le percezioni complesse, attraverso le
quali ci formiamo una rappresentazione del mondo, fossero un’elaborazione delle sensazioni
elementari frutto dell’esperienza immediata. Occorreva partire a studiare le sensazioni elementari, che
sono uguali per tutti. Il metodo utilizzato fu quello dell’introspezione cioè guardare all’interno della
propria mente. Consiste nel cogliere e riportare i processi mentali che hanno luogo durante la
presentazione di uno stimolo esterno. La raccolta dati avviene con il resoconto verbale. Era necessario
un addestramento che permettesse di riportare le sensazioni elementari conseguenti all’esperienza
immediata e non le percezioni complesse frutto dell’esperienza passata e dell’elaborazione di queste
sensazioni. Chi è addestrato è in grado di riconoscere le proprie sensazioni elementari immediate dal
significato e dalla funzione dell’oggetto a cui si riferiscono. Questo metodo doveva portare a
scomporre i processi psichici fino a raggiungere la loro parte più piccola e non ulteriormente
scomponibile, i cosiddetti “atomi psichici”. Tichener, definì questo approccio come strutturalista
perché aveva come oggetto di studio la struttura della mente.
Lo strutturalismo e il metodo dell’introspezione non erano destinati a durare a lungo, soprattutto a
casa del presupposto stesso su cui si basava il metodo della raccolta dei dati e cioè il resoconto
verbale delle proprie sensazioni.
1) Un resoconto verbale non potrà mai studiare la mente di bambini, malati mentali e animali
2) Non include l’attività inconscia che in parte è responsabile del comportamento umano
3) L’esperienza della sensazione elementare che una stimolazione sensoriale suscita è del tutto
personale. Lo strutturalismo così dovette lasciare il posto al funzionalismo.

Il funzionalismo
Nacque negli Stati Uniti ad opera di William James e John Dewey che sostenevano che il
comportamento umano deve essere considerato un processo di adattamento dell’organismo
all’ambiente, sulla scia della teoria evoluzionistica di Darwin. I processi mentali verrebbero messi in
atto per aiutare l’organismo a sopravvivere.
La psicologia diviene così una scienza biologica in quanto i processi mentali sono espressi dallo stesso
organismo che mette in atto gli altri processi biologici. Come gli arti (…) si sono evoluti adattandosi alla
mente allo stesso modo vale per la mente e i suoi processi mentali.
I funzionalisti si occupano anche di motivazione, pensiero e apprendimento sempre secondo
l’approccio evoluzionista.

7
Il comportamentismo
Nasce nel 1913 con la “rivoluzione comportamentista”, John Watson afferma che la psicologia deve
concentrarsi su un oggetto di studio determinato che possa essere osservato in maniera
intersoggettiva da tutti gli studiosi interessati. Tale oggetto di studio è il comportamento inteso come
l’insieme delle risposte muscolari e ghiandolari di un individuo ad un determinato stimolo. Scuola
dominante fino a metà degli anni ’60.
La mente viene vista come una scatola nera (black box) all’interno della quale non sappiamo e non
possiamo osservare cosa accade. La psicologia deve occuparsi solo di ciò che è manifesto e si può
misurare; quindi, l’unico oggetto di studio deve essere il comportamento manifesto.
Deve occuparsi solo delle leggi che determinano il comportamento e degli stimoli che provocano
risposte osservabili. L’organismo viene visto come una stazione intermedia tra gli stimoli in entrata e le
risposte in uscita. Viene anche definito “psicologia stimolo-risposta”.
Ma limitare l’oggetto di studio al comportamento osservabile e misurabile si dimostrò un approccio
sterile.
Si arrivò dunque ad un altro movimento.

Il neocomportamentismo
Il neocomportamentismo ammette l’esistenza di componenti psicologiche non manifeste che agiscono
e possono influenzare e modificare il comportamento. Toleman e Hebb avevano cominciato ad
elaborare concetti quali il “comportamento intenzionale” e “processi medianti” nell’integrazione e
organizzazione del comportamento Si ammette la presenza e l’azione di qualcosa tra stimolo e
risposta e da psicologia
Dal paradigma S -> R (stimolo risposta) si passa a S->O->R, dove O sta a indicare una qualche attività
non osservabile messa in atto dall’organismo.
Sarà il movimento che apre la strada al cognitivismo.

La psicologia della Gestalt


Parallelamente al comportamentismo americano nasce in Europa la psicologia della Gestalt, che
significa “forma organizzata”o “configurazione”. Si forma come reazione all’approccio atomistico dello
strutturalismo. La sua data di nascita è nel 1912 quando Wertheimer pubblica il suo esperimento sul
movimento stroboscopico (o movimento apparente). È alla base della cinematografia Il movimento
stroboscopico è un movimento fenomenico apparente indotto da stimoli statici presentati in
sequenza. La nostra percezione del mondo esterno non è una realtà oggettiva ma ciò che crediamo
essere il mondo esterno. Ciò che conta è la totalità di un fenomeno e non le singole parti che lo
compongono. L’ “intero” è qualcosa di diverso dalla semplice somma delle parti che lo compongono,
quindi una percezione complessa non è la somma delle singole sensazioni elementari, il tutto precede
le parti e le parti a loro volta assumono un valore diverso a seconda del “tutto” che vanno a formare.
Utilizzano il metodo fenomenologico che consiste in un’ osservazione del tipo bottom up dei fenomeni
e assume ciò che percepiamo sia soltanto ciò che appare durante l’osservazione.
Non riconoscono alcuna importanza all’esperienza passata.
Ci si basa solo su quello che è presente al momento.
Quando una figura è composta in un certo modo, la nostra mente la completa. Ci sono degli induttori.
8
Gli studiosi principali della psicologia della Gestalt sono, oltre a Wertheimer, Koffka e Kohler, che
hanno studiato anche quello che è stato definito apprendimento per insight.

Il cognitivismo
Trova strada da comportamentismo/neo-comportamentismo ormai una presenza innegabile per
l’elaborazione delle informazioni e per la presa di decisione finalizzata alla risposta. Vede l’uomo come
un elaboratore attivo di informazioni, però, a capacità limitata. Neisser viene considerato in fondatore
quando nel 1967 pubblica il libro La psicologia cognitiva: “tutto quello che sappiamo della realtà è
stato mediato non solo dagli organi di senso ma da sistemi complessi che interpretano continuamente
l’informazione fornita dai sensi. Questi sistemi complessi, i processi cognitivi, non possono essere visti
dallo sperimentatore ma la loro funzione può essere comunque inferita. L’esperienza passata conta
molto. Codifica, interpretazione, memorizzazione degli stimoli non avvengono solo su ciò che si vede
ma anche confrontando con l’esperienza passata. Con il paradigma dei tempi di reazione, metteranno
a punto un metodo per misurare la durata e la complessità dei processi cognitivi messi in atto tra il
momento della presentazione dello stimolo e il momento dell’emissione della risposta motoria. Il
tempo di reazione è il tempo che intercorre tra presentazione dello stimolo e emissione risposte (inizio
esecuzione delle risposte). Indica i processi cognitivi messi in atto. Si distingue dal tempo di
movimento che include il compimento dell’azione.
Se il tempo impiegato per la reazione a uno stimolo è breve, implica che i processi cognitivi sono
semplici e poco numerosi.
Se il tempo di reazione è lungo implica che i processi cognitivi necessari sono numerosi e complessi.

Classificazione dei processi cognitivi


A differenza degli altri tipi di psicologia che abbiamo trattato, come per esempio la psicoanalisi o la
corrente comportamentista, la psicologia cognitiva non ha un fondatore perché non è una scuola,
bensì una critica al comportamentismo. La critica prende le mosse dal fatto che la mente non può
essere spiegata dallo stimolo – risposta perché è qualcosa di riduzionistico circa la complessità della
mente. A tal proposito, è Ulric Neisser che ha focalizzato per primo lo studio della psicologia cognitiva,
in modo sistematico nell’opera “Psicologia Cognitiva” pubblicato nel 1967. Nell’opera di Neisser, la
classificazione riguarda: la percezione, il linguaggio, il problem solving, la memoria, l’attenzione e il
ragionamento. Tuttavia, col passare del tempo, altri studi si sono accostati al pensiero di Neisser,
aggiungendo altri processi cognitivi, come le emozioni, la categorizzazione, l’intelligenza, il Decision
making e il social cognition. Quindi, l’oggetto di studio della psicologia cognitiva, si sposta dal
comportamento osservabile ai diversi procedimenti cerebrali, strutture e meccanismi mentali,
diventati una fonte innegabile di elaborazione delle informazioni. Tuttavia, l’uomo non solo è visto
come un elaboratore di informazioni che può decidere di attuare risposte analogamente agli stimoli
ricevuti, ma è anche visto come un elaboratore di informazioni a capacità limitata. Andiamo ora a
trattare un processo cognitivo che ha avuto profondi legami dal punto di vista filosofico e psicologico:
la PERCEZIONE.
I filosofi sono stati i primi a trattare la percezione, considerandola come l’esperienza di avere
consapevolezza riguardo qualcosa, mentre per gli psicologi, è solo l’elaborazione di dati sensoriali. La
percezione è un processo psicologico automatico che favorisce l’organizzazione coerente e la sintesi
delle nostre sensazioni dando senso ai dati raccolti dalla realtà. Quindi è un processo diretto che coglie
la complessità del mondo che ci circonda. Per Wertheimer percezione visiva, -che oltre ad essere
9
sensibile alla luce riflessa da un oggetto (energia elettromagnetica) li trasforma in impulsi elettrici-,
significa «percepire oggetti nell’accezione fenomenica prima descritta e non variazioni di chiarezza o
di colore distribuite nello spazio». Le parole che usa Wertheimer sono: “Sto alla finestra e vedo una
casa, alberi, il cielo. Teoricamente potrei dire che ci sono 327 variazioni di chiarezza e di colore.
Percepisco realmente le “327” variazioni? No. Quello che vedo è il cielo, la casa e gli alberi. È
impossibile ottenere quel “327” in quanto tale.”
Per quanto riguarda l’organizzazione visiva, dopo una serie di esperimenti fenomenologici,
Wertheimer scopre: vicinanza, chiusura, buona continuità, somiglianza, convessità, simmetria, destino
comune, articolazione senza resti, pregnanza, esperienza passata e parallelismo. Dunque,
l’organizzazione visiva, dipende anche dalla teoria di Rubin che ha scoperto i fattori peculiari che
determinano cosa appare come sfondo e cosa appare come figura. Tali fattori sono: «inclusione,
grandezza relativa, orientamento, contrasto, simmetria, convessità e parallelismo». Sempre secondo
Rubin, non esiste sfondo senza figura e viceversa. La figura di RUBIN, (1921) è formata da aree nere e
bianche omogenee, contigue e poste sullo stesso piano. Tipicamente, si nota un vaso nero su uno
sfondo bianco. Tuttavia, quando gli indizi che sono presenti nella scena sono ambigui, incontriamo
molte difficoltà ad attribuire il significato sia alla figura che allo sfondo. Tale fenomeno viene
denominato figura reversibile, in quanto si ha un’inversione tra la figura e lo sfondo. Invece, quando
l’immagine non ha una condizione privilegiata sia per la figura che sfondo, si ha una situazione di
instabilità e reversibilità tra la figura e lo sfondo. Anche le figura bistabili hanno un ruolo importante
circa la percezione, infatti molte figure bistabili dipendono dall’impostazione soggettiva
dell’osservatore, che determina sulla base di uno spostamento dell’attenzione la secrezione figura-
sfondo.
È molto importante la distinzione tra percezione e sensazione. La sensazione riguarda tutti gli effetti
del contatto dei nostri recettori sensoriali con i segnali che provengono dall’esterno, mentre per
percezione intendiamo l’organizzazione dei dati sensoriali, vale a dire il prodotto finale di un processo
di elaborazione degli stimoli sensoriali nati dall’organismo. Questa distinzione viene considerata anche
dalla Camaoni e dalla Di Blasio nel seguente modo: “Quando parliamo di sensazione, ci riferiamo
all’effetto soggettivo e immediato provocato dagli stimoli sui diversi apparati dell’organismo deputati
a recepire gli stimoli olfattivi, gustativi, uditivi, visivi, ecc. Intendiamo, cioè, un processo attraverso cui
le informazioni dell’ambiente vengono recepite dai recettori sensoriali e trasmessi al cervello. Tra lo
stimolo fisico e la sensazione che consente di mettere in contatto la realtà esterna con quella interna
vi è una relazione sistematica. La percezione, invece, è un processo attivo e dinamico di elaborazione
degli stimoli sensoriali che procede attraverso l’analisi, la selezione, il coordinamento e la elaborazione
delle informazioni.”
Non meno importante sono i cenni storici della percezione che iniziano nel 1900 con lo strutturalismo.
Per lo strutturalismo (Wundt, Fechner, Ebbinghaus) la percezione è spiegata come la somma o
registrazione delle sensazioni elementari. Per la Gestalt, invece, il percepire è inteso come un aspetto
olistico che considera la scena a partire dall’insieme delle parti, infatti, come abbiamo già accennato
poc’anzi, la Gestalt considera che il tutto è più della somma delle singole parti. Nella teoria formulata
della Gestalt il nostro sistema nervosi, risponde in modo innato, a stimoli provenienti dall’ambiente
esterno. Tali meccanismi innati, definiti principi dell’organizzazione percettiva sono:
1) Vicinanza, cioè quando tendiamo a vedere gli elementi di uno stimolo visivo tra loro vicini come
parti dello stesso oggetto.
2) Somiglianza, quando tendiamo a unificare in uno stesso oggetto gli elementi che hanno qualche
tipo di somiglianza.
10
3) Movimento comune, quando le parti del campo visivo si muovono nella stessa direzione e alla
stessa velocità, li vediamo come parti di uno stesso oggetto.
4) Continuità, quando diverse linee si intersecano, tendiamo ad unire i diversi segmenti per formare
linee continue e conla minima differenza di variazione.
5) Chiusura, in tal caso viene vissuta come un’unità percettiva una zona chiusa piuttosto che aperta.
6) Simmetria, il sistema percettivo produce percezioni il più possibile equilibrate, armoniche e
simmetriche.
7) Esperienza passata, è un fattore empirico proposta da Wertheimer, in cui la familiarità di oggetti di
cui abbiamo avuto esperienza influisce sulla segmentazione del campo visivo. Quando trattiamo la
percezione, non possiamo non trattare, la psicofisica, disciplina che studia la percezione dello stimolo
esterno e la sensazione che provoca. Essa si sviluppa grazie alle ricerche di Weber nel 1834. «La legge
di Weber, […] stabilisce che il valore della soglia differenziale, ovverosia la minima differenza tra due
stimoli che può essere colta, cresce linearmente al crescere dell’intensità dello stimolo o, in maniera
equivalente, che il rapporto tra la soglia differenziale […] e l’intensità dello stimolo standard è pari ad
una costante». Invece, per quanto concerne l’elaborazione dell’informazione del sistema visivo, dal
punto di vista neuronale, si parte dall’input ambientale (stimolo distale) dove l’occhio raccoglie
l’informazione dall’ambiente. L’informazione – luce, arriva all’occhio e da esso si forma un’immagine
sulla retina (trasduzione dell’energia luminosa) dove, elementi fotosensibili, convertono la luce in
impulsi grazie ai fotorecettori detti coni e ai bastoncelli. I coni e i bastoncelli sono importanti sia per la
visione diurna e notturna e sia perché inviano ai neuroni retinici gli impulsi elettrici. Successivamente,
generati gli impulsi elettrici nei recettori, tali impulsi viaggiano attraverso le fibre nervose, dopodiché
raggiungono il cervello (corteccia visiva posta nel lobo occipitale) e, in quest’ultimo, vengono elaborati
così da poterci far vedere l’oggetto. Tuttavia, per quanto riguarda il chiasma ottico, la metà destra del
campo visivo si proietta sulla metà sinistra di ogni retina. Infine, per quanto riguarda la struttura
dell’occhio e della corteccia occipitale, possiamo dire che il primo è formato dalla sclera che è la parte
bianca e protettiva dell’occhio, dalla cornea che consente il passaggio della luce all’interno dell’occhio,
dall’iride che definisce il colore degli occhi e «si apre e si chiude ad anello creando la pupilla, un foro al
centro dell’iride. […] Posteriormente all’iride è presente il cristallino, che è una lente biconvessa
formata da proteine trasparenti […] ed è fondamentale per mettere a fuoco […] la luce sulla retina».
All’interno della retina abbiamo la fovea, «è ciò che il sistema motorio oculare muove costantemente
[…] fino alla velocità di 900 gradi al secondo per analizzare i dettagli della realtà». La corteccia
occipitale, invece, è formata da aree visivi. L’area V1 «definisce il numero di neuroni responsabili
dell’elaborazione di uno stimolo di una data grandezza in funzione della posizione nel campo visivo».
L’area V2 è connessa con l’area V1, V2, V4 E V5; l’area V3 svolge il ruolo del movimento globale e
coerente; l’area V4 riceve informazioni dai blob che sono formazioni scure cilindriche che si succedono
e l’area V5, conosciuta come area visiva MT, riceve informazioni dall’area V2 e V3. Tuttavia, nella
corteccia visiva, troviamo la via dorsale e quella ventrale. La dorsale è utile per l’elaborazione dei
movimenti, mentre la via ventrale è importante per il riconoscimento degli oggetti.
All’interno del processo di percezione rientra la CATEGORIZZAZIONE: processo cognitivo cui assegna
un oggetto ad una determinata categoria; richiede processi cognitivi elevati come, per esempio, ciò
che sappiamo di un oggetto o le varie impressioni che abbiamo di esso. Detto in modo diverso è
l’identificazione delle cose, cioè dare il nome agli aggetti. Come sostiene Jerome S. Bruner la
categorizzazione ci permette di raggruppare gli oggetti o gli eventi in classi, per evitare così,
l’accumulo delle varie informazioni mentali. Infatti, nell’opera di Bruner, Austin e Goodnow, “A study
of thinking” del 1956, ogni evento che viene percepito, viene visto come il rappresentante di una
11
categoria e dunque, come esemplare di un concetto. Sempre nell’opera si evince che molti concetti
possono essere costituiti da una coniugazione di attributi. Tuttavia, la categorizzazione ha a che fare
con l’apprendimento di regole complesse e cioè che il processo di acquisizione del linguaggio non
avviene attraverso l’educazione delle regole grammaticali, bensì, i bambini sono in grado di imparare
la lingua e le sue strutture grammaticali semplicemente ascoltando e, quindi, senza lo studio delle
relative strutture. Un altro autore importante di tale processo cognitivo è Eleanor Rosch che ha
studiato non solo la strutturazione dei colori, ma anche la natura dei concetti. Per Ludwig
Wittgenstein, invece, gli attributi di una categoria formano una complicata rete di caratteristiche che
si sovrappongono le une alle altre. Tale aspetto fa riferimento alla nozione di famiglia tra membri di un
concetto.
Analogo alla categorizzazione vi è uno dei principali processi cognitivi: il LINGUAGGIO. Il linguaggio è la
capacità di utilizzare un codice, per esprimere i propri pensieri e comprenderli, per comunicare e
rappresentare il mondo. Il linguaggio è un sistema arbitrario in cui è possibile ottenere un numero di
parole infinito, in quanto riorganizza elementi discreti in combinazioni particolari. L’arbitrarietà si
riferisce al dare significato alle parole, mentre la combinazione, all’infinito significato che può essere
previsto dai significati delle sue parti. Tuttavia, ogni società umana ha una lingua e l’aspetto analogo di
ogni società è che usano delle entità simboliche combinate tra loro per formare delle frasi. Le
componenti del linguaggio sono:
1) La fonetica: classifica e analizza i suoni;
2) la fonologia: studia i suoni delle lingue e le regole di come si combinano tra di loro;
3) morfologia: studia come le parole cambiano forma per esprimere situazioni contingenti;
4) semantica: è il contenuto delle parole, studia cioè, le parole, i discorsi e le frasi;
5) pragmatica: l’uso che si fa delle parole;
6) sintassi: sono le regole di combinazione delle parole che servono per formulare le frasi;
7) lessico: insieme delle parole di una lingua;
8) metacomponenti: le conoscenze o abilità che si ha nell’usare una lingua.
I diversi modelli del dibattito teorico sul linguaggio si sono contrapposte in differenti teorie. In
particolare, come abbiamo già avuto modo di vedere nei paragrafi precedenti, anche in questo ambito
si sono scontrati innatisti ed empiristi. Le teorie empiriste, tra cui quelle di Skinner, dicono che il
linguaggio si sviluppa a partire dagli stimoli ambientali che il bambino riceve fin dalla sua prima
infanzia. Quindi lo sviluppo dipende dall’associazione stimolo – risposta rinforzate nel tempo. Le teorie
innatiste, invece, troviamo come massimo esponente Noam Chomsky che «ipotizza l’esistenza di un
dispositivo innato per l’acquisizione del linguaggio (LAD, Language Acquisition Device). Si tratta di un
programma biologico per imparare a parlare che corrisponde ad una grammatica universale […] la
quale contiene la descrizione degli aspetti strutturali condivisi da tutte le lingue naturali». Secondo
Chomsky, il linguaggio non solo ha in comune elementi universali, ma è formato anche da regole di un
numero limitato che forma le combinazioni possibili delle parole. Tuttavia, il bambino, sempre
secondo l’autore delle teorie innatiste, non comprende il linguaggio per imitazione, bensì attraverso
un aspetto creativo che ha nell’usare le regole del linguaggio, infatti tale aspetto attivo e creativo pone
il linguaggio in una dimensione di indipendenza dall’intelligenza e dalle varie capacità comunicative.
Quindi il bambino possiede le regole in modo innato e le usa e svilupparle in modo creativo grazie
all’ambiente che attiva il processo di sviluppo linguistico. Oltre alle teorie innatiste ed empiriste
esistono altre teorie, tra cui: Le teorie intermedie proposte da Bruner che ipotizza un LASS (sistema di
supporto per l’acquisizione del linguaggio) che fa acquisire il linguaggio grazie all’aiuto di un adulto.
12
Le teorie sulla elaborazione del linguaggio, riguardano studi che si riferiscono al fatto che chi ascolta
discrimina meglio i suoni appartenenti a categorie diverse piuttosto che a suoni che appartengono alla
stessa categoria. E le teorie sulla produzione del linguaggio che si rifanno al principio della
cooperazione di Paul Grice. Quest’ultimo parte dal principio che chi parla è intenzionato ad informare
l’ascoltatore e chi ascolta inferisce ciò che il parlante vuole dire. Tuttavia i suoi principi sono il principio
della quantità: chi parla è informato; principio della qualità: chi parla dice il vero; principio della
relazione: chi parla dice cose pertinenti alla conversazione e il principio della maniera: chi parla cerca
di essere il più chiaro possibile. Continuando nel quadro teorico non possiamo non trattare Garret, il
quale considera il linguaggio una componente pianificatoria. Tale costrutto si articola a più livelli:
1) livello del messaggio: occorre aver chiaro il significato generale del discorso;
2) livello funzionale: occorre pianificare l’articolazione del contenuto, come per esempio, la posizione
dei verbi e dei nomi;
3) livello posizionale: il messaggio deve essere espresso selezionando le parole più idonee e;
4) livello articolatorio/fonetico: produce i suoni linguistici più adeguati.
Per quanto riguarda i correlati neuronali del linguaggio, le prime ricerche sono state avviate dal
chirurgo francese Paul Broca. Broca ha scoperto nel 1961che la lesione nella zona posteriore della
terza circonvoluzione frontale dell’emisfero cerebrale sinistro, causa disturbi della pronuncia delle
parole, ma non della loro comprensione. C. Wernicke, invece, qualche anno più tardi, precisamente
nel 1874 ha scoperto che il disturbo della comprensione del linguaggio dipende dalla lesione
localizzata nella prima circonvoluzione temporale sinistra (parte posteriore del lobo temporale).
Tuttavia, per Wernike le funzioni più complesse della mente si sviluppano grazie alle interazioni delle
diverse aree cerebrali deputate alle aree motorie semplici e percettive. Ma non solo. Ha attribuito la
scelta delle parole all’area del lobo temporale che ha scoperto. Sempre dal punto di vista neurologico,
le cause dei deficit e i disturbi della mente li possiamo categorizzare nel modo che segue:
1) primarie: disturbi in assenza di danni cerebrali;
2) secondarie: alterazioni che sono la causa di altri disturbi come per esempio il disturbo mentale o i
danni cerebrali;
3) presenti dalla nascita;
4) acquisite: presenti dopo la nascita per danno cerebrale o trauma.
Infine, la compromissione dei disturbi del linguaggio riguardano diversi livelli:
1) compromissione ed espressione, come il deficit della produzione, comprensione del linguaggio;
2) livelli che riguardano il disturbo sulla forma, uso e contenuto;
3) focale, cioè la compromissione di un solo contenuto e diffuso quando riguarda la compromissione di
più domini.
Inoltre, i disturbi più diffusi del linguaggio sono:
1) Disturbo specifico di linguaggio,
2) disturbo del linguaggio in disturbo autistico,
3) disturbo del linguaggio in ritardo mentale, 4) disturbo del linguaggio in seguito a trauma cerebrale.
L’ATTENZIONE:
I primi studi significativi sull’attenzione si attribuiscono a W. James (1890).
A quante cose è possibile prestare attenzione nello stesso tempo?
13
Qual è la relazione tra attenzione e percezione?
In che modo l’attenzione influenza la memoria?
Che cos’è l’inattenzione?
Relativamente all’attenzione James individua due caratteristiche principali:
1. focalizzazione: processo selettivo mediante il quale decidiamo quale stimolo, tra I tanti,
prendere in considerazione
2. concentrazione: la quantità di sforzo cognitivo richiesto per mantenere l’attenzione focalizzata
sullo stimolo
è un processo cognitivo che si basa sulla concentrazione selettiva di uno stimolo ambientale ignorando
gli altri. Attualmente viene definita come qualcosa di multidimensionale che comprende le
componenti intensive, come l’allerta e l’attenzione sostenuta, quelle selettive, come l’attenzione
selettiva e distribuita e il sistema si supervisione dell’attenzione (SAS). Quest’ultimo controlla e
coordina le operazioni mentali e ne sceglie una quando vanno in conflitto. Le ricerche sull’attenzione
risalgono alla fine del 1800 grazie alle teorie di Wundt, di Franciscus Donders (dovute allo studio della
velocità dei processi mentali), di Hermann von Elmholtz, William James e altri ancora. Prima di
approfondire qualche teoria o modello principale circa l’attenzione, occorre fare una piccola
precisazione su alcuni tipi di attenzione, come ad esempio, sull’attenzione selettiva, divisa, sostenuta e
spaziale. L’attenzione selettiva è semplicemente la focalizzazione ad uno stimolo nonostante c’è ne
siano altri ad interferire. Con attenzione divisa intendiamo, invece, gli aspetti attentivi che tutti noi
abbiamo quando prestiamo impegno a più cose contemporaneamente. Per attenzione sostenuta ci
riferiamo alla capacità di mantenere un livello attentivo nel tempo. Per quanto riguarda invece
l’attenzione spaziale è da notare il grande sforzo di Helmohltz, dimostrando che:
a) gli esseri umani possono spostare l’attenzione nello spazio in maniera indipendente dallo sguardo
b) che la qualità dell’analisi cui va incontro uno stimolo posto in un’area cui si sta prestando
attenzione è superiore rispetto a quella cui può andare incontro uno stimolo che si sta fissando ma cui
non si sta prestando attenzione». Quindi Helmholtz sottolinea l’importanza di un’attenzione che può
spostarsi nello spazio.
Nell’opera i “Princìpi di Psicologia” William James delinea alcuni punti fondamentali circa l’attenzione
e in che modo essa possa influenzare la memoria. Inoltre individua due aspetti dell’attenzione,
ovverosia la focalizzazione, intesa come processo che seleziona lo stimolo che decidiamo di
considerare rispetto ai tanti e la concentrazione, intesa come la quantità di uno sforzo cognitive che
serve per mantenere l’attenzione focalizzata sullo stimolo.
Anche Ulric Nesisser ha fatto presente alcune nozione sull’attenzione, infatti sostiene che possiamo
mantenere l’attenzione in modo automatico e che tale processo automatico si può eseguire senza
prestarvi attenzione.
Anne Treisman, invece, parla di elaborazione preattentiva, nel senso che non solo opera al di fuori
della nostro consapevolezza, ma estrae caratteristiche dell’oggetto come il colore, la profondità e la
forma, prima di prestargli la dovuta attenzione.
L’elaborazione degli stimoli (il cosidetto processamento) non sempre richiede l’impiego di risorse
attentive. Prima di essere in grado di prestare attenzione agli oggetti è necessario estrarre le loro
caratteristiche.
L’elaborazione preattentiva è un processo di estrazione delle caratteristiche, che sembra operare al di
fuori della consapevolezza. I processi preattentivi estraggono le caratteristiche come la forma, il
14
colore, la profondità e il movimento degli eventi del mondo esterno.
L’elaborazione preattentiva delle singole caratteristiche di una configurazione viene anche detta pop
out (effetto che emerge); con questo si intende indicare le caratteristiche di una configurazione che
emergono spontaneamente e si impongono al nostro sistema visivo (immagini in movimento o
immagini che catturano particolarmente la nostra attenzione).
L’elaborazione preattentiva ci permette di individuare le caratteristiche salienti in maniera molto
rapida, mentre l’attenzione focalizzata inteviene per combinare insieme le diverse caratteristiche per
arrivare al riconoscimento dell’oggetto.
Per giungere a percepire un oggetto nella sua interezza, il nostro sistema percettivo dovrà passare
attraverso due distinte fasi:
1) identificazione delle qualità primarie di tutti gli oggetti presenti nel nostro campo percettivo
2) integrazione delle caratteristiche. Quest’ultima implica un’attività mentale seriale, dal
momento che vengono analizzati prima gli elementi che si trovano in una determinata
posizione spaziale, poi quelli in un’altra posizione, fino ad analizzare tutti gli stimoli.
L’attenzione ed elaborazione automatica: secondo Neisser alcuni processi sono in grado di acquisire
informazioni in maniera più o meno automatica.
Il processo automatico è altamente autonomo. E’ possibile, quindi, eseguirlo senza prestarvi
attenzione.
I processi controllati implicano, invece, attività in cui è necessario prestare attenzione affinché
vengano eseguite propriamente.
Almeno nelle fasi iniziali la gran parte dei processi che sottostanno ai nostri comportamenti sono,
all’inizio, controllati, mentre in seguito, con esercizio e pratica, possono diventare automatici e
vengono definiti automatizzati. Se le condizioni ambientali cambiano, e il compito improvvisamente si
complica, l’attività automatizzata deve essere riportata sotto il controllo dell’attenzione sottraendo le
risorse ad altri compiti intrapresi nel frattempo e tornano ad essere controllati.
Durante le fasi iniziali di apprendimento le attività sono rese possibili dall’attivo controllo attentivo e
sono poche le risorse residue che possono essere utilizzate per altri compiti.
Cadute di attenzione (errori attentivi)
Nella più generale classificazione dell’errore umano, proposta da Norman, figurano due diversi tipi di
errore:
1. Quando formuliamo in maniera inadeguata quello che è nostra intenzione realizzare. Gli errori
dovuti alla formulazione erronea delle intenzioni possono essere suddivisi in:
a. Sottoclasse 1: è costituita dagli errori contestuali che si verificano quando eseguiamo
un’azione che sarebbe opportuna in un contesto diverso in cui l’azione viene effetivamente
eseguita
b. Sottoclasse 2: è costituita dagli errori di descrizione, dovuti alla formulazione inadeguata
delle intenzioni, che si verifica quando non abbiamo una comprensione adeguata della
situazione in cui ci troviamo.
2. Quando attiviamo erroneamente uno schema. In questa categoria troviamo i lapsus di cattura,
i quali si verificano quando uno schema familiare cattura il comportamento, sostituendosi ad
uno schema familiare. Questo tipo di errori possono anche avere luogo nel caso di una
mancanza di attivazione dello schema appropriato.
15
3. Quando uno schema appropriato viene eseguito nel momento sbagliato. In questa classe
troviamo anche gli errori di anticipazione.

La percezione subliminale
Per avere consapevolezza di una sensazione bisogna che l’intensità della sensazione raggiunga la
nostra soglia assoluta (che è l’intensità minima che lo stimolo deve avere per essere rilevato da uno
degli organi di senso nel 50% dei casi).
Con percezione subliminale intendiamo una classe di fenomeni in cui uno stimolo è in grado di
influenzare il comportamento, anche se è stato presentato troppo velocemente, oppure ad un livello
di intensità troppo basso, perché il soggetto sia in grado di identificarlo.
La percezione subliminale spesso ha a che fare con la semantica (studio del significato).
Due parole di significato simile sono dette semanticamente collegate.
La percezione subliminale ha rilevanza soprattutto nel settore pubblicitario e riguarda la stimolazione
sensoriale sotto soglia, della quale non si è consapevoli e può, più o meno, condizionare il nostro
comportamento.

Attenzione selettiva
Quando ci troviamo di fronte ad un numero elevato di stimoli, possiamo concentrare la nostra
attenzione su una specifica zona dello spazio dove si trova l’oggetto a cui siamo interessati.
L’attenzione selettiva permette il filtraggio, selezionanso le caratteristiche rilevanti dello stimolo,
ignorando quelle futili.
Il destino delle informazioni rilevanti dipende, in buona misura, dal momento in cui avviene la
selezione, cioè lo stadio in cui la selezione ha luogo.
Possiamo avere una:
a. Selezione precoce: che avviene nei primi stadi
b. Selezione tardiva: la selezione avviene nel livello più centrale.

Attenzione divisa
Capacità di controllare e dividere le risorse attentive tra più compiti, contemporaneamente. Per
eseguire simultaneamente due compiti gli individui dovrebbero alternare rapidamente la loro
attenzione nei loro confonti e prestare attenzine in maniera selettiva soltanto ad uno di essi alla
volta.
Questo punto di vista si contrappone all’ipotesi secondo cui è possibile prestare attenzione
contemporaneamente a più di una cosa per volta.

La MEMORIA. «La memoria implica sempre che sia trascorso del tempo. Di conseguenza gli esseri che
percepiscono il tempo, essi soli ricordano – e con la stessa facoltà con cui avvertono il tempo». Da
questa frase dello stagirita, possiamo comprendere che la memoria è quel sistema cognitivo che serve
a mantenere le informazioni nel tempo. Grazie ad essa conosciamo e possiamo manifestare le abilità
che apprendiamo nel corso dell’esperienza. Per quanto concerne la classificazione secondo i criteri
qualitativi, la memoria è dichiarativa, vale a dire esplicita che ha la facoltà di immagazzinare e
richiamare le informazioni con consapevolezza esprimibili con le parole, come gli episodi
16
autobiografici o episodici, e la memoria non dichiarativa, cioè implicita e quindi non verbalizzata,
come l’andare in bicicletta o suonare il pianoforte. Quest’ultima è legata all’acquisizione di abilità, per
cui comprende abilità senso – motorie e cognitive che si apprendono con la ripetizione e la pratica.
Tuttavia la memoria si divide in memoria a lungo termine e memoria a breve termine. La prima
«conserva nel tempo ciò che deriva dall’esperienza e dai processi di apprendimento: episodi,
conoscenze e abilità». La seconda mantiene le informazioni giusto il tempo che servono, cioè in modo
limitato. Circa la memoria, infine, occorre evidenziare l’oblio e i vari disturbo relativi. L’oblio è il
mancato momentaneo recupero dell’informazione codificata o la perdita definitiva dell’informazione. I
disturbi sono considerati alterazioni qualitative e quantitative. Le qualitative sono la paramnesia che
modifica sia i ricordi che la localizzazione spazio – temporale come la confabulazione o il deja vu.
Quantitative: sono l’ipermnesia, cioè l’aumento di capacità mnestiche come l’ipermnesia permanente
o transitoria; l’ipoamnesia è una riduzione delle facoltà mnesiche dovuta all’invecchiamento cerebrale
o a patologie cerebrali; l’amnesia riduzione delle capacità di ricordare. Continuando con
la classificazione dei processi cognitivi, indubbiamente uno dei più complessi è l’EMOZIONE. Si tratta
un processo cognitivo che comporta cambiamenti fisici all’individuo, come per esempio rossore sulle
guance, la postura del corpo, la direzione dello sguardo, o la sudorazione. Quindi, le componenti
dell’emozione sono relative alle relazioni somatiche e fisiologiche, riguardanti aspetti facciali, vocali e
posturali. Gli aspetti principali delle emozioni sono:
1) Prospettiva-funzionale;
2) prospettiva-somatica,
3) prospettiva-cognitiva.
La prospettiva funzionale ha a che fare con la filogenesi, ovverosia le emozioni sono intese come
meccanicistiche ed evolutive. Detto in modo diverso, le emozioni creano comportamenti a partire da
concezioni possedute dai nostri predecessori. La prospettiva somatica prende avvio dal corpo, vale a
dire che senza di esso non possiamo avere emozioni. Una teoria a riguardo è quella di Williams James.
L’autore «è convinto che tutti gli animali possiedano un repertorio di tendenze reattive scatenate dalla
percezione di certi stimoli, e queste reazioni si siano evolute in quanto adattive». Inoltre, la sequenza
causale, tipica del senso comune – stimolo scatenante (ad esempio, la vista di un predatore →
emozione (paura) → risposta somatica (pulsazioni, sudorazione, tremito) – in base alla quale è
l’emozione a provocare la risposta somatica, viene ribaltata da James: la risposta del corpo seguirebbe
direttamente, la percezione dello stimolo, e l’emozione non sarebbe nient’altro che la percezione di
questi cambiamenti somatici. Quindi, la sequenza corretta sarebbe: stimolo → risposta somatica →
emozione. Di qui, le famose affermazioni di James (1884, p. 190): «non piangiamo perché ci sentiamo
tristi, ma ci sentiamo tristi perché piangiamo, non tremiamo perché abbiamo paura, ma abbiamo
paura perché tremiamo».
La prospettiva cognitiva, invece, ha origini molto antiche. Infatti, gli stoici consideravano le emozioni
come un tipo di valutazione o di giudizio. Tale prospettiva considera il fatto che le emozioni svolgono
un ruolo cognitivo, vale a dire che hanno la consapevolezza di comprendere che nell’emozione della
paura c’è un pericolo o l’offesa nella rabbia. Altre teorie della motivazioni sono quelle dell’appraisal.
Queste non solo danno importanza agli aspetti funzionali, motivazionali ed espressivi delle emozioni,
ma cercano anche di dare una risposta ai problemi irrisolti. Quindi l’appraisal è una «valutazione
cognitiva dell’oggetto percepito, relativa al suo carattere benefico o dannoso per il soggetto
percipiente».
Il PROBLEM SOLVING: È un processo cognitivo che serve a raggiungere una condizione desiderata
attraverso la risoluzione di problemi. Esso esiste quando c’è un ostacolo che impedisce la realizzazione
17
di un obiettivo. Tuttavia, secondo Gaetano Kanizsa, il problema si ha «quando un essere vivente,
motivato a raggiungere una meta, non può farlo in modo automatica o meccanica, cioè mediante
un’attività istintiva o attraverso un comportamento appreso». La metodologia per la risoluzione dei
problemi riguarda l’identificazione del problema, l’obiettivo, inteso come ciò che viene ostacolato da
problemi od ostacoli, la generazione delle soluzioni, la valutazione, scelta e pianificazione. Intendendo
con quest’ultimo l’essere realisti e trovare i mezzi generando idee per risolvere il problema e la messa
in pratica cioè la volontà che si mette in pratica durante la risoluzione del problema.
Del problem solving non possiamo non evidenziare l’aspetto creativo che gioca un ruolo fondamentale
per risolvere il problema. Tale concezione viene definita circolarità del problem solving, cioè
l’abilità di mantenere attivo in canale creativo e di saperlo usare nel momento del bisogno. Anche la
ramificazione di tale processo mentale non è meno importante, infatti serve a spezzettare il problema
in tanti parti più semplici.
Analogo a quest’ultimo troviamo il DECISION MAKING che serve a saper decidere per risolvere i
problemi. È la base dell’autorealizzazione e del successo personale e professionale. Le fasi del
processo decisionale sono otto:
1)Definizione del problema
2)Definizione degli obiettivi
3)Raccolta delle informazione
4) Valutazione delle informazioni
5)Definizione delle alternative possibili
6)Valutazione delle alternative possibili
7)Scelta dell’alternativa
8)Valutazione dei risultati
A tal proposito, molto importanti sono le emozioni che hanno a che fare con i processi decisionali
perché sono alla base delle nostre scelte, facendoci decidere o valutare ogni situazione contingente.
Il decision making, prevede anche l’elaborazione di scelte di tipo razionale ed emotivo. Per quanto
concerne l’aspetto neurobiologico, invece, la scelta di decisione ha luogo nella corteccia frontale,
infatti una lesione nel lobo frontale causa deficit decisionali, disorganizzazione della personalità, apatia
o euforia e difficoltà nella pianificazione. L’autore di riferimento di questo processo cognitivo è
Antonio Damasio il quale ha elaborato l’ipotesi del marcatore somatico che sottolinea il risultato di
una decisione come ciò che attiva lo stato somatico che aiuta l’individuo a decidere su eventi
vantaggiosi. Detto in modo diverso è ciò che ci indica una sensazione a livello corporeo e che ci fa
capire come tramite la sensazione o emozione che proviamo quale decisione prendere tra quelle da
esaminare, proteggendosi così, da situazione svantaggiose. Quindi gli studi di Damasio hanno cercato
di cogliere il significato di come sia possibile vivere una vita felice, proprio come Aristotele ha cercato
di spigarci molti secoli prima, nell’Etica nicomachea, come vivere una vita degna di esser vissuta
attraverso l’acquisizione della sapienza, della virtù e del piacere. Il sistema cognitivo SOCIAL
COGNITION, o cognizione sociale è quell’attività che ci fa conoscere il mondo sociale. Tale processo
cognitivo ha la facoltà di elaborare le informazioni che provengono dall’ambiente. Al fine di
comprendere sé stessi e il mondocircostante. La condizione sociale dipende da due assunti, il primo è
che la realtà è già data e il secondo riguarda la percezione che abbiamo di tale realtà data
oggettivamente. Quindi è un processo interpersonale, riflessivo e intersoggettivo. In quest’ottica
dobbiamo, infine, ricordare considerando gli assunti sopradetti due modelli della cognizione sociale,

18
vale a dire i processi top-down che si basano sull’esistenza di teorie e conoscenze presenti nella
memoria e che elaborano il mondo a partire dal soggetto, e il bottom-up che raccoglie le informazioni
che si percepiscono in ogni situazione dell’esperienza.
Le FUNZIONI ESECUTIVE: Il termine funzioni esecutive (FE) fa riferimento a funzioni corticali
superiori deputate alla pianificazione del comportamento umano. Le caratteristiche di tale processo,
infatti, sono: la pianificazione (organizzare e modificare un piano d’azione), il controllo inibitorio
(prima pensare e poi agire), la flessibilità cognitiva, la fluidità verbale e la memoria di lavoro. Inoltre le
(FE) modificano e monitorano il comportamento adeguandolo in base alle situazioni contestuali.
Tuttavia il compito delle funzioni esecutive è anche quello di analizzare le diverse cause degli
insuccessi che si hanno per pianificare un piano migliore per risolvere tutti i problemi posti in essere.
Continuando con la classificazione dei processi cognitivi, ci occupiamo ora dell’APPRENDIMENTO. È
molto importante dire che l’apprendimento non cammina insieme alla memoria, perché quest’ultima
garantisce che le informazioni vengono conservate, mentre l’apprendimento consente di acquistare
sempre nuove informazioni. Per apprendimento intendiamo tutte quelle modificazioni del
comportamento che si basano sull’esperienza. L’apprendimento quindi è un processo attivo che
dipende da stimoli interni ed esterni. Tuttavia se non c’è partecipazione attiva tra mondo interno ed
esterno e ancora, se non si hanno motivazioni, non ci può essere apprendimento. Per quanto
concerne i modelli dell’apprendimento, già abbiamo visto il comportamentismo, il
maturazionismo e il costruttivisto. Si deve ora analizzare il cognitivismo, tema che tratteremo ora
nell’affrontare l’intelligenza.

Che cos’è l’intelligenza?


Il cognitivismo o psicologia cognitiva nasce intorno al 1967. Essa ha come scopo lo studio dei processi
mentali attraverso i quali le informazioni che vengono acquisite dal sistema cognitivo,
successivamente devo essere elaborate, memorizzate e recuperate. Quindi, nel cognitivismo,
l’apprendimento avviene tramite i processi cerebrali e l’obiettivo è di spiegarci come facciamo tutti noi
a compiere le varie operazioni mentali. Tuttavia, la capacità della mente di progettare molte
informazioni, viene paragonata a quella di un computer che elabora le informazioni con un linguaggio
codificato. Inoltre, cerca anche di comprendere la mente a partire dalle relazioni che gli individui
hanno con l’ambiente esterno, vale a dire attraverso gli aspetti neurofisiologici.
L’aspetto centrale del cognitivismo come anche dei diversi processi cognitivi è l’intelligenza poiché
partecipa attivamente alle elaborazioni degli altri processi cognitivi. Infatti possiamo dire che
l’intelligenza sebbene sia anche singolare ed autonoma è costituita dall’insieme delle capacità
cognitive. Detto altrimenti è la capacità adattiva e funzionale al raggiungimento di uno scopo. Autori,
come Neisser, Wertheimer e Koheler sottolineano che l’intelligenza risistema le percezione o
informazioni problematiche e che quindi il comportamento intelligente non è soltanto di tipo
intuitivo, creativo e sintetico, bensì è anche logico-analitico. Abbiamo l’intelligenza creativa e
logica, la prima è la facoltà di immaginare un’alternativa ai possibili errori, la seconda invece, riguarda
l’aspetto astratto, cioè la capacità di divedere in modo schematico diversi fattori o eventi. Uno degli
autori principali della teoria dell’intelligenza è senza alcun dubbio Piaget. Per Piaget è un adattamento
biologico e costruisce strutture mentali che servono a descrivere l’ambiente. L’animale umano non
apprende in modo innato, ma è un attivo costruttore delle proprie intelligenze e conoscenze. Con tali
affermazioni, Piaget ci vuole dire che non intende accostare il suo pensiero alle teorie innatiste o
ambientaliste, ma propone una teoria organismica, i cui assunti di base sono:
a) lo sviluppo è comprensibile all’interno della storia evoluta delle specie, di cui l’organizzazione
19
biologica e psicologica dell’uomo costituisce l’apice;
b) l’organismo è attivo e si modifica attraverso gli scambi con l’ambiente;
c) lo sviluppo consiste nella trasformazione di strutture che non sono innate, ma si costruiscono grazie
all’attività dell’individuo».
Infatti, se si confrontano l’intelligenza dell’adulto con quella del bambino si riscontrano molte
differenze, tuttavia il funzionamento rimane lo stesso. Le strutture mentali si modificano
continuamente in base all’assimilazione all’accomodamento. Per assimilazione Piaget intende «il
processo che permette l’acquisizione di nuovi dati di esperienza utilizzando schemi o strutture mentali
già possedute e per accomodamento il processo che permette di acquisire nuovi dati di esperienza
solo attraverso la modificazione, in senso adattivo, degli schemi mentali». Ora presentiamo le
peculiarità dello sviluppo dell’intelligenza di Piaget. In particolare dobbiamo distinguere quattro fasi
dello sviluppo:
a) lo stadio sensomotorio,
b) lo stadio preoperatorio,
c) lo stadio operatorio concreto
d) lo stadio operatorio formale
Il primo stadio, cioè sensomotorio, Piaget lo distingue a sua volta in sei fasi evolutive diverse, le prime
tre sono caratterizzate dal miglioramento dei riflessi senza che l’intelligenza sul mondo reale sia
effettivamente sviluppata, e va dagli 8 ai 10 mesi di vita. La quarta fase e la quinta, il bambino ha
l’intenzionalità di utilizzare e coordinare mezzi e fini e quindi presenta un tipo di intelligenza che va
fino ai 18 mesi circa. Infine, nella terza fase, il bambino sviluppa l’utilizzo simbolico guidato dal
pensiero, come per esempio l’imitare i genitori o prendere degli oggetti per indicarne altri. A seguire
abbiamo lo stadio preoperatorio che va dai 2 ai 6 anni. Tale per Piaget è la conquista della
rappresentazione. In bambino infatti inizia ad usare le parole, le azioni e simboli che raffigurano cose
diverse. Anche l’imitazione e il gioco è peculiare in questo stadio, infatti il bambino produce sia i suoni
che i gesti che percepisce da chi gli sta vicino. Per quanto concerne il gioco, invece, comprende che gli
oggetti sono diversi rispetto a sé stesso. Dunque nello stadio preoperatorio il «bambino si rappresenta
mentalmente gli oggetti e comincia a comprendere la loro classificazione in gruppi. Comincia a capire
che esistono i punti di vista degli altri. Compaiono i primi giochi di fantasia e una logica primitiva». Lo
stadio operatorio concreto va dai 6 ai 12 anni. In questo stadio il bambino ha acquisito nuove capacità
logiche dovute allo sviluppo mentale, come per esempio l’addizione e la sottrazione, tuttavia, a
differenza dello stadio precedente il bambino concepisce le nozioni di classe, relazione e quantità.
L’ultimo stadio è quello operatorio formale che va dai 12 anni in avanti dove il pensare implica
astrazioni, cioè cose che non esistono e che non sono ancora successe.
Altre teorie vanno condotte a C. Spearman che sostiene che l’intelligenza dipende da un fattore
generale che riguarda tutte le prestazioni cognitive o da un fattore/abilità specifica che riguarda solo
un’attività cognitiva, e a L. Thurstone che contrariamente a Spearman sostiene che l’intelligenza sia
racchiusa in 7 abilità:
1) Comprensione Verbale
2) Fluidità verbale
3) Capacità numerica
4) Visualizzazione spaziale
5) Memoria
20
6) Ragionamento
7) Velocità percettiva
H. Gardner ha proposto la sua teoria sulle intelligenze multiple che asserisce diverse abilità
dell’intelligenza.
Le distingue in:
1)Linguistica
2)Musicale
3)Logico–Matematica
4)Spaziale
5)Corporea–cinestesica
6)Personale
7) Interpersonale
Per quanto concerne le ultime due, ovverosia l’intelligenza personale ed interpersonale, si basano
sulla gestione delle proprie emozioni da una parte e il riconoscimento delle emozioni altri e la gestione
dei rapport dall’altra.
R. Sternberg sostiene che l’intelligenza usa tre tipi di processi e sono: Analitica, creativa e pratica.
L’intelligenza analitica, analizza, confronta e valuta elementi diversi; l’intelligenza creativa è legata
all’intuizione ed è la capacità di applicazione, usare, utilizzare e affrontare situazioni nuove e
l’intelligenza pratica, infine, è la capacità di utilizzare strumenti e attuare procedure. Un ulteriore
contributo lo dobbiamo alla scuola russa e, in particolar modo, al pensiero creativo di L. S. Vygotsky. Il
nucleo della sua teoria è che i processi psichici più importanti hanno una natura sociale, culturale e
biologica. Quindi non condivide la posizione di Piaget dove il pensiero è causa del linguaggio e lo
sviluppo precede l’apprendimento. Per Vygotsky, invece, è il linguaggio ad essere causa del pensiero,
mentre l’insegnamento è antecedente allo sviluppo dell’individuo. Per dirlo in modo diverso, la genesi
dell’individuo è da ricercarsi non al suo interno, «ma in attività originariamente esterne, svolte in un
contesto interattivo. Tutti i processi psichici dell’uomo […] non si esauriscono in risposte a stimoli
provenienti dall’esterno, ma utilizzano elementi di mediazione (o strumenti-stimolo), che portano ad
un loro sviluppo non più naturale, ma storico-culturale (dato che questi strumenti-stimolo sono
utilizzati in un contesto interattivo, sociale». Anche J. Bruner sulla scia di Vygotsky sostiene che
l’intelligenza e i diversi processi mentali dipendono da un fondamento sociale. Tale fondamento
sociale viene chiamato dallo stesso autore contesto sociale che guida gli scopi del comportamento
umano.
I test per misurare l’intelligenza sono da sempre un argomento che hanno destato molto interesse
nell’ambito scientifico e in quello psicologico. Tuttavia, da un punto di vista pragmatico i risultati dei
test sono considerati molto utili perché contribuiscono a individuare i problemi psichici o di
apprendimento del bambino e di adattare l’insegnamento alle capacità del bambino. È molto
importante capire che dei test di personalità o psicologici non si deve abusare, in quanto il livello di
efficacia non è stabile, considerando i vari tipi di intelligenza e i limiti della ragione umana. Per cui è di
necessaria importanza creare dei test che cercano di risolvere un tipo specifico di problema. Uno dei
test più importanti a riguardo è il test di Simon – Binnet in grado di misurare l’intelligenza. Il test
misura il rapporto tra età cronologica e mentale, partendo dal presupposto che l’intelligenza non è un
costrutto originario, bensì multiplo, cioè formato da variabili diverse. L’idea di fondo del test è che un
bambino di 5 anni non può risolvere i problemi di un bambino che ha 8 anni. Inoltre, i processi mentali
21
analizzati nel corso delle loro ricerche, di Binnet e Simon sono l’attenzione, la memoria e la logica.
Tuttavia altri test che misurano l’intelligenza sono il Q.I. di W. Stern. Il Q.I. misura l’intelligenza astratta
e concreta ma non quella creativa o le attitudini intellettive più specifiche. Pertanto sono stati ideati
nuovi test che misurano l’intelligenza senza considerare la cultura di una persona, detti culture-free
che non misurano le competenze linguistiche o logiche, ma mettono in egual moto alla prova le
competenze di memoria, di ragionamento e di osservazione. Un’ulteriore suddivisione delle funzioni
cognitive misurabili ai test riguarda l’intelligenza fluida e quella cristallizzata. Per intelligenza fluida si
intende la capacità di adattarsi a stimoli nuovi e si sviluppa fino ai 30 anni restando stabile fino ai 60,
mentre per intelligenza cristallizzata si intende l’ottimizzazione del patrimonio di conoscenze acquisite
e si incrementa fino ai 20 anni per poi crescere per tutta la vita in modo graduale. Tuttavia, un
ulteriore attività cerebrale, per esempio come quello di studiare, rende stabile l’intelligenza fluida
oltre i 40 anni. Infatti, in ambito neurobiologico, molti studi hanno dimostrato che i neuroni non fanno
altro che connettersi attraverso le sinapsi ad altri neuroni, incrementando così, l‘attività delle
connessioni neuronali. Infine, un altro tipo di test di intelligenza è quello di D. Wechsler,
detta Wechelers Adult Intelligence Scale (WAIS). È un test molto noto perché si applica a partire dai 16
anni fino all’età senile. Le scale riescono a valutare aspetti cognitivi come la memoria, il pensiero
(inteso come la capacità mentale di comprendere diversi fenomeni, come ragionare, riflettere,
immaginare, ricordare o, ancora, comunicare con gli altri o con sé stessi), la capacità di pianificazione e
l’esaminazione della realtà. Wechsler definisce l’intelligenza come un’entità globale, multideterminata
e multisfaccettata. Per cui, sempre secondo l’autore, vista la globalità dell’intelligenza, per cercare di
comprenderla servono un grande numero di test diversi che analizzano la stessa persona o le stesse
capacità cognitive.

SENSAZIONE E PERCEZIONE
La funzione degli organi di senso è registrare i cambiamenti che avvengono nell’ambiente e
trasmetterli al cervello. Per esempio il sistema visivo è sensibile alla luce riflessa da un oggetto
(energia elettromagnetica) e, quindi i diversi sistemi sensoriali devono tradurre tali stimoli in impulsi
nervosi.
Ogni senso comporta la Trasduzione ovvero un processo attraverso il quale i diversi stimoli fisici
recepiti dai singoli organi di senso (ognuno nel proprio linguaggio) vengono tradotti in stimoli nervosi,
ossia comprensibili dal cervello. La trasduzione è, quindi, una modificazione di stato, di un tipo di
energia presente nel mondo esterno (onde luminose o sonore, ad esempio) in segnali neuronali, un
altro tipo di energia. A questo punto possiamo provare la sensazione del fenomeno a cui abbiamo
assistito.
I sensi non devono rispondere solo alla stimolazione di una particolare forma di energia, ma devono
anche rispondere in modo differenziato alle variazioni di tale energia.
Ogni forma di energia può variare secondo due dimensioni: quantitativa e qualitativa.
Per tutti i sensi il processo di trasduzione avviene in modo tale che l’informazione relativa alla quantità
e alla qualità dell’energia si conserva nel pattern dei potenziali d’azione inviati al cervello
(codificazione).
La relazione fra segnale fisico esterno e sensazione che questo provoca, viene definita relazione
psicofisica, che mette in contatto variabili sia fisiche che psicologiche. Il rapporto tra il mondo degli
stimoli fisici e quello delle esperienze psicologiche da essi prodotte.
Nella fase di registrazione, i nostri organi di senso però sono vincolati da alcuni limiti

22
a) Sono in grado di cogliere e registrare soltanto il tipo di energia al quale sono sensibili, alcuni stimoli
sono presenti nell’ambiente ma non possono essere avvertiti perché i nostri sistemi sensoriali non
sono in grado di rilevarli
b) Un secondo limite si riferisce all’intensità dello stimolo. Lo stimolo per poter essere registrato dagli
organi di senso deve essere sufficientemente intenso. La nostra sensibilità ha dei limiti al di sotto dei
quali lo stimolo non viene percepito, questo limite viene detto soglia assoluta. La soglia assoluta segna
il confine tra gli stimoli che vengono recepiti dall’organismo (stimoli sovraliminari) e gli stimoli che, pur
essendo presenti, non sono avvertiri dall’organismo (stimoli infraliminari).
La soglia assoluta è il livello minimo di intensità che uno stimolo deve avere per essere colto nel 50 %
dei casi. Gli stimoli di intensità superiore saranno recepiti sempre, mentre quelli di intensità inferiore
non saranno mai avvertiti. Gli stimoli di intensità uguale al limite saranno avvertiti una volta su due.
c) Un altro limite si riferisce alla capacità da parte di ogni singolo organo di cogliere una variazione di
intensità dello stimolo. La soglia differenziale è la differenza minima di intensità che due stimoli
devono avere per essere avvertita, nel 50%dei casi.

Legge di Weber
Nel 1834 Weber evidenziò che la soglia differenziale di ogni stimolo è una frazione costante
dell’intensità dello stimolo iniziale.
La differenza appena percepibile è una costante, che ha un valore specifico per ogni modalità
sensoriale (Costante di Weber) e che misura l’intensità di uno stimolo dicendoci di quanto esso deve
variare per essere percepito come diverso da un’altro.
La formula della Legge di Weber è S= k log I
Dove:
• S sta per sensazione
• K= costante specifica per modalità sensoriale
• Log= logaritmo
• I= intensità dello stimolo

Legge di Fechner
Nel 1860 Fechner legando il concetto di stimolo a quello di sensazione, cercò di verificare quanto varia
la sensazione (componente psicologica) al variare dell’intensità dello stimolo (componente fisica). La
sensazione è direttamente proporzionale al logaritmo dell’intensità dello stimolo
S= c logR+C
S è la sensazione
c è la costante di Weber
R è l’intensità dello stimolo
C è una costante di integrazione

I sensi sono il mezzo utilizzato dal cervello per ricevere informazioni riguardo l’ambiente esterno e
anche il nostro corpo.
23
Possono esserci sensi generali, che coinvolgono tutto il corpo.
Possono esserci sensi di natura somatica (tatto, pressione, temperatura e il dolore).
I sensi speciali sono, invece, l’olfatto, il gusto, la vista, l’udito e l’equilibrio.
I nostri organi di senso si servono di recettori sensoriali che possono essere di vario tipo, come ad
esempio i meccanorecettori, dediti alla sensazione di compressione, piegamento, e stiramento; i
chemiorecettori (olfatto e gusto) si occupano delle sensazioni chimiche. Informano sula presenza di
determinate sostanze chimiche che entrano in contatto con il corpo e sono situati su tutta la
superficie del nostro corpo; i termorecettori (percezione della temperatura). Si attivano oltre I 30 °C
circa e aumentano la scarica neurale fino a 45°C circa.Al di sotto dei 30°C operano i frigocettori. I
fotorecettori (per la luce e la visione); i nocicettori (per il dolore) sono presenti nella parte superficiale
di molti tessuti del nostro coro. Sono, ad esempio, assenti nel cervello (ad esclusione delle meningi);
gli esterocettori per l’ambiente esterno.
I propriocettori servono per percepire le posizioni delle parti del corpo, per la loro direzione e la loro
velocità. Sono fondamentali per definire I confini corporei, esplorare gli oggetti, guidare i movimenti.
Sono situati nei muscoli scheletrici.

LA PERCEZIONE
Gli organi di senso rappresentano la base biologica della percezione. Nell’uomo, gli organi di senso
concludono la loro maturazione entro I primi 4-5 mesi di vita.
Può essere definita come l’elaborazione delle sensazioni elementari convogliate dagli organi di senso.
La sensazione viene raccolta dagli organi di senso e viene codificata organizzata e interpretata.
Le informazioni registrare dagli organi di senso vengono integrate attraverso il processo percettivo,
che a sua volta funziona in modo preprogrammato in base alle sue caratteristiche bologiche.
L’elaborazione permette di far uscire gli oggetti “strutturati” -> es: insieme caratteristiche (lunga,
nera, sottile…) = penna stilografica.
La percezione è, quindi, un complesso meccanismo, preposto alla raccolta ed elaborazione, in tempi
molto brevi, di una grande quantità di informazioni utili e/o necessarie al sistema cognitivo e a quello
motorio, per raggiungere i loro obiettivi, prima di tutto quello della sopravvivenza.
La percezione visiva ha come oggetto di studio l’esperienza percettiva, ovvero ciò che noi vediamo,
così come lo vediamo. Ciò che noi vediamo, così come lo vediamo, può essere chiamato fenomeno.
La percezione visiva studia l’organizzazione dello spazio percettivo, data una certa configurazione di
stimoli, limitata nel tempo e nello spazio.
Si può verificare l’assenza dll’oggetto fenomenico. Quello che percepiamo non esiste realmente sul
piano fisico. Oppure si può verificare una discrepanza tra oggetto fisico e oggetto fenomenico, ad
esempio nelle illusioni ottiche.
Per quanto riguarda il processo percettivo, distinguiamo 2 stadi:
1) Il primo stadio della percezione è quello dove hanno luogo i processi visivi primari che svolgono il
compito di individuare e descrivere le caratteristiche dello stimolo visivo lasciandone indeterminati il
significato, l’uso e la funzione. L’analisi e l’elaborazione delle caratteristiche fisiche permetterà di far
emergere l’oggetto strutturato. E’ lo stadio più studiato dalla psicologia della Gestalt.
2) Dello stadio secondario si è occupata principalmente la psicologia cognitiva: è appunto attraverso i
processi cognitivi che lo stimolo strutturato, attraverso il confronto con le conoscenze depositate in
24
memoria, viene riconosciuto.

Elaborazione bottom up e top down


Bottom up: [dal basso verso l’alto] è una modalità di elaborazione “guidata dai dati sensoriali ovvero
dalle singole parti dello stimolo” Si usano, quindi i dati per predire le strutture a livello più alto (le
disparità retiniche per la struttura degli oggetti).
Top down: [dall’alto verso il basso] è una modalità di elaborazione “guidata dai concetti”, cioè basata
sulle rappresentazioni contenute in memoria. Si usano i principi per predire i dettagli. Strutture degli
oggetti per predire le disparità retiniche.
Riconosciamo un’automobile a partre dalle proprietà fisiche, oppure partendo dal concetto di
automobile?
La scelta delle modalità dipende in buona misura dal contesto in cui è inserito l’oggetto percepito e dal
grado di conoscenza dell’osservatore. Viene spontaneo chiedersi come sia possibile riconoscere un
oggetto senza accedere a una precedente informazione memorizzata.
Chi è a favore dell’elaborazione Bottom Up ammette che il processo finale, cioè la denominazione
dello stimolo percepito, può essere raggiunto solo attraverso un confronto tra l’input sensoriale e la
rappresentazione mentale dello stimolo.
La differenza fra le due modalità si limita al fatto che nell’elaborazione bottom up il processo di
confronto parte dal basso e procede fino a quando lo stimolo viene strutturato nella sua interezza e
può, quindi, essere verificata la corrispondenza con la rappresentazione interna dello stimolo.
Perché abbia luogo una percezione di devono avere 3 condizioni:
- Un pezzo di mondo che emetta o rifletta un qualche tipo di energia (stimolo distale)
- Un tipo di energia che può essere chimica, fisica, meccanica, che sia in grado di modificare gli
organi sensoriali (stimolo di senso)
- Un sistema di elaborazione che sia in grado di decodificare e interpretare le modifiche che
l’energia ha prodotto negli organi di senso, dando luogo al percetto.

La catena psicofisica
1. La luce che viene riflessa dall’oggetto arriva all’occhio dell’osservatore
2. Forma un’immagine sulla retina
3. Genera impulsi elettrici nei recettori
4. Gli impulsi nervosi viaggiano attraverso le fibre nervose
5. Raggiungono il cervello
6. Vengono elaborati
7. Il percettore vede l’oggetto

Le principali teorie sulla percezione


La teoria a favore dell’elaborazione Bottom Up è la teoria della percezione diretta di Gibson.
Ogni stimolo possiede informazioni sensoriali sufficientemente specifiche da renderne possibile il
riconoscimento senza l’intervento dei processi cognitivi superiori. Processi cognitivi quali la memoria
per accedere all’esperienza passata non sarebbero, quindi, necessari per riconoscere lo stimolo che
avrebbe già un proprio “ordine interno” che ne consentirebbe una percezione diretta. In questa teoria
25
c’è il rifiuto della teoria cognitivista dell’elaborazione delle informazioni: le informazioni sono già
presenti nella stimolazione e possono essere colte direttamente. I sensi sono dei sistemi percettivi
diretti, con la funzione di cogliere le varianti strutturali disponibili nell’ambiente.
L’ordine interno, costituito dalla distribuzione spaziale e temporale dello stimolo, permette una diretta
“disponibilità” al suo riconoscimento. Gibson definisce questa “disponibilità” come affordance, che è
ciò che permette all’osservatore di estrarre le caratteristiche che definiscono l’uso e le finalità
dell’oggetto percepito. Le informazioni hanno senso per l’organismo che le coglie direttamente dalla
stimolazione, in quanto affordances presentate dall’ambiente, in relazione al valore evolutivo che
hanno per l’organismo.
L’affordance suggerita non si basa solo su caratteristiche fisiche possedute dall’oggetto ma anche sullo
stato psicologico e fisiologico dell’osservatore. Una delle critiche mosse a questa teoria è quella che si
riferisce alle illusioni ottiche, che dimostrerebbero che le sole caratteristiche dello stimolo non
permettono la sua corretta percezione. Gibson ha risposto che le illusioni ottiche sono un fenomeno
quasi esclusivamente da laboratorio, e non sono presenti in contesti naturali dove la percezione deve
essere studiata. Per questo la teoria viene anche definita “teoria ecologica” della percezione.
La teoria costruttivista è, invece, a favore dell’elaborazione di tipo Top Down. Dato che non vediamo
delle semplici configurazioni ma vediamo oggetti complessi, perché questo sia possibile è necessaria
un’attività di ricerca della migliore interpretazione possibile delle caratteristiche disponibili. Secondo
Gregori tale interpretazione definita “controllo delle ipotesi”non può che avvenire secondo un
approccio top down grazie al quale costruiamo le nostre percezioni attraverso i nostri processi
cognitivi.

Teoria dell’analisi tramite sintesi.


Teorizzata da Neisser si trova a metà strada tra teoria diretta di Gibson e teoria costruttivista proposta
da Gregory. La percezione è il risultato preliminare dello stimolo visivo tramite un processo
preattentivo e automatico in grado di fornire una rappresentazione dello stimolo visivo secondo un
processo di tipo Bottom Up.
Al secondo livello interviene uno spostamento volontario dell’attenzione sullo stimolo analizzato
preattivamente. In questo stadio nell’osservazione si forma una rappresentazione mentale dello
stimolo, basata su aspettative e esperienza passata, per poi metterla a confronto con la
rappresentazione preliminare effettuata nello stadio precedente.
Questo stadio è guidato da un processo Top Down.
Ciò che ha luogo nel terzo e ultimo stadio dipende dal risultato del confronto avvenuto nello stadio
precedente.
Per Neisser l’individuo possiede degli schemi cognitivi che lo orientano e lo guidano nell’esplorazione
percettiva (e selezione) degli stimoli, attraverso un meccanismo di assimilazione.
Nel caso in cui gli elementi ambientali siano incongruenti (o nuovi e sconosciuti) rispetto agli schemi
posseduti dal soggetto, gli schemi stessi verranno modificati (accomodati) in funzione dei feedback
ambientali.
Se il confronto è positivo allora la rappresentazione mentale dello stimolo ottenuta nel precedente
stadio viene considerata il risultato finale della percezione. Se le rappresentazioni non coincidono
allora il sistema dovrà ipotizzare nuove rappresentazioni percettive fino a raggiungere la
corrispondenza.

26
Il limite di questa teoria deriva dall’indeterminatezza dei processi che avrebbero luogo nella fase di
confronto tra la rappresentazione preattentiva delle caratteristiche sensoriali e le rappresentazioni
delle conoscenze già presenti in memoria.

Il ciclo percezione-azione di Neisser.

La teoria della percezione di Marr


Prevede un livello di elaborazione di tipo bottom up e un livello più avanzato che si baserebbe su un
processo top down. Questa teoria può essere simulata su computer per questo viene definita anche
teoria “computazionale” della percezione.
La percezione inizia fin dall’immagine retinica dello stimolo che, attraverso stadi successivi, viene
trasformata in una rappresentazione sempre più articolata e complessa. In particolare, per uno
stimolo tridimensionale sarebbero necessari tre stadi per arrivare a una percezione completa:
Marr propone 4 livelli di rappresentazione, considerando il primo livello l’immagine stessa.
Poi abbiamo “schizzo primario bidimensionale 2D” dello stimolo visivo che percepisce l’occhio. Non è
coinvolta la percezione cosciente, le caratteristiche di forma e grandezza simili vengono
automaticamente accorpate.
Poi “schizzo a due dimensioni e mezzo 2 e 1/2D” che aggiungerebbe al primo stadio gli indizi di
profondità e orientamento. Lo stimolo comincia a delinearsi ma soltanto nelle sue parti
percettivamente visibili all’osservatore e, naturalmente, la rappresentazione cambia cambiando il
punto di osservazione.
Poi abbiamo il “Modello tridimensionale 3D” nel quale si ottiene la rappresentazione tridimensionale
dello stimolo e le relazioni spaziali tra le sue varie parti. Si forma la rappresentazione tridimensionale
dell’oggetto. La rappresentazione 2 e ½ D dello stadio precedente, viene integrata dalle conoscenze
acquisite dall’esperienza passata. Lo stimolo visivo diviene indipendente dal punto di osservazione e
per questo lo stadio viene definito percezione basata sugli oggetti.

27
Come avviene il riconoscimento di oggetti
Come facciamo a riconoscere una lettera o una parola, nonostante le diverse forme nelle quali può
essere scritta?
Riconoscere una qualsiasi configurazione visiva significa effettuare un confronto tra gli stimoli in arrivo
e le informazioni immagazzinate in memoria.

Teoria della comparizione tra sagome


Nella memoria sono archiviate un numero enorme di sagome, cioè tutte le forme degli oggetti che
possiamo riconoscere. L’oggetto è la comparazione tra le sagome presenti in memoria e quelle
presenti nell’ambiente.
Quando ci troviamo in presenza di un oggetto ha luogo un’analisi di tutte le sagome simili contenute in
memoria e al termine dei confronti viene scelta la sagoma uguale a quella esterna che, una volta
trovata, da origine al riconoscimento dello stimolo.
La teoria della comparazione tra sagome può spiegare il riconoscimento di configurazioni molto
semplici e poco variabili, ma non può rendere conto del riconoscimento di configurazioni più mutevoli
e complesse.

28
Teoria dei prototipi
Il confronto avviene tra stimolo esterno e prototipo interno che contiene le caratteristiche più
frequenti e più tipiche di un certo insieme di oggetti.
Il prototipo non ha le proprietà di una sagoma, me è una rappresentazione astratta della
configurazione; è una copia della rappresentazione esterna. Non deve essere identica, ma è sufficiente
che ne condivida alcune caratteristiche.
Siamo in grado di costruirci un prototipo anche nel caso in cui non abbiamo mai avuto esperienza
precedente della configurazione esattamente corrispondente al prototipo.
Non spiega sufficientemente il modo attraverso il quale i prototipi si formano nella nostra memoria e
la modalità secondo la quale sono archiviati in memoria.

Teoria delle caratteristiche o tratti


Il confronto non avviene tra l’intera configurazione esterna e le sagome o prototipi immagazzinati in
memoria, ma tra le caratteristiche possedute dallo stimolo esterno e le caratteristiche archiviate in
memoria. Il riconoscimento avviene attraverso stadi successivi.
1) La configurazione esterna è rilevata per come appare nella retina
2) La configurazione viene sezionata nelle sue caratteristiche specifiche individuando presenza o
assenza di linee verticali, orizzontali, oblique, angoli retti, acuti, ottusi, linee continue curve ecc.
3) L’assemblaggio delle caratteristiche rilevate nello stadio precedente da luogo a un riconoscimento
cognitivo
Il completamento amodale: la percezione costruisce la realtà di cui abbiamo esperienza.

Stadio della risposta finale. Gli stimoli visivi vengono riconosciuti comparando le caratteristiche che
contengono le caratteristiche immagazzinate in memoria. Vengono riconosciuti gli stimoli che
ottengono maggior numero di caratteristiche in comune con quelle contenute in memoria.
Questa teoria è supportata anche da evidenze empiriche che derivano da importanti studi sulla
neurofisiologia della visione. Ci sono cellule chiamate “rilevatori di tratti” in grado di rilevare tratti
come orientamento angoli ecc., scoperti da Hubel e Wiesel, che possono essere considerati il
substrato neurofisiologico su cui poggia la teoria del riconoscimento basato sul confronto di
carateristiche.

Realtà fisica e realtà percettiva


Nella teoria formulata dalla Gestalt, il sistema nervoso è predisposto a rispondere ai pattern degli
stmoli sensoriali, con meccanismi innati, che agiscono in base ad alcune regole fondamentali, definite
principi dell’organizzazione percettiva (vicinanza, somiglianza, chiusura, continuità, movimento
comune, simmetria, esperienza passata). Gestalt significa “insieme organizzato, configurazione
armonica e, secondo I fautori di questo approccio la vera unità fondamentale per lo studio della
percezione sta nella Gestalt dello stimolo sensoriale, non nei singoli elementi che lo compongono.
Questo processo di organizzazione intrinseca è regolato da alcuni fattori o leggi gestaltiche. Grazie a
questi fattori le parti di un campo percettivo vengono a costituire delle totalità coerenti e strutturate.
Il realismo ingenuo (che deriva da una teoria ingenua) definisce che ciò che non percepiamo non è
altro che una fotocopia dello stimolo, cioè della realtà fisica esterna. Gli stimoli sarebbero percepiti
cosi come essi sono, generando una completa coincidenza tra la realtà fisica esterna e la realtà
percettiva o fenomenica interna. Ciò che sbagliato.

29
Realtà fisica e realtà concepita non coincidono
Si può avere un oggetto presente a livello fisico ma non a livello percettivo, cioè l’oggetto c’è ma non
lo vediamo. Tale discrepanza viene definita assenza dell’oggetto fenomenico. Il caso opposto è
rappresentato dalla presenza dell’oggetto fenomenico nonostante lo stimolo sia assente nella realtà
fisica. Tale discrepanza viene definita assenza dell’oggetto fisico (es. triangolo di Kanizsa)

Le illusioni ottiche
A volte i nostri processi percettivi, a causa di condizioni visive inadeguate, possono indurci in errore. La
tendenza a percepire i pattern vivisi e gli oggetti come insiemi organizzati è così forte che, in alcuni
casi, il sistema percettivo aggiunge elementi mancanti, creando delle vere illuzioni ottiche (percezione
falsa o distorta della realtà).
Le illusioni ottiche possono essere distinte in quattro differenti tipi di illusioni visive:
• Figure ambigue
• Figure paradossali (il nostro sguardo ripercorre un’immagine, come se andasse alla ricerca di
una soluzione, ma è uno sforzo vano, perché è impossibile trovare una soluzione)
• Figure fittizie (vedi figura sotto): i triangoli non sono fisicamente presenti, pur essendo
percettivamente colti. Si tratta di contorni anomali e illusori, generati dalla distribuzione e
dall’organizzazione degli elementi della stimolazione.

Come il triangolo di Kanizsa portano l’osservatore ad avere una percezione illusoria e, quindi, sbagliata
dello stimolo fisico.

• Distorsioni (illusione di Muller-lyer e illusione di Ponzo)


• Movimento apparente: grazie a Wertheimer si è saputo perché percepiamo immagini in
movimento quando guardiamo un film. Alternando il tempo di illuminazione tra due fonti
luminose vicine era possibile dare la sensazione di movimento.
I meccanismi delle illusioni percettive sono varie . Il più delle volte si tratta di errori o disfunzioni nei
meccanismi correttivi che il cervello mette in atto e che, di solito, hanno l’effetto di migliorare il
processo percettivo. Con il movimento apparente, abbiamo a che fare con situazioni esterne, che
vanno oltre I limiti delle capacità percettive del sistema nervoso.

30
Percezione e orientamento
La lettura è una complessa attività in cui entra in gioco la percezione, delle singole lettere, delle
parole e delle frasi, ma la parte principale spetta alle funzioni superiori, in particolare al linguaggio.
Il testo è esplorato a scatti, come l’immagine.
In ogni fissazione si vede bene solo un piccolo tratto di riga (span percettivo).
La percezione del testo è discontinua (l’esplorazione è a salti), selettiva (non tutto il materiale di una
riga viene visto) e guidata dal cervello che si basa soprattutto sull’esigenza di acquisire significati.
Il cervello integra i dati frammentari raccolti nell’eplorazione del testo, basandosi essenzialmente sui
significati.
La nostra percezione non funziona in base alle leggi fisiche degli stimoli esterni. Una convincente
dimostrazione si trova nei compiti di ricerca di un elemento diverso all’interno di un insieme di
elementi uguale fra loro. La nostra percezione organizzata, in una struttura gerarchica all’interno
della quale alcune parti della configurazione operano da punti di confronto fra le altre parti.
Limitando l’osservazione alla caratteristica dell’orientamento, si può concludere che nella struttura
gerarchica del sistema percettivo il punto di riferimento è rappresentato dagli assi verticale e
orizzontale. È più facile giudicare un oggetto come orientato verticalmente o orizzontalmente
rispetto ad individuare un orientamento obliquo. Es delle lineette verticali in cui salta subito
all’occhio quella posta obliqua, mentre non è vero il caso contrario.

Processamento umano della percezione


Nel processamento delle informazioni, possiamo identificare almeno sei importanti unità che sono
attive mentre un individuo umano osserva un oggetto:
- Recettori sensoriali, registri sensoriali, memoria permanente, processi di riconoscimento di
configurazioni, attenzione e memoria di servizio.
- I recettori sensoriali nel processo visivo sono composti da milioni di cellile specializzate, che
rispondono per prime agli input ambientali. Essi rappresentano il primo gradino nel
processamento di tutte le immagini provenienti dal mondo esterno.
Sono molti i processi che devono essere condotti sugli stimoli ambientali per poterne derivare un
significato. Ogni processo richiede del tempo. Poichè l’ambiente può cambiare rapidamente e lo
stimolo può terminare prima del completamento del processo percettivo, può accadere che l’analisi
di molti stimoli termini a metà, prima che ne sia determinato il significato. In realtà noi siamo dotati
di sistemi che trattengono, per breve tempo, una rappresentazione abbastanza completa degli
stimoli e così l’analisi percettiva può essere condotta a termine.

Pattern recognition
Dire che la percezione implica la determinazione del significato degli stimoli significa che gli individui
abbiano un repertorio permanente di conoscenze sul loro mondo. E’ questo deposito che va
consultato per determinare il senso di un determinato evento. Tale componenente è la memoria
permanente. E’ improbabile che gi stimoli esistenti nel nostro ambiente abbiano esattamente la
stessa forma della conoscenza che possediamo del mondo e che abbiamo immagazzinato nella
memoria permanente.
31
Entrano, allora, in giorco numerosi processi di riconoscimento di configurazioni (pattern recognition).
Le ricerche su questo tema indagano su come l’individuo riesce a determinare che un particolare
insieme di linee e angoli rappresenti la lettera A.
In particolare possiamo dire che il riconoscimento di configurazioni si occupa di come gli stimoli
ambientali sono identificati con qualcosa di già immagazzinato nella memoria dell’individuo.

Memoria di servizio
Il numero di stimolazioni ambientali ai quali l’individuo potrebbe prestare attenzione è illimitato. Ad
esempio, vi sono milioni di sfumature di colore, d’effetti di contrasto, di forme percepibili. Ma,
poichè l’individuo ha limitate capacità di processamento, allora, deve decidere come distribuirle tra i
vari compiti che potrebbe seguire. E’ questo il processo dell’attenzione.
Un aspetto cruciale della capacità di processare informazioni, risiede nella capacità dell’individuo di
porre in una memoria di servizio alcuni aspetti delle funzioni cognitive. Questo tipo di memoria è
definito consapevolezza. L’individuo diventa, così, capace di controllare o modificare alcuni
processamenti che sta compiendo. Quest’aspetto consente anche di pianificare o di generare delle
condizioni uniche d’informazioni in cui non si è mai imbattuto in precedenza.

Computer vision
La vista è il più importante sistema sensoriale dell’uomo, dal quale otteniamo il maggior numero di
informazioni sull’ambiente che ci circonda. Per poter costruire macchine artificiali capaci di eseguire
compiti adattativi complessi, in ambienti in continuo mutamento, bisogna dotarle di capacità visive. Il
nostro sistema visivo è molto complesso, anche se è completamente automatizzato.
L’azione del vedere non è soltanto una trasduzione di segnale, ma include anche un’interpretazione
dell'immagine.
Il processo presuppone:
• Estrazione di informazioni parziali che riguarda l’individuazione di tutti gli oggetti presenti
nell’immagine
• Determinazione delle posizioni spaziali degli oggetti e delle loro dimensioni
• Costruzione di una rappresentazione sintetica della scena a partire dall’immagine stessa.
I sistemi di visione artificiale
Il processo visivo, sia naturale che artificiale, gestisce una rilevante quantità di informazioni. Tali
informazioni sono codificate in una matrice bidimensionale (l’immagine che rappresenta le misure
della quantità di luce riflessa nell’occhio o, nel caso della telecamera, l’immagine di ogni oggetto
tridimensionale presente nella scena).
Questo lavoro di registrazione dell’occhio umano è svolto da più di 100 milioni di recettori, presenti
nelle due retine. Nel caso del sistema di visione artificiale, nella telecamera, il numero di elementi
recettori è cento volte inferiore rispetto all’occhio umano.
Tuttavia, dato che ogni punto dell’immagine è codificato con il numero di 8 cifre, la quantità di
informazioni presente in ogni immagine è veramente imponente. Per imitare l’occhio umano è
necessario che il sistema visivo artificiale si in grado di processare almeno alcune immagini al
32
secondo.
La tridimensionalità
Per superare il problema di opere pittoriche realistiche gli artisti del Rinascimento inventarono un
modello prospettico di formazione dell’immagine, ancora oggi utilizzato come visione artificiale.
Secondo tale modello l’immagine di una scena tridimensionale, vista dall’angolazione
dell’osservatore, si ottiene come intersezione con un piano dei raggi luminosi congiungenti i punti
della scena con il punto di vista scelto.

L’articolazione figura-sfondo
L’organizzazione di tipo gerarchico del nostro sistema percettivo consente anche di “segmentare” il
flusso di informazioni che provengono dall’ambiente esterno in modo da isolare le singole
configurazioni che costituiscono i vari oggetti. Il sistema è in grado di percepire gli oggetti
mantenendone divisi i confini e le identità per consentire di fare confronti e individuare eventuali
uguaglianze o differenze. L’articolazione Figura-sfondo (Rubin) è un processo che viene sempre
eseguito dalla percezione dato che si può affermare che non può esistere figura senza uno sfondo. La
segmentazione del campo percettivo porta a organizzare l’attività sensoriale in modo da isolare
figure coerenti e dotate di significato. Parte di questa capacità dipende dall’esperienza passata, ma
alcuni processi di organizzazione percettiva sono invece considerati innati. I principali processi di
organizzazione percettiva sono quelli studiati dalla psicologia ella Gestalt.

I principi di organizzazione percettiva.


Secondo gli psicologi appartenenti alla scuola della Gestalt, la nostra attività percettiva viene
influenzata in maniera determinante da principi di raggruppamento percettivo presenti in ogni uomo
fin dal momento della nascita. La percezione si fonda su principi innati e nega l’esistenza o
l’importanza dell’esperienza. La capacità di raggruppare stimoli isolati in sottoinsieme e organizzarli
come figura è una tendenza naturale, innata e condivisa da tutti gli osservatori. I più importanti
principi di organizzazione percettiva proposti dai gestalisti sono:
a) Somiglianza: in un insieme di stimoli, un certo numero sono simili tra loro la percezione tenderà a
unificarli in un’unica figura. Tendiamo a vedere gli elementi di uno stimolo fisicamente simili come
parti dello stesso e gli elementi diversi come parti di oggetti differenti. Siamo in grado di distinguere
tra due oggetti diversi in base a differenze visive.
b) Vicinanza: a parità di altre condizioni, se all’interno di un certo numero di stimoli ve ne sono alcuni
vicini tra loro, questi verranno segregati a formare una figura unica e organizzata. Tendiamo a vedere
gli elementi di uno stimolo visivo tra loro vicini, come parti dello stesso oggetto e quelli distanti come
parti di oggetti differenti. Questo ci permette di separare un vasto insieme di elementi in un insieme
meno numeroso di oggetti.
c) Chiusura: gli elementi che tendono a formare una figura chiusa (o soltanto percettivamente chiusa)
vengono percepiti come un’unità organizzata a sé stante. Tendiamo a vedere le forme come
delimitate da un contorno continuo e ad ignorare le eventuali interruzioni di tale continuità. Questo
ci aiuta a percepire le forme come complete anche quando sono parzialmente nascoste da altri
oggetti.
d) Continuità o buona direzione: secondo questo principio viene data maggiore importanza e

33
vengono percepite come continue linee le cui traiettorie sono simili rispetto a linee le cui traiettorie
sono opposte. La percezione si struttura in processi organizzati che permettono di far emergere la
figura come un insieme distinto dallo sfondo. In alcuni casi un osservatore può percepire una certa
parte di una configurazione come figura e un’altra parte come sfondo o viceversa. Questa facile
inversione figura-sfondo avviene per tutte quelle configurazioni in cui sia la figura che lo sfondo la
parte possono assumere forme strutturate e dotate di significato.
Quando varie linee si intersecano, tendiamo a riunire i segmenti in modo da formare linee il più
possibile continue, col minimo cambiamento di direzione. Questo ci permette di attribuire una certa
linea a un particolare oggetto quando due o più oggetti si sovrappongono.
e) Movimento comune: quando gli elementi di uno stimolo si muovono nella stessa direzione e alla
stessa velocità, tendiamo a vederli come parti di un unico oggetto. Questo ci aiuta a distinguere un
oggetto in movimento dallo sfondo.
f) Simmetria: il sistema percettivo cerca di produrre percezioni il più possibile eleganti: semplici,
ordinate, simmetriche, regolari e prevedibili. Il nostro sistema percettivo organizza gli stimoli nelle
forma più semplice possibile.
g) Esperienza passata: la segmentazione del campo aviene, a parità delle altre condizioni, anche in
funzione delle nostre esperienze passate, in modo che sarebbe favorita la costruzione di oggetti con i
quali abbiamo più familiarità, che abbiamo già visto, piuttosto che di forme sconosciute o poco
familiari. In un’accezione più moderata, i gestaltisti consideravano che l’esperienza passata non
influisse sui processi di base ma che influisse sull’orientare tali processi in particolari direzioni
rispetto ad altre.
È difficile percepire lo sfondo quando non è dotato di significato
È più facile percepire come figura la parte della configurazione che viene ad essere “inclusa-
circoscritta” (per es. fra due sagome)
È più facile percepire come figura la parte della configurazione che ha “area minore” (fattore
dell’area relativa”)
È più facile percepire come figura la parte della configurazione orientata secondo gli assi cartesiani
All’interno di una figura la segmentazione figura-sfondo non avviene in maniera casuale ma è guidata
da una serie di fattori che, di solito, appartengono alla figura e non allo sfondo.

L’ATTENZIONE
In ogni momento della nostra vita siamo bersagliati da una grande quantità di stimolazioni che
attraverso i sistemi sensoriali raggiungono il nostro cervello. Tenendo conto che le nostre capacità di
elaborazione sono a dimensione limitata, soltanto alcuni di questi stimoli vengono selezionati.
Occorre ipotizzare la presenza di un filtraggio delle informazioni non necessarie per l’attività che
stiamo svolgendo. Tale filtraggio viene messo in pratica dall’attenzione, o più precisamente dal
funzionamento delle varie componenti del sistema attentivo. L’attenzione può quindi essere definita
come quel processo che opera una selezione tra tutte le informazioni che in un dato istante
colpiscono i nostri sensi (informazioni esterne) e/o i nostri ricordi (informazioni interne) consentendo
soltanto ad alcune di accedere ai successivi stadi di elaborazione.
L’elaborazione preattentiva e focalizzata
L’elaborazione degli stimoli (il cosidetto processamento) non sempre richiede l’impiego di risorse

34
attentive. Molti esperimenti hanno dimostrato che le caratteristiche di uno stimolo, come il colore
forma o movimento vengono rilevate senza l’intervento dell’attenzione. In questi casi possiamo
definire il processamento dello stimolo come preattentivo.
Il processamento preattentivo avviene in maniera molto rapida e non risente del numero di
distrattori presenti, ossia del numero di stimoli simili presenti nel nostro campo percettivo. Per
esempio il colore giallo sarà individuato in maniera preattentiva, mentre se viene chiesto di
individuare il triangolo giallo sarà necessario combinare le informazioni di colore e forma, pertanto
richiederebbe l’intervento dell’attenzione focalizzata.
L’attenzione focalizzata funziona analizzando ogni singolo stimolo presente nel campo percettivo fino
a combinare le due (o più) caratteristiche che lo definiscono. Il tempo necessario a questo processo
attentivo seriale, risente del numero di distrattori presenti e quindi aumenterebbe in proporzione al
numero di stimoli presenti
Questa funzione di abbinamento delle caratteristiche è più facilmente soggetta ad errori, chiamati
congiunzioni illusorie, soprattutto per via di cause ambientali (cattiva visibilità, rumore, durata breve
di esposizione…) oppure per via di variabili legate al nostro sistema di rilevamento e di elaborazione
(es. scarsa motivazione, stanchezza, altri compiti da svolgere contemporaneamente…)
Secondo Treisman e Schmidt questo tipo di errore è dovuto al fatto che le caratteristiche elementari
degli stimoli verrebbero rilevate contemporaneamente (cioè in parallelo) utilizzando una modalità
preattentiva, solo in un secondo momento sarebbero abbinate tra loro grazie all’intervento
dell’attenzione focallizzata che, in presenza di condizioni non ottimali, può generare delle
congiunzioni illusorie.
In un esperimento Treisman e Souther confermarono questa intuizione. Venivano mostrati dei pallini
n numero variabile (da 2 a 12) e si chiedeva di premere un pulsante per individuare l’eventuale
presenza di un trattino verticale e un altro pulsante nel caso nessuno dei pallini lo presentasse. In una
seconda condizione, ai soggetti veniva chiesto di premere il pulsante nel caso vi fossero pallini senza
il trattino. Quando il compito era di individuare la presenta del trattino, i tempi di reazione erano
molto più brevi e non risentivano del numero di distrattori. Nella seconda condizione invece il tempo
di reazione era molto più lento e dipendeva dal numero di elementi presenti. Nel primo caso quindi
gli elementi venivano elaborati secondo un processamento preattentivo e simultaneamente (in
parallelo) mentre nel secondo caso i singoli elementi che compongono i distrattori vengono abbinati
stimolo per stimolo, secondo un procedimento seriale L’elaborazione preattentiva delle singole
caratteristiche di una configurazione viene anche detta pop-out. Con Pop-out (effetto che emerge) si
intende il fenomeno in base al quale le caratteristiche di una configurazione emergono
spontaneamente e si impongono al nostro sistema visivo. Es: immagini sessuali o movimento.
L’orientamento delle linee può essere individuato da un’elaborazione preattentiva mentre
disposizione-combinazione delle linee necessita dell’intervento dell’attenzione focalizzata.
Il processamento preattentivo permette quindi di rilevare le caratteristiche più salienti in maniera
molto rapida, mentre l’attenzione focalizzata interviene per combinare insieme le diverse
caratteristiche per arrivare al riconoscimento dell’oggetto. Per giungere a percepire un oggetto nella
sua interezza, il nostro sistema percettivo deve passare attraverso due distinte fasi:
Identificazione delle qualità primarie di tutti gli oggetti presenti nel nostro campo percettivo
Integrazione delle caratteristiche
La seconda fase implica un’attività mentale seriale, dal momento che vengono analizzati prima gli

35
elementi che si trovano in una data posizione spaziale, poi quelli in un’altra posizione e cosi via fino
ad analizzare tutti gli stimoli.
Processi automatici e controllati.
Scheneider e Shiffrin ipotizzarono l’esistenza di processi che avvengono sotto il controllo conscio e di
processi che invece non necessitano di nessun controllo
Processi controllati: avvengono sotto il controllo conscio, richiedono la presenza di risorse attentive,
vengono messi in atto uno dopo l’altro secondo una modalità seriale, hanno un tempo di esecuzione
lento
Processi automatici: avvengono al di fuori della consapevolezza e non richiedono l’impiego di risorse
attentive
Almeno nelle fasi iniziali la gran parte dei processi che sottostanno ai nostri comportamenti sono
all’inizio controllati mentre in seguito, con esercizio e pratica possono diventare automatici e
vengono cosi definiti automatizzati (inizialmente erano controllati) grazie a un processo di
automatizzazione (o proceduralizzazione).
Se le condizioni ambientali cambiano e il compito improvvisamente si complica, l’attività
automatizzata deve essere riportata sotto il controllo dell’attenzione sottraendo le risorse ad altri
compiti intrapresi nel frattempo e tornano ad essere controllati. Durante le fasi iniziali di
apprendimento le attività sono rese possibili dall’attivo controllo attentivo e sono poche le risorse
residue che possono essere utilizzate per altri compiti (es guida) Compatibilità spaziale S-R
Quando un compito richiede una risposta omolaterale allo stimolo la condizione viene definita
“compatibile”, mentre quando la risposta richiesta è controlaterale allo stimolo è definita
“incompatibile”. L’effetto di compatibilità indica che le risposte compatibili sono più veloci delle
risposte incompatibili. Il riconoscimento e la codifica spaziale della posizione dello stimolo è il primo
processo che deve essere messo in atto per poter eseguire il compito. La posizione dello stimolo è la
dimensione rilevante e la codifica di tale dimensione (stimolo a destra o a sinistra) è la condizione
necessaria per scegliere correttamente la risposta che deve essere fornita. Nella condizione
compatibile il processo di codifica non richiede alcuna traduzione dal codice dello stimolo al codice
della risposta Nella condizione incompatibile il codice spaziale dello stimolo non coincide con quello
della risposta ed è quindi necessaria una traduzione che causa un rallentamento dei tempi di
reazione Nell’effetto Simon, al soggetto viene richiesta una discriminazione non spaziale tra due
diversi stimoli e viene chiesto per esempio di rispondere alla comparsa di un quadrato premendo il
pulsante destro e alla comparsa di un cerchio con il sinistro. La principale differenza con la
compatibilità spaziale S-R e l’effetto Simon, è quindi la dimensione spaziale, dove nel primo caso è
rilevante mentre nel secondo no. I tempi di reazione sono più veloci quando la figura geometrica
collegata alla risposta destra viene presentata a destra dello schermo rispetto a quando gli
abbinamenti figura-risposta sono opposti Nel caso dell’esperimento Simon, i soggetti possono
rispondere correttamente comunque senza codificare la posizione spaziale dello stimolo nonostante
potrebbero impiegare più tempo Per ragioni legate ai movimenti dell’attenzione nello spazio, ogni
volta che vediamo un oggetto nel campo percettivo e orientiamo l’attenzione su quell’oggetto, in
maniera automatica ne codifichiamo anche la sua collocazione spaziale I movimenti dell’attenzione
sono collegati con i movimenti oculari
Gli errori attentivi
Nella più generale classificazione dell’errore umano proposta da Reason e Norman figurano due

36
diversi tipi di errore:
1) Mistakes: errori che si commettono nello scegliere un obbiettivo o nell’identificare i mezzi di per
raggiungerlo. Penso che lo sciopero dei treni non riguardi la mia tratta e lo aspetto invano.
Avvengono nell’ambito dei processi controllati e intenzionali.
2) Slips: errori che si commettono nel mettere in atto quello che si intende fare per raggiungere un
obiettivo. Es: voglio raggiungere la scuola in macchina, arrivo al parcheggio e mi accorgo di aver
dimenticato le chiavi p Hanno praticamente sempre luogo nei processi automatici. Il modo più
efficace per prevenire questo tipo di errori è prevedere funzioni obbliganti cioè vincoli fisici che ci
impediscono di compiere questi errori

La percezione subliminale
Per avere consapevolezza di una sensazione, occorre che l’intensità della sensazione raggiunga la
nostra soglia assoluta che è l’intensità minima che uno stimolo deve avere per essere rilevato da uno
degli organi di senso nel 50% dei casi. Stimoli a livello della nostra soglia assoluta o soprasoglia sono
rilevati e ne abbiamo consapevolezza. La percezione subliminale ha un’importanza rilevante nel
campo pubblicitario e riguarda la stimolazione sensoriale sotto-soglia e della quale non si è
consapevoli e può, più o meno, condizionare il nostro comportamento. È un argomento tutt’oggi
controverso. Con il metodo del priming si è dimostrato che le persone possono essere influenzate
nelle loro valutazioni anche da stimoli che non arrivano a livello di consapevolezza. Il metodo del
priming consiste nel presentare una parola per un tempo così breve da non poter essere percepita in
maniera consapevole e dopo un breve intervallo di tempo presentare per un tempo più lungo una
parola dal significato ambiguo (per esempio rosa o pesca). Al soggetto viene chiesto di premere un
pulsante se significa un fiore o colore. I risultati dimostrano che i soggetti sono influenzati dalla
parola precedentemente mostrata sottosoglia che è semanticamente collegata a uno dei due
significati della parola in questione. L’elaborazione del significato di una parola può avere luogo
anche in assenza di consapevolezza e il significato elaborato può condizionare le nostre decisioni, o
almeno quelle relative a contesti ambigui. Ciò non deve farci concludere che l’elaborazione
inconsapevole di una parola possa indurci a mettere in atto un qualche tipo di comportamento,
specialmente se contrario al nostro sistema di valori e credenze

Attenzione selettiva
Quando ci troviamo di fronte a un numero elevato di stimoli possiamo concentrare la nostra
attenzione su una specifica zona dello spazio dove si trova l’oggetto a cui siamo interessati. Questa
capacità ci permette di elaborare in modo efficiente e dettagliato uno stimolo presente nel nostro
campo percettivo. L’uomo è un elaboratore di informazioni a capacità limitata e di conseguenza
l’attenzione selettiva può essere vista come uno strumento per limitare la quantità di informazioni
che deve essere elaborata proteggendo il sistema di elaborazione stesso da sovraccarichi e
interferenze L’attenzione selettiva quindi permette il filtraggio selezionando le caratteristiche
rilevanti dello stimolo (necessarie per svolgere correttamente il compito) e ignorare quelle futili. Il
destino delle informazioni rilevanti dipende in buona misura dal momento in cui avviene la selezione,
cioè lo stadio in cui la selezione ha luogo.
1) Selezione precoce: per i sostenitori di questa tesi, la selezione avviene nei primi stadi. Senza
l’impiego dell’attenzione selettiva il sistema di elaborazione è in grado di cogliere solo elementari
caratteristiche fisiche dell’oggetto e non sarebbe possibile il riconoscimento dello stimolo stesso
2) Selezione tardiva: la selezione avviene nel livello più centrale. Per l’elaborazione percettiva di
37
tutte le caratteristiche dello stimolo non è richiesto l’impiego dell’attenzione selettiva che si
renderebbe necessaria solo dopo, in alcuni casi anche solo nel momento della selezione della
risposta.

Effetto stroop
È il fenomeno descritto da Stroop più di 80 anni fa che viene studiato attraverso la presentazione di
una parola scritta in diversi colori e si richiede al soggetto sottoposto all’esperimento di riportare il
colore in cui è scritta la parola. Quando il significato della parola descrive un colore il confronto tra le
due dimensioni dello stimolo può dar luogo a:
1) Configurazione congruente (parola rosso scritta in rosso)
2) Configurazione incongruente (parola verde scritta in rosso)
I tempi di reazione agli stimoli congruenti sono più veloci rispetto a quelli degli stimoli incongruenti
nonostante non sia richiesto di raggiungere lo stadio di elaborazione semantica dello stimolo.
Abbiamo quindi una caratteristica rilevante (colore) e una caratteristica irrilevante (significato)
L’effetto Stroop depone a una selezione di tipo tardivo, nonostante la completa irrilevanza per il
compito; l’elaborazione della parola viene eseguita fina all’attribuzione di senso. Dimostra, inoltre,
che la focalizzazione o meno dell’attenzione non ha differenziato il livello di elaborazione compiuto
dai soggetti sulle differenti caratteristiche degli stimoli.
Nel caso delle caratteristiche rilevanti il soggetto è consapevole di aver focalizzato l’attenzione,
mentre non lo è nel caso delle caratteristiche irrilevanti anche se non hanno raggiunto il livello di
coscienza.
Dimostra l’automaticità del processo di lettura (inevitabile a meno che non si sia analfabeti). I
soggetti non riescono a limitare il loro compito al processamento della sola caratteristica rilevante

Attenzione selettiva e cecità al cambiamento


Un fenomeno legato all’attenzione selettiva è la cecità al cambiamento, che dimostra il ruolo svolta
dall’attenzione focalizzata sulla rilevazione e l’analisi delle varie parti che compongono una scena.
Consiste nell’impossibilità di cogliere in maniera consapevole alcune microscopiche variazioni di una
scena nel caso in cui la variazione abbia luogo contemporaneamente ad altri elementi di disturbo.
Dimostra l’importanza dell’attenzione, in particolare di quella focalizzata sulle singole parti della scena

38
per verificarne l’eventuale cambiamento. In mancanza di attenzione focalizzata i soggetti non
percepiscono il cambiamento delle singole parti della scena.

L’APPRENDIMENTO
È un tema che è stato largamente studiato dai comportamentisti. Nel corso degli anni però, ci si è resi
conto che i modelli proposti (condizionamento classico e operante) sono insufficienti e influenzati in
maniera determinante dalla scuola della psicologia all’interno della quale si erano sviluppati. Difatti
molti studi successivi evidenziano che la spiegazione dell’apprendimento basata esclusivamente sulle
associazioni tra input in entrata e risposta in uscita non rendeva conto degli apprendimenti più
complessi per i quali doveva necessariamente essere previsto l’intervento di alcune operazioni mentali
e, in secondo luogo, del fatto che anche limitandosi agli apprendimenti più semplici, un’attenta analisi
permette di mettere in luce la presenza di azioni mentali messe in atto tra il momento di presentazione
dell’input e il momento di emissione della risposta. Per questo motivo, successivamente, gli studi
prenderanno in esame tipi di apprendimento più complessi che prevedono l’intervento dei processi
mentali studiati dai cognitivisti.
L’apprendimento consiste nelle modificazioni che un organismo mette in atto nel corso dell’esistenza
per meglio adattarsi all’ambiente esterno.
E’ una modificazione relativamente duratura e stabile de comportamento, a seguito di una esperienza,
di solito ripetuta più volte nel tempo.
L’apprendimento va distinto dalle modificazioni del comportamento dovute a condotte istintive o
processi maturativi.
L’apprendimento comporta un vantaggio evolutivo, anche se implica un costo; la specie umana è in
grado di costruire il proprio apprendimento.
Non ci troviamo in presenza di un apprendimento ogni volta che osserviamo una risposta adattiva
dell’organismo all’ambiente, ma dobbiamo poter osservare quella data risposta in un momento
successivo a quello che l’ha provocata la prima volta. Ci troviamo, quindi, in presenza di un
apprendimento quando osserviamo un comportamento adattivo successivo a quello messo in atto in
concomitanza della prima esperienza.
Gli studi furono eseguiti prevalentemente sugli animali, poiché la scuola comportamentista supponeva
che i processi di apprendimento degli animali fossero analoghi a quelli dell’uomo Oggi sappiamo che
non è sempre cosi, ma alcune regole generali che sottendono le modalità di apprendimento possono
essere considerate comuni all’uomo e all’animale.
Ci sono 3 indirizzi tradizionali sullo studio dell’apprendimento:
1. Il condizionamento classico o Pavloviano
2. L’apprendimento strumentale o operante (i cui pionieri sono stati Thorndike e Skinner)
3. L’apprendimento cognitivo basato sulle ricerche della scuola della Gestalt
Il condizionamento classico
Teorizzato dal fisiologo russo (1849-1936) Ivan Pavlov. Ha svolto ricerche sulla fisiologia della
39
digestione dimostrando come la presentazione del cibo aumentasse l’attività delle ghiandole salivari
ma non solo: anche in assenza di cibo e in presenza di stimoli presenti nel normale momento
dell’alimentazione, veniva provocata la salivazione. Questa deduzione fu fatta osservando il
comportamento dei cani, che anche alla semplice visione del camice bianco del uomo che solitamente
gli portava il cibo, cominciavano a salivare. Pavlov si rese conto che nell’animale si era stabilito un
riflesso condizionato tra uno stimolo e una risposta appresa, anche se in origine non vi erano
collegamenti.
Schematizzò la sua scoperta in 3 passaggi:

a) In un primo momento il cane si trova in presenza di uno stimolo incondizionato SI (cibo) che da
solo è in grado di provocare una risposta incondizionata RI (salivazione) grazie al legame
naturale che esiste fra SI e RI
b) A questo punto se lo stimolo incondizionato viene presentato insieme a uno stimolo neutro SN
(campanellino) si forma nell’animale un riflesso condizionato che permette, dopo un certo
numero di abbinamenti tra SI e SN, di trasformare lo stimolo neutro SN in stimolo condizionato
SC.
c) Quando lo stimolo SN si trasforma in stimolo SC, la sua presentazione isolata (senza cioè
l’abbinamento con SI ovvero con il cibo) è in grado di generare una risposta condizionata RC
(salivazione) simile alla risposta incondizionata RI emessa in precedenza.
Può essere, quindi, definito come un processo di apprendimento nel quale uno stimolo inizialmente
neutro, dopo ripetuti abbinamenti con un secondo stimolo in grado di produrre naturalmente la
risposta, viene associato a questo, diventando uno stimolo condizionato. È necessario che risposta
incondizionata RI e risposta condizionata RC siano uguali o simili.
Allo stesso modo sperimentò il condizionamento classico facendo un esperimento con una
campanella. Dopo un certo numero di volte in cui il cibo seguiva al suono della campanella, solo il
suono della campanella generava salivazione.
Mise in luce come uno stimolo che per sua natura non ha inizialmente alcun legame con una certa
risposta, può invece diventare saldamente connesso a quella risposta se ripetutamente presentato
insieme a un altro stimolo che naturalmente possiede un naturale legame con quella stessa risposta.
Fasi e caratteristiche del condizionamento classico
40
In relazione alle caratteristiche temporali, il condizionamento classico può essere distinto in due fasi
principali e una aggiuntiva:
Fase di acquisizione: in cui lo stimolo incondizionato viene preceduto dallo stimolo neutro (es: cibo
preceduto dal suono della campanella) dopo un certo numero di abbinamenti, anche la sola
campanella è in grado di provocare la salivazione. Durante questa fase avviene il condizionamento
cioè lo stimolo neutro è diventato condizionato. Se a questo punto però la campanella viene
presentata sempre isolatamente, la risposta di salivazione diminuirà progressivamente fino a
scomparire.
Fase di estinzione: lo stimolo condizionato torna a essere neutro perdendo la capacità di generare la
risposta condizionata.
Fase di riacquisizione (o fase aggiuntiva): segue quella di estinzione e si ottiene ristabilendo
l’abbinamento tra stimolo condizionato (divenuto neutro) e lo stimolo incondizionato. Il tempo
necessario per condizionare la risposta è di gran lunga minore a quello necessario lungo la fase di
acquisizioni.
La velocità di apprendimento: è il tempo necessario all’insorgenza del condizionamento. Deriva da
fattori quali la quantità di cibo presentata, l’intensità di suono della campanella e soprattutto il
rapporto temporale tra SN e SI. Risultati ottimali si ottengono quando lo stimolo neutro precede di un
brevissimo intervallo di tempo (1-2 secondi) lo stimolo incondizionato (= condizionamento in avanti o
ritardato).
Il condizionamento simultaneo invece, cioè quando SN e SI vengono presentati insieme è di minor
efficacia. La velocità di apprendimento diviene ancora più lenta quando la relazione temporale si
inverte ed è SI a precedere di pochi secondi SN (viene presentato il cibo e poi fatto sentire il suono
della campanella). Questo tipo di abbinamento viene definito condizionamento retrogrado.
Se dopo un certo numero di tentativi con lo stimolo condizionato, si tralascia lo stimolo incondizionato,
può succedere che il comportamento appreso contiui per un po’ di tempo, ma poi scompaia o si
estingua.
La velocità con cui compare l’estinzione dipende dalla frequenza con cui il comportamento è stato
eseguito, dall’intensità dello stimolo incondizionato e da molti altri fattori.
Se le prove di estinzione sono sufficienti, la risposta appresa scomparirà completamente.
Se, però, si lasciava riposare il cane e poi lo si sottoponeva di nuovo al test, la risposta di salivazione
che era stata appresa, ricompariva. Questo recupero spontaneo segnala che una risposta estinta non
viene completamente sradicata. Evidentemente anche se il soggetto smette di rispondere, non
dimentica la risposta appresa.
Generalizzazione: una volta stabilito un riflesso condizionato tra uno stimolo e una risposta,
l’organismo tenderà a mettere in atto lo stesso comportamento anche in risposta a stimoli simili allo
stimolo condizionato.
Discriminazione: viene rinforzato solo lo stimolo SC e, al contrario, si cercheranno di eliminare gli
stimoli generalizzati (ovvero quelli simili). All’animale vengono presentati i vari stimoli simili allo
stimolo condizionato senza abbinarli allo stimolo incondizionato. Il risultato sarà l’estinzione del
condizionamento di quegli stimoli; lo stimolo condizionato SC invece, continuerà ad essere seguito
41
dallo stimolo incondizionato in modo da condizionarne il condizionamento. L’inibizione della risposta
per stimoli simili.
Condizionamento di ordine superiore: il condizionamento può estendersi anche a stimoli
completamente diversi dallo stimolo condizionato a patto che questi vengano ripetutamente
presentati insieme ad esso. (es, oltre alla campanella, l’accensione di una luce) finora sono sempre
stati presi in esame stimoli incondizionati positivi.
Gli stimoli incondizionati negativi sono chiamati stimoli avversativi che si differenziano da quelli postivi
per:
Stabilire un condizionamento tra uno stimolo neutro SN e uno stimolo incondizionato negativo SI non
sono necessari molti abbinamenti ma spesso è sufficiente un singolo accoppiamento
Il condizionamento con uno stimolo incondizionato SI avversativo è molto più resistente all’estinzione
Sono più importanti circa il ruolo che essi ricoprono nell’apprendimento umano in generale e in
particolare per il condizionamento di origine superiore. (se per esempio vengo aggredito in un parco
all’una di notte da un uomo vestito con una tuta da giardiniere, proverò facilmente paura per parchi,
buio, tute da giardinieri ecc.…)
Lo stimolo incondizionato negativo (ovvero doloroso, fastidioso, stressante…) il condizionamento può
stabilirsi dopo una sola prova, perdura nel tempo è può facilmente generare condizionamenti di
ordine superiore.
I comportamentisti non si sono chiesti (per esempio) cosa ci sia nella mente nel cane che gli provoca
tali reazioni. Il condizionamento classico non è stato studiato solo sugli animali di laboratorio, alcuni
studiosi hanno sperimentato e verificato la validità anche fuori dal laboratorio testandone i principi
generali sugli esseri viventi. Nell’uomo si possono condizionare anche emozioni positive. Questo è
quello che cercano di fare quotidianamente le agenzie pubblicitarie, quando “abbinano” i prodotti che
devono essere venduti a stimoli incondizionati SI “naturalmente piacevoli” come per esempio belle
donne, paesaggi incantevoli.
Il condizionamento operante (apprendimento per prove ed errori)
Teorizzato dallo Psico-ingegnere Skinner (1938-1953). Riguarda i comportamenti che mirano a
produrre cambiamenti nell’ambiente, Il cambiamento classico invece mirava a condurre reazioni di
risposta adattivi a stimoli ambientali. Molte delle azioni che compiamo ogni giorno sono mirate a
ottenere un qualche effetto. Questi comportamenti sono definiti “strumentali” perché sono
paragonati a strumenti che permettono di raggiungere uno scopo e di produrre un cambiamento allo
stesso modo sono chiamati “risposte strumentali o operanti” perché cercando di indurre un effetto
desiderato sull’ambiente. Il condizionamento operante è un processo di apprendimento in cui le
conseguenze di una risposta influenzano le probabilità che sia nuovamente prodotta in futuro. Si basa
sulla legge dell’effetto di Thorndike che afferma che un’azione o un comportamento che provoca un
effetto positivo (piacevole, gratificante) ha più probabilità di ripetersi in futuro, mentre un
comportamento che abbiamo come conseguenza un effetto negativo (doloroso, frustrante) ha meno
probabilità di essere messo in atto di nuovo. Lo studioso ha tratto queste deduzioni studiando il
comportamento dei gatti all’interno di una “gabbia problema” da lui ideata.

42
L’animale non veniva alimentato per un certo periodo così da provocare una sostenuta motivazione al
cibo, poi veniva messo in una gabbia e veniva posto del cibo all’esterno in modo che lo vedesse ma
non riuscisse a raggiungerlo. All’interno della gabbia vi erano leve, cordicelle, piattaforme e altri
oggetti che il gatto poteva mordere, spingere, graffiare…. Uno solo di questi meccanismi poteva
permettere di aprire la porta e di raggiungere il cibo.
Il comportamento dei gatti era apparentemente casuale e privo di precise finalità, definito “per prove
ed errori”.
Thorndike notò che le risposte non corrette tendono ad essere abbandonate dal soggetto; viceversa
quelle corrette ad essere ripetute (legge dell’effetto e dell’esercizio).
Legge dell’effetto: l’apprendimento dipende dalle conseguenze che il comportamento produce
Legge dell’esercizio: comportamenti esercitati più frequentemente hanno maggiori possibilità di
essere impiegati in condizioni simili.
Quando il gatto premeva casualmente la leva esatta ottenendo l’apertura della porta e la possibilità di
raggiungere il cibo, si creava un legame tra l’azione appena compiuta e l’effetto positivo raggiunto.
Quando il gatto veniva posto nuovamente nella gabbia, l’esperienza precedente faceva diminuire
significativamente il numero dei comportamenti “per prove ed errori” messi in atto e l’animale
arrivava molto più in fretta al comportamento corretto.
Il comportamento corretto viene messo in atto la prima volta in maniera del tutto casuale ma,
raggiungendo un effetto positivo, nelle successive occasioni diviene un comportamento molto più
frequente rispetto agli altri comportamenti casuali.
Riprendendo le ricerche di Thornidike, Skinner distinse tra comportamenti rispondenti e operanti.
Rispondente: comportamento che deriva da riflessi innati o appresi
Operante: comportamento che è emesso spontaneamente dall’organismo.
Questa legge rende conto di come le risposte corrette tengono ad essere ripetute mentre quelle
sbagliate tendono ad essere soppresse. L’esperienza ci permette di concentrare il nostro
comportamento sulle azioni corrette e di abbandonare quelle sbagliate e da questo ne consegue,
naturalmente, una progressiva diminuzione dei tempi di apprendimento. Nell’apparecchiatura ideata
da Skinner, invece, era inserita una leva azionando la quale si otteneva un preciso effetto, per esempio
la somministrazione di una piccola quantità di cibo. L’animale dopo aver effettuato l’azione e aver
beneficiato del suo effetto si trova ancora all’interno della condizione sperimentale e può continuare a
ripetere il comportamento che ha appena ottenuto un risultato positivo.

43
Skinner Introdusse il concetto di rinforzo con cui si intende quel cambiamento ambientale (positivo)
che segue l’esecuzione di un comportamento operante. La conseguenza positiva di un’azione serve da
rinforzo per l’organismo e rende più probabile che quell’organismo ripeta in futuro quell’azione.
La contiguità temporale tra comportamento messo in atto e ottenimento del rinforzo determina i
tempi di acquisizione del condizionamento. La condizione ottimale si ha quando il rinforzo segue
immediatamente o fino a 5 secondo il comportamento messo in atto In condizionamento difficilmente
si stabilisce se l’intervallo si allunga
Tipi di rinforzo
Il rinforzo negativo e l’apprendimento di evitamento hanno un ruolo importante nel comportamento
umano
Un neonato piange perché ha fame, la mamma accorre e gli porta il cibo. Il bambino ha ricevuto un
rinforzo positivo: il cibo. La mamma un rinforzo negativo: il pianto del bimbo è cessato.
Positivo: consiste in una contingenza positiva (premio) volta ad aumentare la probabilità di emissione
della risposta sperimentata dallo sperimentatore
Negativo: consiste nell’eliminazione di uno stimolo che produce una risposta di evitamento, cioè una
risposta negativa (non una punizione!)
La punizione consiste in una contingenza negativa volta a diminuire la probabilità che quel
comportamento venga ripetuto. In pratica è la somministrazione di uno stimolo avversativo a seguito
di una data azione. Al contrario, il rinforzo negativo mira a far ripete l’azione svolta grazie alla
cessazione di uno stimolo doloroso.
Con programma di rinforzo si intende la diversa successione tra azione e rinforzo somministrato. I

44
diversi programmi di rinforzo possono influenzare il tipo di condizionamento e in particolare possono
determinarne la durata più o meno lunga.
Distinguiamo anche i rinforzi in primari e secondari, continui e parziali:
Rinforzi primari: soddisfano i bisogni fondamentali (fame, sete, sonno, etc)
Rinforzi secondari: soddisfano bisogni non legati alla sopravvivenza, ma che tendono a modificare il
comportamento umano (denaro, lodi, approvazioni, etc.). Questi sono legati alla storia del soggetto e
la connotazione di rinforzo avviene in seguito.
Rinforzi continui: il rinforzo segue in maniera sistematica ogni comportamento corretto dell’organismo
(conduce al fenomeno dell’assuefazione)
Rinforzi parziali: il rinforzo viene fornito solo ogni tanto.
Anche nel condizionamento operante si può mirare all’estinzione del comportamento appreso. Nel
condizionamento operante, l’estinzione è la conseguenza della cessazione del rinforzo. Quando un
dato comportamento non è più seguito da un rinforzo positivo o negativo quel comportamento
gradualmente cesserà. Gli studi sul comportamento operante hanno dimostrato che il
comportamento che deve essere appreso può essere seguito dal rinforzo ogni volta che si manifesta
(rinforzo costante o continuo che è più rapido) oppure il rinforzo può essere presentato soltanto
saltuariamente. (rinforzo intermittente o parziale).
I principali tipi di rinforzo intermittente sono:
A rapporto fisso: il rinforzo viene dato dopo un numero prefissato di risposte. Il soggetto può essere
rinforzato ad esempio, dopo 5 o 10 pressioni della leva. Nel versante umano, il soggetto lavora
intensamente per un determinato periodo e può programmare dei momenti di riposo.
A rapporto variabile: il comportamento deve essere messo in atto un certo numero medio di volte
prima che venga dato il rinforzo. Il numero di volte che deve manifestarsi il comportamento varia
continuamente oscillando intorno a una media. Il rinforzo viene dato dopo un numero di risposte
variabile. Il soggetto non può fare previsioni. La risposta viene emessa continuativamente e i tempi di
riposo si riducono (gioco d’azzardo, lotteria, macchine da poker).
A intervallo fisso: dopo la risposta rinforzata deve trascorrere un intervallo di tempo fisso prima che
un’altra risposa possa essere rinforzata (rinforzo ogni tot. secondi, indipendentemente dall’attività del
soggetto). Il soggetto calibra le sue azioni sui tempi del rinforzo ( ad esempio, lo stipendio mensile)
A intervallo variabile: ogni rinforzo è separato dal successivo da un tempo variabile. L’intervallo varia
attorno ad un valore medio, ma la durata di ogni singolo intervallo è sconosciuta. Il soggetto non può
fare previsioni. L’apprendimento è più rapido e procede per progressione costante. Il soggetto
lavorerà di più e apprenderà di più (ad esempio gli elogi occasionali).
Il modellamento
Un animale poteva impiegare molto tempo prima di premere a caso la leva.
Skinner dava una ricompensa ogni volta che si avvicinava alla leva. Veniva rinforzata, quindi, la risposta
di avvicinamento, rendendola più probabile. L’animale capiva che quella era la risposta corretta.
Con modellamento si intende quel programma di condizionamento attraverso il quale non si attende

45
che un dato comportamento insorga spontaneamente (come nei condizionamenti classici e operanti)
ma se ne favorisce l’esecuzione favorendo comportamenti progressivamente più simili al
comportamento che si vuole ottenere.
Spesso viene utilizzato per indurre dei comportamenti anormali rispetto a quelli della specie(nel caso
degli umani comportamenti contrari a un sistema di regole etiche, morali…) ma anche per accelerare
un comportamento naturale che aspettando il caso, impiegherebbe molto più tempo ad avvenire. Es:
per addestrare gli animali per il circo, occorre rinforzare ogni risposta di avvicinamento a quel
comportamento in modo da favorire ogni singola azione che va verso il comportamento che si vuole
ottenere.
Apprendimento e cognitivismo
Tolman ipotizzò che sia possibile apprendere anche in maniera latente. Si apprende anche senza
sforzi, per far fronte ad una situazione problematica, ma il comportamento non è esibito se non si ha
uno scopo da realizzare.
Il comportamento per Tolman è costituito da una serie di azioni, finalizzate ad uno scopo
(comportamento intenzionale).
Con mappa cognitiva Tolman intende la rappresentazione mentale della meta e dello spazio che porta
alla meta. La meta sarà raggiunta secondo il percorso più semplice e meno dispendioso (principio del
minimo sforzo).
Gli studi di Tolman rappresentano l’anello di congiunzione tra l’approccio comportamentista e
l’approccio cognitivista.
Per i cognitivisti tra la presentazione dello stimolo e l’emissione della risposta hanno origine delle
operazioni mentali che sono responsabili del comportamento messo in atto i comportamentisti invece
sostenevano che vi fosse un collegamento diretto tra stimolo e risposta di tipo automatico, la
prospettiva cognitivista ipotizza che l’apprendimento si basi sulle capacità dell’organismo di costruirsi
una rappresentazione mentale del mondo per poi operare su questa rappresentazione interna e non
sul mondo esterno.
Possono essere messe in atto delle strategie mentali tramite le quali l’organismo inizia a pianificare un
comportamento motorio che di per sé non rappresenta una vera e propria risposta ad uno stimolo ma
un primo passo di avvicinamento alla meta i Cognitivisti Sostengono che il modello comportamentista
dell’apprendimento può essere adeguato per comportamenti elementari, ma non per spiegare i
comportamenti più complessi L’anello di congiunzione fra i due approcci è individuato in Edward
Tolman e il suo concetto di rappresentazione mentale. Mise a punto degli esperimenti formati da
percorsi di labirinti che dovevano essere attraversati da ratti dimostrando che anche gruppi di ratti
che non avevano ottenuto il rinforzo, per ogni scelta corretta imparavano il percorso esatto, allo
stesso modo dei ratti che venivano regolarmente rinforzati. I ratti agivano sulla base di una
rappresentazione mentale interna dello spazio del labirinto, una mappa cognitiva che i ratti
consultavano e che favoriva un comportamento parsimonioso. La semplice esplorazione del labirinto
permette di apprendere. L’animale si forma una rappresentazione mentale del labirinto chiamata
mappa cognitiva (cioè una rappresentazione dell’ambiente esterno, all’interno della nostra mente).
L’apprendimento non è il risultato del legame tra stimolo risposta, ma ha luogo anche in assenza di
ricompensa. L’apprendimento latente avviene imparando il percorso corretto e diminuendo il numero
di errori. La mappa cognitiva guida il comportamento dell’animale.
46
Tolman, in un altro esperimento, formò un labirinto a forma di croce in cui alla fine dello stesso
braccio veniva posto del cibo (il ratto veniva fatto partire dalla stessa posizione). Anche ponendo il
ratto nella posizione opposta rispetto a quella solita, ovvero nel braccio contrapposto, il ratto era in
grado di individuare subito il braccio corretto dove trovare il cibo. Il ratto si è formato una mappa
spaziale che gli ha permesso di orientarsi. Se cosi non fosse avrebbe imboccato la solita direzione e
non avrebbe trovato il cibo.
La mappa spaziale costruita vagando per il labirinto è stata utilizzata quando si è profilato uno scopo
da realizzare.
Il rinforzo è utile perché si manifesti un comportamento e non perché lo si apprenda.
La conoscenza appresa può rimanere latente in mancanza di motivazione specifica.

Apprendere i concetti
Si vengono a formare delle rappresentazioni formali dei concetti che devono essere appresi In alcuni
esperimenti questi animali hanno compreso:
I Ratti riconoscono il concetto di coppia
Gli Scimpanzè i concetti astratti rappresentati da oggetti di plastica che variano per forma, colore,
dimensioni, concetti astratti di uguale e diverso, concetto di causa.
I piccioni dimostrarono di riconoscere e beccare le immagini di alberi nonostante non avessero mai
visto quel particolare tipo di fotografia. Si sono formati una regola interna in grado di selezionare e
riconoscere una specifica categoria di stimoli il valore predittivo dello stimolo l’Insight. Il punto di
partenza è la constatazione che la risposta condizionata RC spesso differisce dalla risposta
incondizionata RI (o, meglio, ne differisce in una sua parte) Secondo l’interpretazione cognitivista,
questa differenza è dovuta al fatto che la relazione stimolo-risposta è mediata da una
rappresentazione interna dello stimolo incondizionato SI e tale rappresentazione interna assumerebbe
la forma di “aspettativa” dello stimolo stesso Es la salivazione è la risposta del cane all’”aspettativa del
cibo”. Rescorla sostiene che il condizionamento classico non può essere considerato un processo
meccanico in cui un organismo forma un’associazione tra due stimoli che si sono presentati insieme.
Un organismo sottoposto a un condizionamento, è un cercatore di informazioni che si serve dei
concetti già posseduti per dare forma a una rappresentazione del mondo che lo circonda. Un'altra
critica mossa all’approccio comportamentista si riferisce alle condizioni sperimentali troppo rigide,
dove l’animale non aveva modo di dimostrare comportamenti creativi e intelligenti

L’apprendimento secondo la teoria della Gestalt


Kohler si oppose al principio per prove ed errori.
L’apprendimento è l’esito di un processo intelligente. Presuppone la capacità di collegare insieme, in
modo unitario, elementi distribuiti e considerati (fino ad allora ) isolati.
Kohler studiò il comportamento di uno scimpanzè chiuso in una gabbia insieme a delle sbarre di varie
lunghezze, nessuna delle quali in grado di raggiungere il cibo posto al di fuori delle sbarre. Dopo essere
stato fermo per un po’ di tempo, lo scimpanzè combinò le aste per formane una più lunga e riuscire a
raggiungere il cibo. Definì questo modo di agire Insight.
Gli elementi del campo vengono connessi in modo unitario e all’improvviso, grazie ad un’intuizione, si
verifica l’insight. L’insight comporta una ristrutturazione del campo cognitivo.
Secondo una prospettiva Gestaltista, sugli elementi prima sconnessi avviene una chiusura.
47
Gli elementi sono riorganizzati secondo una nuova configurazione mentale e questo da luogo
all’apprendimento.
L’insight si riferisce al modo di procedere non casuale o per prove d’errore, che include una capacità di
ristrutturare in maniera diversa e creativa gli elementi presenti nell’ambiente in modo da risolvere un
problema altrimenti non risolvibile. Si deve ipotizzare la presenza di una rappresentazione interna
dell’ambiente esterno, e non un semplice legame fra stimolo e risposta.
La metodologia e le condizioni sperimentali impiegate possono influenzare in maniera determinante i
risultati dell’apprendimento. Nel caso descritto le condizioni dell’esperimento permettono all’animale
di mettere in atto un comportamento (“intelligente”) che non è la banale conseguenza dello stimolo.

Apprendimento implicito ed esplicito


Gran parte delle informazioni viene appresa in maniera implicita e non in maniera esplicita. Si tratta di
attività apprese ma sulle quali le persone non sono in grado di spiegare in che modo le hanno apprese.
Apprendimento esplicito: processi attivi di apprendimento poiché gli individui attivano delle strategie
perlopiù consapevoli e volontarie; processi attivi volti all’individuazione e all’estrazione della struttura
di una qualche informazione presentata.
Apprendimento implicito: caratterizzato da processi passivi in cui gli individui, quando sono esposti a
un’informazione, acquisiscono conoscenza da quell’informazione semplicemente in virtù
dell’esposizione. L’organizzazione semantica del materiale ha un’influenza determinante sulla qualità
della prestazione, indipendentemente dal fatto che sia messa in atto come conseguenza delle
istruzioni fornite esplicitamente dallo sperimentatore o avvenga implicitamente per rendere più
efficiente il compito di apprendimento delle parole.

L’apprendimento di informazioni e la loro organizzazione nelle conoscenze già possedute sono favoriti
anche dai processi metacognitivi o metacognizione. Gli individui, in tutte le attività svolte nella vita di
tutti i giorni, fanno ricorso alla metacognizione che consente loro di apprendere con efficacia e di
manifestare intelligenza nello svolgere i vari compiti.
Con il termine metacognizione ci riferiamo a processi di pensiero superiore che svolgono la funzione di
controllo degli altri processi cognitivi coinvolti nell’apprendimento; spiegano come gli individui
possono meglio applicare le risorse cognitive necessarie nel controllo metacognitivo. La conoscenza di
tali processi è connessa con la conoscenza generale di come gli individui apprendono ed elaborano
l’informazione, ma anche la conoscenza che gli individui hanno dei propri processi di apprendimento.
La stessa conoscenza può svolgere una funzione metacognitiva ed essere utilizzata strategicamente
per programmare le attività di apprendimento o per raggiungere un certo risultato in un compito di
apprendimento e prevedibilità; i comportamentisti hanno quasi sempre impiegato gli animali nei loro
esperimenti; ciò ha avuto come conseguenza di circoscrivere il capo di indagine a condizioni più
semplici di quelle che si osservano nella vita reale il grado di semplicità o complessità.
La psicologia cognitiva ha così iniziato a occuparsi di apprendimenti associativi basati su relazioni
imperfette che accompagnano il tipo di apprendimento più frequente nell’uomo.
Sono importanti le credenze precedenti in colui che apprende. Tali credenze preesistenti (o pregiudizi)
sono così forti da influenzare ciò che viene appreso. L’apprendimento complesso implica altri processi
oltre alla semplice associazione tra stimoli e, dato che tali processi si basano su quelle credenze
preesistenti che appartengono alle conoscenze individuali, questi tipi di apprendimento sono una
diretta conferma dell’esistenza della componente cognitiva.
Alcuni esperimenti hanno dimostrato che giudizi e credenze preesistenti, spesso determinano la
valutazione finale. Le credenze preesistenti possono avere importanti conseguenze sull’educazione.

48
Apprendimento sociale di Bandura (detto anche apprendimento di tipo imitativo)

Condivide l’approccio interpretativo generale della scuola cognitivista.


Si apprende anche osservando un modello e cercando di imitarlo.
L’apprendimento imitativo, perché sia efficace, richiede che siano attivi alcuni processi cognitivi:
a) Che si presti attenzione al modello
b) Che ci si rappresenti in memoria la sequenza di azioni che il modello compie
c) Che si sia in grado di riprodurre la sequenza a livello motorio (riprodzione motoria)
d) Che vi sia una certa autoconsapevolezza

Il rinforzo è necessario per l’esecuzione della risposta, più che per l’apprendimento. Il rinforzo crea
motivazione.
Se il modello riceve rinforzi positivi, questi avranno un effetto sull’apprendimento dell’osservatore che
vorrà compiere la stessa azione per essere ricompensato. I rinforzi diretti possono consolidare la
risposta.

Il più noto fra gli apprendimenti sociali è l’imprinting, studiato originariamente dagli etologi. Si tratta di
un comportamento tipico di varie specie di uccelli secondo il quale, allo schiudersi dell’uovo, il pulcino
inizia a seguire il primo oggetto semovente presente nel suo campo visivo. Si stabilisce in un intervallo
temporale ben preciso dopo la nascita (dalle 5 alle 25 ore nelle anatre) trascorso questo il
comportamento non ha più luogo. L’imprinting si può favorire anche verso un oggetto alternativo (non
la madre), addirittura oggetti inanimati basta che si muovano. L’imprinting non può essere equiparato
ad un apprendimento associativo, il tipo di “legame sociale” che sta alla base si fonda su meccanismi
genetici che prescindono dal semplice legame associativo tra lo stimolo e la risposta appresa.
Un altro tipo di apprendimento sociale, è l’apprendimento osservativo. Due sono i meccanismi
sottostanti a questo tipo di apprendimento:
L’emulazione: quando l’individuo riproduce in maniera stereotipata e meccanica il comportamento di
un “modello” senza comprenderne lo scopo o l’efficacia.
L’imitazione: la riproduzione del comportamento in maniera consapevole e mirata al raggiungimento
dello stesso scopo perseguito dal modello.
Secondo Bandura, è possibile acquisire un comportamento a seguito dell’osservazione di un
comportamento analogo compiuto da altri.
Non è, quindi, necessaria la presenza di un rinforzo diretto ma semplicemente il riconoscimento di una
somiglianza con il modello che sta mettendo in atto il comportamento.
La violenza televisiva può provocare un comportamento violento per imitazione? La pratica tv espone
adolescenti e preadolescenti ad un altissimo numero di atti violenti da parte degli spettatori.
Molti esperti hanno confermato che l’esposizione continua a scene di violenza televisiva rende più
probabile in futuro comportamenti violenti da parte degli spettatori. Apprendimento e tecnologie
complesse
Rinforzo negativo e positivo, sono concetti troppo schematici e riduttivi per essere applicati ad
apprendimenti complessi, come per quello delle tecnologie. I cognitivisti ipotizzano che l’organismo
non si limiti alla semplice acquisizione dell’informazione ma necessità di un’attiva ristrutturazione
dell’acquisizione dell’informazione da parte dell’individuo. Tale ristrutturazione è il risultato di
un’integrazione tra il nuovo stimolo e le conoscenze passate Per il cognitivismo l’apprendimento delle
tecnologie fa riferimento a un insieme di processi cognitivi di natura esplicita e implicita deducibili
49
dalle azioni che vengono eseguite sul prodotto tecnologico. Si possono ipotizzare due tipi di
apprendimento (circa il web):
Strumentale: permette di apprendere la tecnologia vera e propria
Dichiarativo: relativo alle nozioni apprese tramite web. Per apprendere nuove informazioni dal web
occorre prima apprendere le modalità di navigazione Non basta comprendere come la tecnologia
funziona ma bisogna anche imparare ad usarla. Il web si differenza dagli altri strumenti multimediali
perché permette all’utente il controllo sul materiale presentato. L’utente può individuare, selezionare,
sottolineare informazioni tra centinaia di informazioni potenzialmente raggiungibili. Le informazioni
sono spesso elaborate in più canali sensoriali (visivo, uditivo…) e quindi le informazioni sono più ricche.
L’informazione può però risultare confusa e meno efficace del metodo tradizionale. Per certi aspetti
l’apprendimento della navigazione su web (o delle tecnologie) è simile al modello dei
comportamentisti: vengono utilizzate prove per errori o associazioni.
Una volta apprese le modalità di navigazione però, l’altissimo numero di informazioni e la
multisensorialità impone delle scelte che non possono essere attuate con dei metodi cosi banali.
Occorre attivare un processo di selezione, elaborazione e analisi delle informazioni da apprendere. Vi
sono differenze nell’impiego di percezione, attenzione e memoria.
SISTEMI E PROCESSI DI MEMORIA
Lo sviluppo della memoria è avvenuto insieme alle altre capacità cognitive, permettendo così agli
organismi umani animali di affrontare la complessità dell’ambiente.
La memoria può essere definita la struttura psichica che organizza l’aspetto temporale del
comportamento, che determina i legami per cui un evento attuale dipende da uno accaduto in
precedenza.
La memoria può essere definita, anche, come la capacità di mantenere le informazioni acquisite dal
sistema, per più o meno tempo, in modo da poterle avere a disposizione e utilizzare per lo svolgimento
dei compiti che si porranno in seguito all’individuo.
Gli studiosi hanno cercato di descrivere i meccanismi di base attraverso i quali gli individui
immagazzinano i dati che provengono dall’ambiente, li registrano, li mantengono e li recuperano per
essere utilizzati e di individuare i fattori ai quali possono essere imputati la perdita o il mancato
recupero di questi dati.
Lo studio della memoria è stato avviato dalla seconda metà del’800. Uno dei più importanti studiosi fu
Hermann Ebbinghaus, che sviluppò una serie di tecniche volte ad analizzare i meccanismi di base della
memoria in situazioni controllate, evitando variazioni nell’ambiente di apprendimento e gli effetti delle
differenze individuali riguardo al background di conoscenze. Sottopose se stesso a prove ripetute in
condizioni sperimentali altamente controllate utilizzando anche materiali neutri (es. trigrammi senza
senso YMV, KLM, PWO….). Misurò l’effetto della pratica sull’apprendimento, apprendendo liste di
trigrammi recitandole e registrando quante prove erano necessarie per riuscire a recitarle
perfettamente in due giorni di prove.
Ne trasse questi risultati:
Ipotesi del tempo totale di apprendimento: la quantità di materiale appreso aumenta linearmente con
il tempo impiegato nell’apprendimento
La pratica distributiva produce un risultato migliore della pratica massiva, cioè le prestazioni sono
migliori se l’apprendimento è distribuito in più giorni piuttosto che in modo concentrato
Descrisse il fenomeno “curva di posizione seriale” che si riferisce alla tendenza a ricordare più
frequentemente e accuratamente gli item collocati nella parte iniziale della lista e nella parte finale
rispetto agli elementi centrali. Nel primo caso si parla di effetto di primarietà (Primacy)e nel secondo
effetto di recenza (Recency).
50
La complessità della memoria
La memoria non consiste in un singolo processo.
Le fasi della memoria sono:
1. Codifica (registrazione): nell’analogia con il computer questa fase corrisponderebbe
all’inserimento dei dati tramite la tastiera
2. Ritenzione: salvare I file sul dati sul disco fisso
3. Recupero: aprire I files e mostrarli sul monitor
4. Oblio (eventuale)

Codifica: processo consistente in un insieme di regole e operazioni che convertono l’informazione


proveniente dall’esterno in una traccia che può essere conservata. La ripetizione semplice non aiuta a
codificare e mnatenere informazioni nella memoria a lungo termine (reiterazione di mantenimento).
E’ più efficace ripetere l’informazione associandola a qualche forma di significato (reiterazione
elaborativa).
Particolarmente utili le associazioni con informazioni che:
- Riguardano noi stessi
- Attivano immagini visive
Il modo di funzionare della memoria si riferisce in un insieme complesso di processi in cui sono
coinvolte altre funzioni cognitive come l’attenzione, la percezione, il ragionamento, e tutte le abilità
cognitive che hanno a che fare con l’intelligenza e le emozioni.
Le informazioni che dobbiamo apprendere entrano nel sistema cognitivo attraverso sistemi di
codifica che possono essere intenzionali o incidentali.
Elaborazione intenzionale: quando, ad esempio, si devono fare delle commissioni e tenere a mente
l’elenco delle cose da fare… si può operare per suddivisione per categorie o per rappresentazione
sottoforma di immagine. Categorizzazione e formazione di immagini mentali sono due strategie di
codifica. Entrambe attivate in modo intenzionale e con il controllo dei processi attentivi.
Apprendimento incidentale: avviene in modo non volontario, non pianificato, secondo strategie
funzionali al ricordo. In questi casi l’efficacia della codifica dipende da quanto il materiale è stato
elaborato.
Mentre leggiamo un libro, prendiamo parte ad una conversazione o ammiriamo un paesaggio, parte
di quelle informazioni sensoriali entra nel deposito della memoria a lungo termine, dal quale, in
seguito, può essere richiamata.
Perché solo una parte, e non tutta l’informazione, viene codificata nella memoria a lungo termine?
La ripetizione aumenta la probabilità che una nuova informazione entri a far parte del deposito a
lungo termine. Ma non tutti i tipi di ripetizione ottengono lo stesso risultato. Secondo alcuni tipi di
ricercatori, esistono almeno 2 tipi di ripetizione:
1. Ripetizione di mantenimento: consiste nel ripetere più volte l’informazione senza pensare
realmente ad essa. Questo permete di mantenere l’informazione della Memoria a Breve termine,
ma non produce il trasferimento nella Memoria a Lungo termine.
2. Rielaborazione elaborativa: agisce sulla nuova informazione, creando un qualche tipo di
elaborazione, facendo delle associazioni, cercando di immaginarla o tentando di metterla in
relazione con altri elementi presenti nella MLT. La ripetizione elaborativa è, quindi, il modo in cui
l’informazione viene trasferita dal deposito a breve termine a quello a lungo termine.
Secondo gli studi di Craik e Tulving, un importante aspetto sulla profondità della codifica, e sul
conseguente miglioramento del ricordo, è la profondità di elaborazione. Con questo si individua quanto
il fuoco dell’elaborazione si sposti dagli aspetti percettivi superficiali dell’informazione a quelli
51
concettuali.
I soggetti ricordano meglio in funzione della ricchezza della loro codifica.
Per quanto concerne il recupero dell’informazione, il vantaggio maggiore si ha quando, in fase di
codifica e in fase di recupero, si usa la stessa chiave strategica (teoria della specificità della codifica). Le
tracce mnestiche sono disposizioni o potenzialità. Diventano efficaci solo in certe occasioni: recupero.
Affinché ci sia recupero, deve essere presente un indizio che riattiva gli elementi da ricordare.
Per il recupero è importante la compatibilità tra le caratteristiche della traccia mnestica e le
caratteristiche dell’informazione fornita al recupero.
Il ricordare, oltre ad essere influenzato dal passato, da come abbiamo memorizzato, dipende anche
dal presente. Se il contesto in cui abbiamo codificato (imparato) si ripresenta, abbiamo una
facilitazione.
Quanto più contesto di codifica e contesto di recupero sono simili, tanto più il recupero è facilitato.
La codifica di un’informazione non è univoca, ma specifica rispetto al contesto in cui è collocata.

Modello del doppio codice (della doppia codifica)


Nella sua teoria Paivio (1971 – 1986) individua 2 sistemi di memoria sematica:
1. Sistema verbale: specializzato per trattare le informazioni di tipo linguistico
2. Sistema non verbale: qualificato per elaborare stimoli non linguistici. Opera, quindi, in compiti
come l’analisi di oggetti, di immagini e di scene.
Il modello prevede che i due sistemi dialoghino tra loro attraverso connessioni referenziali.
La critica più forte che si può muovere a questi modelli riguarda la ridondanza delle informazioni.

Le connessioni referenziali rendono possibili:


- Immaginare oggetti nominati
- Nominare oggetti immaginati

Le rappresentazioni delle immagini mentali operano in modo sincrono o in parallelo. Perciò, tutti I
costituenti di un’immagine sono disponibili nello stesso momento.
La teoria di Paiio prevede che nel sistema vi siano delle connessioni referenziali, che ci consentono di
visualizzare gli oggetti nominati e di nominare gli oggetti che vediamo.

La teoria della doppia codifica è stata cofermata da studi sulla memoria, che mostrano come la
rievocazione libera di parole concrete, sia migliore di quella delle parole astratte.
Organizzazione delle tracce mnestiche
Il mantenimento è influenzato dal tipo di elaborazione e l’organizzazione delle singole informazioni,
altra strategia per migliorare il ricordo.
Evidenze sperimentali dimostrano che il materiale organizzato è più facile da apprendere rispetto a
quello disorganizzato.
Le persone a cui è presentato il materiale dsorganizzato, tendono ad organizzarlo.
L’uso di strategie per organizzare il materiale, aumenta l’apprendimento.

Esistono alcune modalità di organizzazione del materiale che facilitano la codifica:


1. Chunking: gli items si ricordano meglio se in blocchi
2. Associazione delle informazioni a rime o ritmi
3. Mnemotecniche a carattere immaginativo

Importanza fondamentale ricopre il ruolo del contesto.


52
Il principio della specificità della codifica ci ricorda che la traccia dell’evento e l’indizio devono essere
compatibili per il recupero migliore.
L’effetto del contesto ambientale conferma che le informazioni possono essere apprese nella
biblioteca dove studio, oppure a casa…
Effetto del contesto situazionale: sono gli elementi associati allo stimolo che non sono di natura
ambientale, ma che fanno parte del contesto: l’abbigliamento, il colore dei capelli, sono appresi in
modo unitario con i tratti della persona a cui si riferiscono.
E’ importante anche lo stato emotivo in cui ci si trova al momento dell’apprendimento.

Nell’elaborazione intensiva, l’apprendimento tiene conto anche dei fattori qualitativi, ossia quanto
riusciamo ad elaborare e apprendere in relazione al tempo e alla distribuzione del tempo che
dedichiamo al compito.
L’elaborazione distribuita nel tempo, invece, vede come l’apprendimento dipenda dal tempo e
dall’attenzione che dedico all’argomento e da quanto gli effetti della stanchezza incidono
sull’efficienza delle operazioni cognitive. Questo fenomeno è conosciuto come distribuzione della
pratica.

A conclusione del processo di elaborazione, l’informazione viene archiviata sotto forma di


rappresentazione mnestica o traccia mnestica.
Bisogna distinguere tra informazioni archiviate temporaneamente nella Memoria a breve termine
(MBT) e informazioni mantenute nella Memoria a lungo termine (MLT).

Secondo Collins e Quillian I concetti sono organizzati in una struttura gerarchica a rete, che rispetta
l’organizzazione logica di inclusione delle categorie (modelli a rete). Le caratteristiche (proprietà,
attibuti) associati ad un nodo, sono ereditate dai nodi ai livelli inferiori.
Nei modelli a rete I concetti sono organizzati in modo gerarchico:
• ogni membro è collegato ad un solo nodo sovraordinato
• ogni membro di categoria ha uguale status
• vige il principio di economia cognitiva: le proprietà sono codificate al livello più alto possibile
Quando un nodo concettuale viene attivato, l’attivazione si propaga agli altri nodi in funzione del
tempo e della vicinanca (propagazione dell’attivazione).

Paradigma del priming semantico


La resentazione di un dato stimolo attiva in memoria un gruppo di informazioni semanticamente
associate.
La presentazione della parola pane, rende veloce il processo dei concetti associati come burro, fame,
forno.

L’approccio di Ebbinghaus non sembra tenere conto della complessità della memoria e del ricordo
nella realtà di tutti i giorni. Gli individui sono esposti a stimoli complessi, organizzati e dotati di senso e
non devono limitarsi a imparare liste di item. Bartlett riteneva che la memoria fosse un processo attivo
sia quando le informazioni vengono acquisite sia quando devono essere recuperate. Validità ecologica
delle procedute sperimentali usate per descrivere la memorizzazione di brani, storie, scene. Utilizzò il
metodo delle riproduzioni in serie sia in forma grafica che linguistica. Utilizzò perlopiù di storie
popolari, definì lo schema ossia la struttura che organizza le conoscenze acquisite e guida il nostro
comportamento.

53
Il ricordo
Una volta che l’informazione è stata immagazzinata è, in linea di principio, disponibile alla
rievocazione.
Ma non è sempre così semplice; a volte informazioni note non riusciamo a ricordarle.
In questo caso la traccia mnestica che è disponibile, non è accessibile in quel momento o in quella
situazione.
Informazione disponibile: quando è stata codificata e immagazzinata in memoria
Informazione accessibile: quando si trova nelle condizioni di attivazione sufficiente a permettere la
rievocazione
E’ evidente che se una traccia è accessibile è anche disponibile, ma non sempre è vero il contrario.
Quando ci serve un’informazione utilizziamo sempre una o più chiavi di accesso a quel ricordo. I
processi di recupero prendono sempre avvio da un indizio che fornisce le chiavi di accesso
all’informazione ricercata.
Per sapere se un indizio è appropriato, dobbiamo rifarci al concetto di specificità della codifica.
Una ricerca attiva delle informazioni contenute nella memoria, deve condividere alcuni aspetti con le
informazioni da ricordare o con uno dei contesti in cui l’informazione è stata appresa.

Modello della memoria di Atkinsin e Shriffin


Il loro modello prevede 3 registri di memoria:
- registro sensoriale (a brevissimo termine): l’informazione si può perdere per interferenza o
decadimento. Se mantenuto, può passare nel registro a breve termine.
- memoria a breve termine: anche in questo l’informazione si può perdere per interferenza o
decadimento. Se mantenuto, può passare nel registro a lungo termine.
- memoria a lungo termine: registro a capacità illimitata. Nonostante ciò alcune informazioni
possono andare perdute con il tempo.
Per quanto riguarda il deposito sensoriale, l’informazione entra per la prima volta nel sistema della
memoria attraverso un organo di senso e viene immagazzinata nel primo deposito deposito di
memoria sensoriale).

Gli schemi possono influenzare i processi di memoria favorendo la selezione e l’organizzazione delle
informazioni in entrata in una struttura sensata e in tal modo rendendo più accurata la rievocazione.
Bransford e Johnson utilizzarono la nozione di schema in un esperimento, in cui ai soggetti veniva
fatto leggere un brano, ad alcuni mostrando prima un’immagine inerente alla storia e ad altro
mostrandola dopo. Le esposizioni dei partecipanti che guardavano la figura del contesto appropriato
prima del brano, avevano dei risultati migliori e si ricordavano più cose rispetto agli altri riorganizzare
le informazioni disponibili quando devono essere rievocate. Gli esperimenti di Anderson e Pichert
dimostrarono che lo schema è responsabile del tipo di informazioni rievocato dai soggetti. I soggetti
ascoltavano lo stesso brano e veniva chiesto di ricordare le informazioni secondo un preciso punto di
vista (ladro, acquirente…). Allo scambio di ruoli erano in grado di rievocare informazioni che prima non
avevano assimilato e che sembravano essere state dimenticate nella prima rievocazione, il ricordo non
è una rieccitazione di tracce isolate, fisse e senza vita, ma una costruzione immaginaria costruita dalla
relazione del nostro atteggiamento verso un’intera massa di reazioni passate organizzate e verso
qualche dettaglio di rilievo che emerge sul resto, apparendo in forma di immagine sensoriale o in
forma verbale. Il ricordo non è quasi mai esatto.
La memoria può essere valutata in molti modi, principalmente in base alla modalità con cui viene
chiesto ai soggetti di recuperare l’informazione:
54
rievocazione libera: si riferisce a tutte le situazioni in cui il soggetto tenta di ricordare, mediante una
ricerca in memoria, l’informazione richiesta
rievocazione suggerita: situazione in cui il soggetto tenta di ricordare l’informazione richiesta in
presenza di un qualche suggerimento, per esempio ricordare tutte le parole associate a un
determinato termine
riconoscimento: costituisce una modalità di ricordo in cui un soggetto deve dire se un determinato
stimolo corrisponde oppure no a uno precedentemente memorizzato oppure se all’interno di una lista
di stimoli vi è quello in precedenza memorizzato.
L’oblio è l’impossibilità o l’incapacità di recuperare una qualche informazione della memoria le cause
sono diverse:
tempo che intercorre tra un il momento dell’acquisizione di un’informazione e il momento in cui tale
informazione deve essere recuperata. Ebbinghaus calcolò quanto tempo impiegava a riapprendere le
liste a livello di accuratezza precedente e osservò che tanto maggiore era l’oblio tanto più numerose
dovevano essere le prove di studio per il riapprendimento delle liste. La quantità decrescente delle
prove per il riapprendimento costruiva la misura del risparmio per il riapprendimento, più
precisamente la percentuale di prove di studio richieste in meno per riapprendere perfettamente il
materiale rispetto a quello che era stato richiesto nella fase di apprendimento. Il passare del tempo
potrebbe essere responsabile del decadimento della traccia mnestica ovvero di una progressiva
erosione dell’informazione che è stata memorizzata
L’interferenza: McGeoch e McDonald sostengono che se due informazioni entrato in contatto tra loro
nella memoria possono rendere meno accurato il ricordo di una delle due e questo effetto è tanto più
forte quanto più le due informazioni sono simili tra loro si possono osservare due modalità di
inferenza:
L’interferenza retroattiva: fa riferimento all’effetto inferente del materiale appreso successivamente
sul materiale che è stato appreso precedentemente e deve essere rievocato
L’interferenza proattiva: fa riferimento all’effetto inferente del materiale appreso in precedenza sul
materiale appreso successivamente e che deve essere rievocato. L’effetto dell’interferenza può
spiegare alcuni degli errori commessi da individui in sede di giudizio quando devono rendere una
testimonianza. Il fenomeno dell’interferenza è presente anche in campo pubblicitario, quando si
inserisce un messaggio all’interno di un programma televisivo di contenuto simile, verificando
un’intrusione reciproca di elementi determinando una “miscela”, il cui effetto è di determinare un
ricordo povero dagli elementi del messaggio che sono simili a quelli del programma. I magazzini di
memoria Segnali fisici -> sistemi sensoriali -> trasformazione per tradurre in un unico messaggio
(impulso nervoso) i diversi linguaggi sensoriali -> registro sensoriale (memoria sensoriale) che
memorizza caratteristiche fisiche e sensoriali con cui lo stimolo si rappresenta (es. visiva) ->
attribuzione di significato -> memoria a breve termine (MBT) -> memoria a lungo termine (MLT)
“sistema di magazzini”, per sottolineare il fatto che l’informazione, entrando nel sistema cognitivo,
passa da un magazzino all’altro per poter essere mantenuta in un qualche modo come informazione
permanente in questo tragitto l’informazione può subire perdite parziali o totali i magazzini sono tre e
si distinguono per capacità (numero di info che possono contenere) e durata(per quanto tempo
permangono nel magazzino) :
memoria sensoriale: capacità grandissima e durata brevissima (meno di un secondo) se le informazioni
non vengono passate nella MBT vengono perse
memoria a breve termine (MBT): capacità limitata e durata di circa 20 secondi, anche se può essere
allungata utilizzando la tecnica della ripetizione se voglio che le info vengano assimilate della MLT
devo utilizzare alcune tecniche memoria a lungo termine (MLT): capacità grandissima e durata
lunghissima
55
Memoria sensoriale
Deputato alla registrazione dell’informazione sensoriale e al suo interno si differenzia a seconda delle
modalità sensoriali con cui viene recepita l’info. Negli anni ’60 Sperling condusse delle ricerche volte a
esplorare il registro sensoriale della modalità visiva, che fu denominato memoria iconica. Si basa sulle
immagini recepite dall’organo della vista. Nel suo studio Sperling presentava a dei soggetti una
matrice alfanumerica per 50 ms e poi chiedeva loro di riportare quanti più elementi si ricordassero
(“resoconto totale”) in media i partecipanti si ricordavano quattro elementi. In un altro momento
utilizzò la tecnica del “resoconto parziale”. Egli chiedeva di rievocare gli elementi della riga segnalata
dall’emissione di un tono (di intensità diversa a seconda della riga) presentato dopo la scomparsa della
matrice. Con questa tecnica i soggetti riuscivano a rievocare gli elementi della linea indicata, ma
l’accuratezza dipendeva dall’intervallo tra la scomparsa della matrice e l’emissione del tono. Se il tono
viene emesso alla scomparsa della matrice i soggetti riportavano quasi la totalità corretta, mentre se
passava più di un secondo si ottengono gli stessi risultati del resoconto totale. Potenzialmente quindi i
soggetti erano in grado di ripetere tutti gli stimoli
Ne dedusse questi risultati:
Esiste un magazzino dove l’informazione visiva persiste per un certo periodo (meno di un sec)
Tale magazzino, o memoria iconica, è molto capiente
Con il passare del tempo l’informazione iconica diventa sempre meno leggibile. Ciò che
interessa dell’informazione viene passata alla MBT
Memoria a breve termine (Working Memory)
La memoria a breve termine è una memoria attiva, dove si elaborano I processi mentali coscienti.
Presenta 2 caratteristiche principali:
- Non può conservare molte informazioni contemporaneamente
- Le informazioni decadono nel giro di 15 – 20 secondi a meno che non si faccia qualcosa per
impedirne il decadimento
Se si presta particolare attenzione o se la si ripete, l’informazione verrà conservata per un tempo
indefinito.
Magazzino a capacità limitata e breve durata.
Studiata a seguito dell’articolo di Miller “The Magic Number Seven” (1956) dove lo studioso provò che
la capacità della MBT è di 7 item (+o- 2= da 5 a 9), indipendentemente dalle loro dimensioni.
La capacità della MBT è influenzata dalla capacità dei soggetti di raggruppare in pezzi, o ricodificare,
l’informazione in unità di livello superiore.
La capacità di costruire raggruppamenti consente di aumentare le capacità di contenimento
dell’informazione.
La MBT può migliorare se:
- È possibile la ripetizione
- Aumenta l’intervallo tra i messaggi
- Diminuisce la confusione tra i messaggi
- Si segmenta il messaggio
- Si minimizza l’informazione (conservare l’informazione riduce l’abilità nello svolgere altri
compiti)
- Si minimizzano le interferenze

L’efficacia dell’apprendimento e del recupero


L’efficacia dell’apprendimento dipende dalle risorse attentive a disposizione, dalla capacità di cogliere
56
gli elementi rilevanti dell’informazione, dalla scelta della strategia, dalle condizioni emoive in cui
avviene l’apprendimento.
L’efficacia del recupero è legata alla capacità di cogliere indizi, di creare associazioni, di impiegare
strategie di recupero complementari a quelle utilizzate in fase di codifica e dalla situazione emotiva
del soggetto.

Effetto primacy: data una lista di parole, è più facile ricordarsi le prime parole presenti sulla lista.
Effetto recency: data una lista di parole, è più facile ricordarsi gli element più recenti.

Modello di Baddaley
Ipotizzo che il limite degli elementi presenti nella lista di parole possa essere superato se si ricorre alla
tecnica del chunking, cioè riunendo I singoli item in un unico gruppo, o in più gruppi detti chunks, di
ordine superiore.
La capacità della memoria a breve termine dipende dalla natura dell’informazione che deve essere
ricordata.
La durata dell’informazione nella memoria a breve termine e la possibilità che sia passata, poi, nel
registro di memoria permanente, dipende anche dalla possibilità dell’individuo di reiterare
l’informazione, ossia poterla ripetere a livello subvocalico.
Distraendo i soggetti e impedendo loro di ripetere l’informazione che si vuole ricordare, la
rievocazione del maeriale appreso risulta compromessa.
Baddaley considerò che la memoria a breve termine ha un ruolo centrale nella molteplicità di compiti
differenti: tutti i compiti cognitivi coinvolti nel ragionamento, nella soluzione di problemi, nella
comprensione e nell’apprendimento.
Per Baddaley abbiamo:
- Ciclo fonologico, preposto al mantenimento dell’informazione. Il ricordo immediato di una lista
di parole risulta disturbato dall’esecuzione di un secondo compito verbale (come, per esempio,
ripetere una sequenza senza senso di parole)
- Taccuino visuo-spaziale è preposto al mantenimento dell’informazione sottoforma di
immagine. L’abilità dei soggetti ad apprendere parole mediante l’immaginazione è ridotta se i
soggetti devono svolgere contemporaneamente un secondo compito in cui è impegnata la
modalità visiva, mentre non lo è se devono compiere un compito di tipo verbale.
- Sistema esecutivo centrale: è un meccanismo che provvede al controllo dell’intero processo di
elaborazione delle informazioni e regola l’attività dei due magazzini di memoria. E’ coinvolto in
una molteplicità di compiti cognitivi di ordine superiore (pianificazione di attività, rioluzione di
problemi e la presa di decisioni).

Rappresentazione schematica:

57
Memoria a lungo termine
E’ l’ultimo componente del sistema sensoriale, quello che conserva tutte le informazioni che abbiamo
appreso, oltre alle regole per elaborarle.
È un magazzino in cui le informazioni assunte vengono mantenute in maniera permanente o, in ogni
caso, per un periodo molto lungo. Le informazioni immagazzinate possono essere di diversa natura.
I materiali nuovi devono essere codificati, strutturati ed interpretati per essere considerati.
Il recupero dell’informazione è un problema. Recuperare le informazioni dipende da come le si è
codificate.
Tanto immagazzinare,quanto richiamare informazioni, richiede tempo e fatica.
Quanto più un evento resta nella memoria a breve termine, tanto più saranno maggiori le possibilità
che passi nella memoria a lungo termine.
Quando ripetiamo un elemento di una informazione nuova, lo trasferiamo nella memoria a lungo
termine (memorizzazione).
Recuperare un’informazione dalla memoria a lungo termine, significa ritrasferirla nella memoria a
breve termine, dove possiamo affrontarla a livello cosciente.

E’ possibile differenziare la memoria in diversi sistemi specializzati:

Memoria fattuale: riguarda la descrizione di eventi o oggetti (ovvero le conoscenze su “che cosa è” un
determinato oggetto : Un tifone è, un computer è, le scarpe sono….)
Memoria procedurale: riguarda il modo in cui si fanno certe cose, ovvero le procedure alla base di ciò
che gli individui fanno con gli oggetti e per svolgere certi compiti. Si tratta di conoscenze tacite e
interiorizzate che l’individuo spesso non è in grado di descrivere verbalmente. Per esempio: andare in
bicicletta o guidare un’automobile.
Memoria semantica: riguarda l’immagazzinamento e il recupero di conoscenze che riguardano parole
e concetti, le loro proprietà, le relazioni reciproche.Informazioni che riguardano i concetti e le
categorie ma anche significati di simboli o relazioni logiche, per esempio: Acqua Ossigenata=H2O2; i
cani fanno parte della famiglia dei mammiferi. Fenomeno della “parola sulla punta della lingua” ossia
58
l’incapacità di individuare l’informazione ricercata, nonostante si ha la certezza ce l’informazione
esista all’interno del nostro magazzino di memoria ma il recupero risulta momentaneamente bloccato,
ricavando però delle informazioni parziali
Memoria episodica: si riferisce alla molteplicità degli eventi, delle azioni, delle esperienze che ci
vedono in una qualche misura protagonisti.
Livelli di elaborazione. Il modello dei livelli di elaborazione è stato proposto da Craik e Lockhart e si
basa sull’idea che la maggiore o minore capacità di memorizzare l’informazione dipende dal grado o
dal livello in cui avviene l’elaborazione dell’informazione stessa e può essere rappresentato nel
seguente modo: Input -> elaborazione strutturale -> elaborazione fonologica-> elaborazione
semantica L’elaborazione di uno stimolo implica l’estrazione dell’informazione da una serie di livello di
profondità crescente di analisi e che a ogni nuovo livello la quantità di informazione estratta è sempre
maggiore. Ciò si riflette sulla memorizzazione dello stimolo Strutturale: es caratteri minuscoli o
minuscoli di scrittura; fonologica es se la parola fa rima con qualcosa; semantica: es significato nella
frase

Memoria autobiografica ed errori di memoria


Tulving ha proposto una definizione particolare di memoria episodica, ovvero di eventi specifici che
una persona può ricordare, eventi che, tipicamente, si riferiscono a momenti specifici della storia
personale dell’individuo. Questa forma particolare della MLT viene denominata “memoria
autobiografica”, ovvero una forma di particolare mantenimento di informazioni relative a fatti
personali che consentono di riconoscere familiari, amici, conoscenti.
La memoria autobiografica mantiene anche le informazioni relative a quello che un individuo ha
appreso a scuola (per esempio le voci lessicali, matematica, lettura…).
Le conoscenze relative alla memoria autobiografica possono andare perdute, pur mantenendo intatta
la memoria semantica. Per esempio uno affetto da amnesia post incidente, può distinguere molto
bene il tempo per mezzo di orologio e calendario, ma non è in grado di dire cosa dovrebbe fare il
giorno seguente.
La memoria autobiografica può andare perduta anche in maniera selettiva; possono essere
dimenticati eventi che sono stati esperiti dall’individuo nei primi anni di vita. In questo caso si parla di
“amnesia infantile”, che si manifesta come perdita di ricordi relativi alle esperienze fatte dagli individui
nei primi cinque anni di vita. Questa amnesia infantile viene spiegata nei termini dell’incapacità dei
bimbi più piccoli di codificare un evento in una modalità tale che costoro possano essere in seguito
consapevoli che quell’evento è stato esperito in precedenza.
Le memorie autobiografiche possono essere inaccurate in alcuni particolari, ma accurate per quanto
riguarda le conoscenze di base relative agli eventi ricordati. Spesso le memorie autobiografiche si
rivelano delle interpretazioni piuttosto che delle vere e proprie registrazioni di eventi.
Con Flash di memoria, si fa riferimento al fenomeno in cui i ricordi solitamente di eventi sorprendenti
e di grande impatto emotivo vengono conservati nel tempo, in modo quasi fotografico. Gli individui
sono in grado di dire il luogo in cui si trovavano quando si è verificato l’evento, quello che stavano
facendo e la persona che ha recato loro la notizia, il loro stato d’animo… informazioni che non
normale processo di memorizzazione andrebbero perse Errori nel recupero delle informazione ella
memoria a lungo termine costituiscono un fenomeno comune delle esperienze quotidiane,
soprattutto per via di introduzione di informazioni fuorvianti prima della rievocazione. Tali
informazioni, che danno origine alle “false memorie”, possono contaminare la memoria anche in
maniera del tutto involontaria Addirittura i risultati di uno studio, dimostrarono che una falsa evidenza
volta a sostenere l’incriminazione di una persona, può indurre la gente ad accettare la colpa di un
crimine che non ha commesso sviluppando dei ricordi a sostegno del proprio senso di colpa.
59
Riguardano spesso eventi dell’infanzia. Le false memorie si formano in seguito al verificarsi
concomitante di una serie di fattori, per esempio pressioni sociale

Memoria prospettica
È costituita dalle informazioni che riguardano eventi, attività o azioni che devono essere fatte nel
futuro.
Se invece le informazioni riguardano il passato la memoria è definita retrospettiva.
La memoria prospettica implica di ricordare ciò che dobbiamo fare, ovvero la realizzazione di intenzioni
future.
I fallimenti della memoria prospettica sono di diversa natura:
- alcuni riguardano aspetti relazionali e possono essere fonti di imbarazzo o di conflitto per i
responsabili;
- possono coinvolgere l’efficienza lavorativa quando si verificano dimenticanze sul posto di
lavoro;
- possono riguardare il benessere delle persone con riflessi talvolta anche gravi sullo stato di
salute degli individui (per esempio dimenticarsi di prendere una medicina prescritta)

Perché dimentichiamo?
Sulle cause della perdita di informazione nella MLT si avanzano le seguenti ipotesi:

- mancato utilizzo di certi contenuti della memoria (teoria del disuso, decadimento della traccia)
- Impiego di strategie di recupero non congruenti con quelli con le quali è stata effettuata la
codifica
- Presenza di grande quantità di informazioni in memoria (teoria dell’interferenza)
- Condizioni emotive in cui è avvenuto l’apprendimento e /o avviene il recupero (blocco emotivo
/ rimozione)

I disturbi della memoria


I disturbi della memoria compaiono frequentemente nei casi di lesione cerebrale.
Einstein e McDaniel hanno esaminato le differenze tra due tipi di compiti in cui è coinvolta la memoria
prospettiva, un primo tipo su cui i compiti sono basati sul tempo (come ricordarsi di fare una
telefonata a una certa ora) e compiti basati sugli eventi (esempio ricordarsi di attivare l’allarme
quando si esce di casa). Problemi pratici relativi a come favorire la memoria prospettica. Si hanno
risultati più facilmente positivi quando, per esempio, si riesce a convertire un compito basato sul
tempo in compiti basati sull’evento (es. prendere un medicinale dopo il pasto). I problemi relativi alla
memoria prospettica possono essere di due tipi:
deficit quando si verifica l’incapacità totale a richiamare un’azione che si era stabilito di fare in un
preciso momento si possono manifestare degli errori nell’esecuzione di un’informazione, l’errore
tipico è l’absent minded che si manifesta quando è già scattata l’azione o si sta eseguendo l’azione
Amnesie
Un individuo che subisce un danno cerebrale (a causa di un trauma cranico, un infezione virale, un
ictus) manifesterà anche un deficit di memoria che nella forma più grave si presenta come sindrome
amnesica, deficit che va aldilà del normale disturbo di memoria. Tali deficit possono influenzare le
capacità percettive o attentive del paziente di percepire o ripercuotersi sullo stato emotivo.
Producono delle conseguenze sull’efficienza dell’apprendimento e sono responsabili di deficit di
memoria secondari (=che dipendono da problemi di diversa natura).
Con il termine di amnesia si indica la perdita della memoria.
60
L’amnesia si classifica prendendo come riferimento il momento in cui il danno cerebrale si è verificato.
Si parla di amnesia postraumatica quando il paziente ha difficoltà nel ricordare quanto egli fa nel
periodo di confusione. Chi ha subito il trauma dimostra confusione per quanto riguarda
l’orientamento spazio-temporale, ossia è incapace di ricordare il luogo fisico in cui si trova e ha
difficolta a collocare gli oggetti in una corretta dimensione temporale. Inoltre, presentano la tendenza
alla confabulazione, ovvero alla produzione verbale senza senso e al falso ricordo di avvenimenti e
fantasticherie.
Amnesia retrograda quando l’incapacità di ricordare riguarda gli eventi che sono accaduti prima del
danno cerebrale. Quando il paziente manifesta delle difficoltà a rievocare eventi immediatamente
precedenti all’incidente.
Il periodo interessato da questo tipo di amnesia dipende dalla gravità del trauma cranico e dal periodo
in cui è rimasto in coma il paziente. Alcuni processi interferiscono con il recupero dei vecchi ricordi.
Amnesia anterograda quando l’incapacità di ricordare riguarda eventi che accadono dopo che il danno
si è verificato. Quando il paziente manifesta difficoltà a ricordare fatti relativi al periodo
immediatamente successivo all’evento traumatico e ai nuovi apprendimenti.
Riguarda le difficoltà che il paziente incontra nel memorizzare i fatti correnti e i nuovi apprendimenti.

Come migliorare l’efficienza della memoria?


Gli individui possono aumentare l’efficienza della memoria o ridurre gli effetti dei limiti mnestici
facendo ricorso a:
Aiuti esterni, ovvero utilizzando degli strumenti. Per esempio utilizzano la registrazione di informazioni
su fogli di carta, computer ecc.
Aiuti interni, ossia su aiuti che si basano sul funzionamento dei principi cognitivi

Sono state individuate due grandi categorie di mnemotecniche:


1. Per facilitare l’organizzazione della memoria: sono volte a organizzare le informazioni in modo tale da
poterla ricordare più facilmente. Es: Metodo dei loci, che si basa sull’individuazione di un percorso
famigliare e nell’assegnare ai vari punti o luoghi del percorso un elemento da ricordare. Questo
metodo, come molti altri, si basa sulla capacità di immaginare dell’individuo Es2: Metodo delle parole
polo. Consiste nello stendere e apprendere una lista di parole in grado di evocare immagini e
associando a esse gli elementi da ricordare
2. Per facilitare la codifica delle informazioni: sono procedure che consento di generare rappresentazioni
facilmente memorizzabili.

RAPPRESENTAZIONE DELLE CONOSCENZE


Una rappresentazione mentale è qualcosa che sta per qualcos’altro. Qualsiasi rappresentazione può
essere concepita come un simbolo o come un segno che rappresenta un oggetto, un evento, un
comportamento, quando non sono presenti all’osservatore.
Quando la rappresentazione è a livello mentale, viene chiamata rappresentazione analogica, che
consente di mantenere e riprodurre nella mente le relazioni strutturali e le caratteristiche distintive di
ciò che viene rappresentato.
Il mondo esterno e le diverse situazioni possono essere rappresentati in forme simboliche, mediante
segni arbitrari e descrizioni.
Il dibattito sulla rappresentazione vede chi sostiene che questa possa essere:
Proposizionale
Immaginativa
61
La ricerca, in questo ambito, ammette forme differenti di rappresentazioni mentali e tali forme
possono essere utilizzate in maniera selettiva a seconda dei compiti cognitivi di cui necessitano gli
individui.

Le rappresentazioni si possono distinguere in 2 macrocategorie:


- Esterne: costituite da rappresentazioni pittoriche e linguistiche
- Interne: simboliche (a loro volta divise tra analogiche – immagini o modelli mentali – e
proposizionali ) e distribuite
Un simbolo rappresenta un significato. E’ legato a questo significato attraverso da una
relazione convenzionale di riferimento. I simboli sono manipolabili al posto dei significati.
Le rappresentazioni analogiche riproducono le relazioni strutturali e le caratteristiche distintive
di ciò che viene rappresentato come se si trattasse di una riproduzione fisica (es. La fotografia
del gatto siamese)
Le rappresentazioni proposizionali sono rappresentazioni astratte che non contengono le
caratteristiche fisiche di ciò che rappresentano (es. Descrizione di un gatto siamese)
Le rappresentazioni distribuite: nessuna unità singola veicola la conoscenza rappresentata.
Ciascuna unità contribuisce contemporaneamente alla rappresentazione di diversi significati.
Le conoscenze procedurali si riferiscono a come si fanno le cose, come si utilizzano gli oggetti o
come si possono raggiungere gli obiettivi (sapere come si usa una bicicletta o sapere cos’è una
bicicletta). Le informazioni procedurali sono rappresentate sottoforma di regole di produzione.

Il concetto di script (copione) è stato elaborato da Schanl e Abelson nel 1977. E’ uno schema
che desrive, in termini generali, come si fa qualcosa. Quindi, una rappresentazione mentale di
una procedura mentale e stereotipata (andare dal parrucchiere, cambiare una gomma bucata).
Molte informazioni non sono esplicite nella rappresentazione schematica e devono essere
inferite (desunte, arguite).

Immagini mentali
Secondo Kosslyn le immagini mentali sono una rappresentazione fondamentale, separata dalle
rappresentazioni proposizionali.
Secondo Shepard e Metzler le immagini mentali sono dinamiche. Le immagini mentali possono
essere manipolate.
Quando la gente manipola le rappresentazioni mentali, si comporta in modo tale da replicare
l’interazione che, generalmente, ha con il mondo reale.
Le immagini mentali sono una fondamentale forma di rappresentazione immagazzinata
separatamente rispetto all’altra modalità di rappresentazione proposizionale; sono generate in
un formato analogo alle nostre percezioni, e per questo hanno estensioni e risoluzioni limitate.
Le immagini mentali sono un valido supporto per il riconoscimento e per sperimentare,
ulteriormente, eventi passati.

Rappresentazione spaziale
Gli individui possono rappresentarsi le relazioni spaziali e vi sono delle strategie che
consentono loro di muoversi all’interno di queste rappresentazioni mentali.
Thorndike e Hayes-Roth sostengono che gli individui, per muoversi nello spazio mentale,
individuano 2 tipi di conoscenze spaziali:
- Route: si riferisce ai percorsi specifici necessari per muoversi da un posto all’altro(ad esempio
le indicazioni stradali). Fa riferimento ai percorsi e agli ambienti nei quali ci si muove e, per lo
62
più, si basa su informazioni di tipo verbale.
- Survey: basata su relazioni più globali tra indizi ambientali ed è caratterizzata da una
prospettiva dall’alto (andare dritto tenendo l’arena alle spalle). Privilegia riferimenti spaziali
globali e punti di orientamento fissi. Possono anche essere utilizzate rappresentazioni in
riferimento a informazioni relative a forma, colore, etc.

Rappresentazione dei significati in termini di concetti (categorie mentali)


La creazione di categorie ende equivalenti cose diverse, consente di raggruppare oggetti ed
eventi in classi e di rispondere ad essi in funzione della loro appartenenza ad una data classe
piuttosto che della loro unicità (Bruner, Goodnow, Austin).
La complessità ambientale ci ricorda che i colori percepibili sono 7 milioni, senza categorie
mentali in cui raggruppare i colori; non basterebbe tutta la vita per imparare i loro nomi.
Oggetti ed eventi nuovi sono riconosciuti perché vengono collocati in caegorie mentali già
esistenti nella nostra memoria.
L’organizzazione della memoria a lungo termine in categorie mentali si basa su 2 principi:
- Informatività: riconoscimento delle caratteristiche di esemplari diversi
- Economia cognitiva: riduzione delle differenze tra esemplari diversi

Secondo la teoria della Rosch e Mervis i concetti sono organizzati in base a 2 dimensioni principali:
- Dimensione verticale: gerarchica, riflette le relazioni di inclusione e si riferisce all’estensione di
una categoria:
o Categoria superordinata: animale domestico; categorie ampie perché comprendono le
altre, hanno pochi aggettivi perché gli esemplari al loro interno sono molto diversi
o Categoria di base: gatto / cane; hanno ampiezza intermedia, sono apprese per prime
dai bambini, presentano condivisione di caratteristiche e sono in equilibrio tra
informativa ed economia. Generalmente è la categoria più utile per la classificazione
degli oggetti. Universalmente le categorie base dovrebbero rappresentare la forma di
classificazione fondamentale nella percezione. Dovrebbero essere le categorie che I
bambini apprendono e usano per prime.
o Categoria subordinata: razza dell’animale; categorie molto ristrette, caratterizzate da
molti aggettivi perché le caratteristiche al loro interno sono molto simili
Secondo Collins e Quillian esiste una organizzazione gerarchica che sta alla base dei concetti.
Le reti semantiche funzionano secondo il principio della propagazione dell’attivazione. All’interno
della rete, le unità concettuali sono connesse.
La distanza tra unità esprime la forza della relazione semantica.
Unità concettuali vicine hanno una forte relazione semantica.
Unità concettuali lontane hanno una debole relazione semantica.
La percezione di uno stimolo attiva l’unità concettuale corrispondente; quell’attivazione si propaga
dal nodo iniziale e si espande costantemente, prima ai nodi fortemente legati al primo e
successivamente ai nodi più lontani. L’attivazione decresce mentre si propaga a nodi sempre più
lontani.

- Dimensione orizzontale: riflette le differenze tra categorie allo stesso livello. Fa riferimento alla
generalità di un concetto. Inoltre, distingue fra differenti concetti dotati della medesima
estensione. Le categorie mentali hanno una struttura interna graduata e contorni non ben
definiti.
Se analizziamo una striscia con tante sfumature di rosso, alcuni rossi saranno da noi considerati
63
esemplari corretti del concetto “rosso”, cioè saranno più rappresentativi di altri.
Non tutti gli esemplari di una categoria hanno lo stesso grado di appartenenza categoriale.
Esistono elementi centrali che condividono molte caratteristiche
Elementi periferici che condividono poche caratteristiche
Se, ad esempio, parliamo di frutta, gli elementi più tipici e rappresentativi possono essere
l’arancia, la mela, la banana, ma difficilmente, in prima istanza, ci vengono in mente il cocco,
l’avocado, etc.

Secondo la teoria del prototipo della Rosch, la struttura delle categorie mentali rispecchia la struttura
del mondo fisico. Gli oggetti del mondo non sono costituiti da insiemi casuali di caratteristiche;
alcune combinazioni di caratteristiche ricorrono più frequentemente di altre.
I concetti sono rappresentati dai prototipi. Il prototipo è l’esemplare più rappresentativo di una
categoria, reale o ipotetica.
Il prototipo condivide molte caratteristiche con gli altri esemplari della categoria e poche
caratteristiche con esemplari di altre categorie.
E’ molto probabile che un animale dotato di ali sia anche dotato di piume e sappia volare.
Le categorie mentali, però, non sono definibili in base a liste di caratteristiche.
E’ possibile riconoscere che alcuni esemplari appartengano alla medesima famiglia, anche se non è
possibile individuare le caratteristiche che ne determinano l’appartenenza.
Alcuni esemplari riuniscono un maggio numero di tratti caratteristici, tanto da essere percepiti come
gli esemplari più tipici della famiglia.
In sintesi possiamo dire che:
1. Le categorie mentali rispecchiano la struttura del mondo fisico
2. Non tutti gli esemplari di una categoria sono dei buoni esemplari
3. L’appartenenza categoriale è graduale
4. Le categorie mentali sono sfumate (alcuni esemplari centrali tipici e altri esemplari periferici)
5. Alcuni esemplari possono appartenere a più categorie
6. Le categorie mentali sono definite da prototipi, non da insiemi fissi di caratteristiche
7. I prototipi sono esemplari rappresentativi perché condividono molte caratteristiche con numerosi
esemplari della stessa categoria
8. La quantità di caratteristiche condivise determina la tipicità degli esemplari e la loro somiglianza
di famiglia.

La Rosch, studiando le categorie dei colori, ha proposto 2 principi che regolano l’uso che gli individui
fanno dei concetti:
- Il principio dell’economia cognitiva, che si riferisce al tentativo di bilanciare due tendenze
contrapposte:
1. Di usare le categorie in modo da massimizzare la quantità di informazioni che esse ci
forniscono. Questo scopo può essere raggiunto usando quante più categorie è possibile.
Tanto più grande è il numero delle categorie, tanto maggiore è la possibilità di differenziare
eventi diversi. Una delle ragioni per avere delle categorie è quella di ridurre la quantità di
informazioni con cui dobbiamo avere a che fare. Benché sia desiderabile discriminare
eventi diversi, è sicuramente desiderabile raggruppare gli eventi sulla base delle loro
somiglianze reciproche, tanto da poter considerare eventi diversi come esemplari della
stessa classe.
- Il principio della struttura del mondo percepito, si riferisce al fatto che particolari combinazioni
di attributi, ricorrono nel mondo più frequentemente di altre. Gli attributi di colore, forma,
64
numero sono ortogonali e cioè non correlati gli uni con gli altri. Se un oggetto è nero può anche
essere contemporaneamente un quadrato o un cerchio.

LA CATEGORIZZAZIONE
Bruner appartiene all’approccio classico: se dovessimo sfruttare appieno la nostra capacità di
registrare le differenze tra le cose e di rispondere ad esse in modo unico, ben presto saremmo
sopraffatti dalla complessità dell’ambiente circostante. Ma la creazione di categorie rende equivalenti
cose discernibilmente diverse, consente di raggruppare gli oggetti e gli eventi in classi e di rispondere
ad essi in funzione della loro appartenenza ad una data classe piuttosto che della loro unicità.
Tutti gli individui fanno uso di concetti. Raramente gli eventi vengono concepiti nella loro unicità.
Piuttosto, ciascun evento viene percepito come il rappresentante di una categoria.
Se un evento viene percepito come appartenente ad una categoria, quell’evento viene percepito
come un esemplare di un concetto.

Alcuni concetti (nell’approccio classico) possono essere costituiti semplicemente da una congiunzione
di attributi.
Alcuni concetti sono più complessi.
Per appartenere ad un concetto disgiuntivo l’oggetto deve possedere una qualsiasi di due classi di
attributi.
Per quanto riguarda i concetti relazionali, è la relazione tra gli attributi che determina la categoria di
appartenenza di un concetto.

Apprendimento di regole complesse


Reber e collaboratori, in una serie di esperimenti, hanno studiato il processo di apprendimento di
grammatiche artificiali.
Reber ha distinto tra:
- Apprendimento implicito
- Apprendimento esplicito

Il processo di acquisizione del linguaggio, non avviene per mezzo di un’educazione formale delle
regole grammaticali, ma l’apprendimento da parte dei bambini avviene senza sapere qual è questa
struttura, semplicemente ascoltando le frasi prodotte da chi ascoltano.

Natura dei concetti


Secondo Wittgenstein i membri di una categoria possono non avere in comune le stesse
caratteristiche. Gli attributi posseduti dai membri di una categoria costituiscono, invece, una
complicata rete di caratteristiche che si sovrappongono le une alle altre.
Questo aspetto rappresenta una parte di quello che si intende quando si fa riferimento alla nozione di
somiglianza di famiglia tra membri di un concetto.
I membri individuali di un concetto possono sfumare gli uni negli altri senza che il concetto medesimo
abbia confini precisi.

Barsalou: le categorie ad hoc


Le categorie ad hoc possono essere composte da membri che non hanno nessun attributo in comune
e possono non essere mai state pensate in precedenza.
Tali categorie sono create per servire agli scopi di una particolare circostanza.
Solitamente, quando gli individui vedono un oggetto, essi non pensano a tutte le categorie ad hoc alle
65
quali l’oggetto potrebbe appartenenre. Secondo la Rosch gli individui preferiscono classificare
inizialmente gli oggetti nei termini delle categorie base.
La capacità di classificare gli oggetti in modi diversi, nei termini delle categorie base e delle categorie
ad hoc, potrebbe rappresentare un aspetto importante del pensiero creativo. La capacità di percepire
queste nuove organizzazioni può essere necessaria per risolvere nuovi problemi o per affrontare vecchi
problemi in modo diverso.

I modelli cognitivi idealizzati di Lakoff


Gli individui dispongono di modelli cognitivi idealizzati che vengono modificati per adattarsi a
circostanze particolari.
Tali modelli non sono del tutto adeguati per descrivere il mondo reale e, per questa ragione, i sistemi
concettuali vengono modificati per meglio adattarsi alle condizioni nelle quali gli individui vengono a
trovarsi.
I sistemi concettuali umani possiedono dimensioni culturali e storiche che non possono essere
ignorate.

STEREOTIPI E PREGIUDIZI
L’utilizzo di stereotipo e pregiudizio riguarda, generalmente l’ostilità verso i gruppi etnici diversi dal
proprio o verso minoranze di vario tipo. Assistiamo continuamente a fenomeni nei quali stereotipi e
pregiudizi assumono una valenza negativa più evidente, andandosi a legare a gravi fenomeni di
razzismo e discriminazione.

PREGIUDIZI E STEREOTIPI IN AZIONE


Siamo portati a pensare che nella società moderna, caratterizzata dalla prevalenza della razionalità
tecnologica e dall’accettazione dei valori dell’uguaglianza, i pregiudizi e gli stereotipi siano destinati a
perdere gradualmente importanza. Ma se osserviamo i recenti fenomeni migratori dal Terzo mondo
verso i paesi più industrializzati notiamo che essi si sono semplicemente trasformati da espliciti a
impliciti, nascosti o apparentemente ragionevoli.

Cos’è il pregiudizio
Il significato etimologico del termine pregiudizio indica un giudizio precedente all’esperienza, emesso in
assenza di dati sufficienti, e per questo considerato errato, anche se l’errore non è conseguenza
necessaria della mancanza di dati. Il pregiudizio si riferisce non tanto a fatti o eventi, quanto a specifici
gruppi sociali; è di solito sfavorevole, nel senso che l’errore di valutazione tende a penalizzare che non
a favorire l’oggetto del giudizio e spesso non si limita alle valutazioni rispetto all’oggetto, ma tende ad
orientare concretamente l’azione nei suoi confronti. Bacone fornì una classificazione degli errori o
illusioni dello spirito (idola mentis) che allontanano dalla vera conoscenza del mondo e che devono
essere eliminati affinché lo spirito possa predisporsi come tabula rasa alla scrittura della realtà: - gli
errori tipici del genere umano (idola tribus): il bisogno di coerenza e uniformità, la tendenza a
immaginare cause finali per gli eventi, il lasciarsi influenzare dai dati più evidenti, scegliere i dati che
confermano le nostre opinioni, lasciarsi guidare da emozioni, speranze, timori, ecc. - gli errori
caratteristici del singolo individuo (idola specus): alcuni restano alla superficie delle cose, altri le
approfondiscono, alcuni preferiscono il nuovi altri il vecchio, alcuni cercano le somiglianze altri le
differenze, ecc. - gli errori che discendono dalle consuetudini di interazione tra gli individui, in
particolare dal linguaggio (idola fori): le parole possono diventare impedimenti alla vera conoscenza -
gli errori che derivano dalla tradizione e dalle false teorie del passato (idola theatri): le tradizioni
hanno la tendenza a imporre le proprie spiegazioni e solo il metodo scientifico può soppiantarle.
66
Cos’è lo stereotipo
Walter Lippmann ha introdotto il termine “stereotipo” nelle scienze sociali; il giornalista sostiene che il
rapporto conoscitivo con la realtà esterna non è diretto, bensì mediato dalle immagini mentali che
ciascuno si forma; tali immagini mentali hanno la caratteristica di essere delle semplificazioni spesso
grossolane e molto rigide, appunto gli stereotipi. Questo processo di semplificazione della realtà
avviene secondo modalità che sono stabilite culturalmente. Lo stereotipo rappresenta il nucleo
cognitivo del pregiudizio, ovvero l’insieme degli elementi di informazione in grado di sostenere e
riprodurre il pregiudizio.
Per capire le modalità concrete di funzionamento degli stereotipi sociali occorre tenere conto di
alcune variabili:
- il grado di condivisione sociale, ovvero la misura in cui una certa immagine negativa relativa a
un gruppo viene condivisa nell’ambito di una certa cultura
- il livello di generalizzazione, vale a dire il fatto di ritenere che le caratteristiche negative
attribuite al gruppo oggetto di stereotipo siano più o meno omogeneamente distribuite in quel gruppo
- il grado di rigidità degli stereotipi, se questi siano difficilmente mutabili in quanto
profondamente ancorati nella cultura o se siano facilmente eliminabili una volta individuate le cause.

Le diverse manifestazioni
Esistono tre questioni intorno alle quali si discute spesso quando si parla di stereotipi e pregiudizi:

- il livello di specificità di questi concetti, ovvero il fatto che essi possano essere usati per
descrivere fenomeni diversi, sia rispetto alla possibile distinzione tra i due processi (stereotipo o
pregiudizio), sia con riferimento ai diversi gruppi sociali cui essi si applicano (es. ebrei e immigrati)

- il nocciolo di verità di stereotipi e pregiudizi: si sostiene infatti che l’errore consista nel fatto di
esagerare alcuni tratti che però effettivamente caratterizzerebbero quei gruppi

- il complesso delle variabili di tipo sociale, economico, storico e politico che sono alla base della
discriminazione e dell’ostilità e il rapporto tra stereotipi e pregiudizi in quanto fenomeni psicoculturali.

La questione femminile
I pregiudizi e gli stereotipi di genere, tendono a penalizzare e discriminare le donne rispetto agli
uomini; sono ancora molto presenti, nonostante le battaglie per la parità dei sessi. La società
occidentale moderna può considerarsi come una società a predominanza maschile, basti osservare:
- la struttura dell’occupazione: la percentuale di donne occupate è più bassa di quella degli
uomini, e in particolare la loro presenza è marginale nelle posizioni di alta responsabilità; in compenso
su di esse grava la conduzione della famiglia secondo la classica divisione dei ruoli: all’uomo la
produzione e la competizione e alla donna la cura del focolare e la riproduzione della vita
- la pubblicità: la donna appare evidente nel ruolo di promotrice dei consumi familiari e di
sollecitazione erotica dei consumi tipicamente maschili. Nella televisione: per gli uomini è più
frequente il primo piano, che mette in risalto il volto e ciò che dice, per le donne il campo medio, che
sposta l’attenzione sull’intero corpo. Nel linguaggio: il genere maschile viene adoperato nelle
espressioni ambivalenti (fatta eccezione per i paesi di lingua anglosassone nei quali si usa
abitualmente la formula “he or she” e il suffisso “-person” piuttosto che “-man”). In altre culture
prevalgono usanze e codici diversi che penalizzano la donna negandole libertà, ruolo sociale e integrità
fisica (es. mutilazione degli organi sessuali). Un esempio è la condizione della donna nelle società
67
islamiche, dove è evidente una condizione di sostanziale inferiorità e di subordinazione al proprio
uomo-padrone. Per quanto riguarda gli elementi costitutivi degli stereotipi, le donne sono percepite
come più emotive, gentili, sensibili, dipendenti, poco interessate alla tecnica, curate nell’aspetto,
naturalmente disposte alla cura. Questo tipo di immagine risulta spesso condiviso anche da gran parte
delle donne.

Il pregiudizio etnico-razziale
L’ambiente etnico-razziale è quello in cui stereotipi e pregiudizi sono più diffusi: secoli di oppressioni e
discriminazioni, tensione epocale tra nord e sud del mondo, flussi migratori, l’intera nostra cultura è
permeata di un senso di superiorità nei confronti delle culture ritenute arretrate e meno civili. Agli inizi
degli anni ’60 un quarto della popolazione degli Stati Uniti si pronunciava per la segregazione razziale
nelle scuole e il 60% dichiarava che non avrebbe votato per la Presidenza un candidato nero. Oggi
pochi assumono in maniera esplicita posizioni di intolleranza razziale. Anche nel linguaggio il termine
“nero”, che aveva sostituito “negro”, è considerato inopportuno e si preferisce la locuzione “afro
americano”. La situazione odierna è tutt’altro che ottimale, il processo di integrazione è di fatto fallito.
Si è verificato un passaggio dalla forma esplicita che sosteneva attivamente il razzismo a forme
moderne (implicite), occulte di esclusione e ostilità.
Nuove forme di pregiudizio/razzismo sono:
- il razzismo simbolico: se siamo tutti uguali e ciascuno deve avere ciò che si merita in relazione ai suoi
sforzi, non è giusto che gli appartenenti a minoranze vengano aiutati nella competizione sociale
- il pregiudizio aversivo: l’individuo tende semplicemente a evitare il contatto con i “diversi” limitando
le interazioni o adottando, nel corso delle interazioni, condotte tali da mantenere la distanza
- il pregiudizio differenzialista: per salvaguardare la ricchezza delle diversità è indispensabile che esse
restino separate; ciò si traduce in una politica di netta chiusura alle immigrazioni.
Ma la forma in assoluto più diffusa e difficile da controllare è la distorsione nella percezione e nella
valutazione: un tipico esempio è la sopravvalutazione della presenza delle minoranze nella criminalità.
In realtà il solo fatto di sentire il bisogno di rilevare e comunicare l’informazione sull’appartenenza
etnica delle persone è indice di un’ingiustificata sopravvalutazione di questo tratto. Paesi come l’Italia
stanno conoscendo negli ultimi anni una crescente immigrazione dal Terzo mondo e dall’Est europeo.
Dato il mutato clima culturale è poco probabile un’ostilità aperta, tali sentimenti sono combattuti in
nome dei valori dell’uguaglianza e di una certa disposizione soccorrevole di antica matrice cristiana.
Tuttavia si può notare una decisa sopravvalutazione del fenomeno dell’immigrazione, sia dal punto di
vista quantitativo, sia con riferimento alle difficoltà che essa può porre alla nostra struttura sociale. Si
riscontra inoltre una tendenza ad attribuire la condizione di degrado in cui vivono gli immigrati non a
difficoltà materiali ma a scelte personali; una tendenza a sopravvalutare il ruolo che essi svolgono in
attività criminali, in realtà preesistenti e nella maggioranza dei casi dirette da italiani.

I caratteri nazionali
La presenza degli stereotipi appare evidente in un’altra espressione del pregiudizio etnico: i caratteri
nazionali, ovvero descrizioni sommarie delle diverse nazionalità tali da orientare le aspettative nei loro
confronti. I contenuti di tali stereotipi sono noti:
- tedeschi: rigidi, ostinati, conformisti, deferenti verso l’autorità, amanti dell’ordine e dell’efficienza,
sensibili alle ragioni del collettivo più che dell’individuo
- inglesi: riservati, controllati, formali, dotati di senso pratico e di humor, privi di calore umano, attenti
alle regole, individualisti e competitivi
- italiani: fantasiosi, simpatici, orientati alla comunità particolare come la famiglia piuttosto che al
collettivo sociale, incostanti, superficiali, spontanei, sinceri, preoccupati delle apparenze
68
- francesi: insofferenti all’autorità, narcisisti, arroganti, dotati di senso estetico, interessati alla
speculazione teorica più che all’esperienza, liberi nell’espressione delle emozioni
- americani: informali, spontanei, conformisti, subordinati, interessati ai valori dell’uguaglianza ma
anche molto competitivi
I contenuti degli stereotipi nazionali esprimono tendenze in una certa misura reali. Il problema è il
confine tra lo stereotipo come utile strumento di previsione e controllo e lo stereotipo quale
distorsione della conoscenza e ostacolo all’interazione.

L’antisemitismo
Una particolare tipologia di ostilità nei confronti di uno specifico gruppo sociale è quella contro gli
ebrei. Le caratteristiche del tutto peculiari di questa forma di pregiudizio, il suo intrecciarsi con i
processi storici e le orrende vicende della Shoà hanno marcato in maniera definitiva i rapporti tra
questo gruppo e il resto dei popoli. Nel corso dello sviluppo del fenomeno si può riconoscere una
continua interazione tra ragioni di tipo economico e politico e ragioni di tipo culturale e psicologico.
Una delle ragioni culturali dell’isolamento degli ebrei sta nel fatto che la loro precettistica religiosa si
estende ai più minuti aspetti della vita civile e dell’interazione, il che rende difficile una reale
integrazione con persone di religione diversa. Gli ebrei si autodefiniscono e sono definiti come gruppo
e si sono trovati a svolgere nell’ambito delle diverse società che li hanno accolti determinate funzioni
che hanno finito per rafforzare l’idea di gruppo distinto da specifici tratti. Com’è noto per molto
tempo le uniche attività ad essi consentite sono state il commercio e il prestito di denaro, attività
marginali e considerate di livello inferiore, ma che con il tempo hanno consentito loro di trovarsi in
una condizione di vantaggio. Da questo è derivato uno dei principali tratti dello stereotipo: l’amore per
il denaro che si traduce in avidità e speculazione. All’avidità si connette una generale tendenza alla
sopraffazione e al predominio sugli altri.
La forte identità collettiva è stata l’altro pilastro portante dello stereotipo negativo e dalla solidarietà
di gruppo sono stati fatti derivare altri tratti negativi come l’inaffidabilità politica, la naturale
propensione al tradimento e il rifiuto di partecipare alla difesa del paese di appartenenza.
A quest’insieme di tratti negativi si ancora un altro elemento ampiamente utilizzato per giustificare le
grandi persecuzioni: l’esistenza di un complotto universale che le diverse comunità ebraiche
sarebbero sempre sul punto di organizzare per impadronirsi del mondo intero. In appoggio a questi
tratti di contenuto prevalentemente sociale si è sviluppata la dimensione psicologia dello stereotipo
che comprende tratti come l’ostinazione, il pragmatismo e l’acutezza intellettiva e il vittimismo. Il
pregiudizio antisemitico non è stato distrutto dalla prova evidente degli orrori cui ha condotto, basti
pensare alle correnti revisioniste che tendono a sminuire la gravità di quanto è accaduto negli anni
dello sterminio, alla persistenza nel linguaggio, nei detti e nei luoghi comuni degli elementi dello
stereotipo, al riemergere della terminologia antisemita come offesa, ai gruppi di estrema destra che
recuperano i temi dell’antisemitismo e alle profanazioni di cimiteri ebraici e altri luoghi di culto. Le
marginalità sociali Oltre agli stereotipi e pregiudizi di grande impatto sociale, esistono molti altri
gruppi sociali rispetto ai quali questi vengono adottati, basti pensare alle appartenenze ideologico-
politiche o ai percorsi formativi e professionali. Alcuni di questi svolgono la funzione di anticipazione
della conoscenza sociale, altri hanno acquisito la valenza di vero e proprio pregiudizio negativo.

Giovani e anziani
In particolare ci si riferisce alle due fasce d’età opposte: giovani e anziani. I giovani sono considerati
avventati, irresponsabili, con poca voglia di impegnarsi, sognatori, generosi, conformisti, superficiali,
fantasiosi, coraggiosi, innovativi, con poca esperienza, presuntuosi, aperti e disponibili
all’apprendimento. Gli anziani sono considerati mentalmente rigidi, orientati al passato, senza progetti
69
per il futuro, poco disponibili all’innovazione, ostinati, collerici, suscettibili, poco adattabili, tendenti al
vittimismo, esigenti e in continua ed eccessiva richiesta di assistenza.
Si tratta di una condizione molto diversa da quella che altre società assegnano agli anziani in quanto
depositari di saggezza e di cultura.
Agli anziani finisce per essere applicato lo status sociale di categoria protetta, persone poco abili, poco
adattate e di scarsa utilità alle quali si deve rispetto e assistenza.

La disabilità fisica e mentale


La disabilità fisica e quella mentale presentano una grande differenza.
I disabili fisici godono a pieno dello status di categoria protetta con i vantaggi e gli svantaggi che da
essa derivano. Tra questi ultimi proprio il fatto di essere percepiti come categoria: oltre che poco abili
per definizione, i disabili vengono visti come psicologicamente fragili, emotivi, volubili, irascibili,
inaffidabili, e nell’interazione con essi si tende a manifestare imbarazzo che esprime in realtà il disagio
dovuto alla loro stessa presenza.
Il caso della malattia mentale risulta ancora più complesso in quanto alla non corrispondenza agli
standard di efficienza si aggiunge il fatto che questo tipo di invalidità ha rappresentato da sempre
qualcosa di misterioso e inquietante. Pur avendo conquistato lo status di malato e dunque di persona
bisognosa di cure, la sua malattia rappresenta un richiamo alle dimensioni più nascoste della
personalità, evocando la potenza dell’irrazionalità e il prevalere degli istinti; ciò che mette in ansia è
l’idea di non controllabilità e non prevedibilità.

Omosessuali e tossicodipendenti
Sono presenti stereotipi e pregiudizi nei quali spesso l’intenzione egualitaria non è salvaguardata
neanche a livello di dichiarazione di principio.
La maggiore accettabilità di questo tipo di pregiudizi deriva dal fatto che i comportamenti a loro
attribuiti sono in contrasto non solo con norme sociali ma anche con valori morali e precetti religiosi.
Si può osservare una grande variabilità di atteggiamento nel tempo e nelle culture: nel mondo classico
l’omosessualità era considerata una manifestazione ordinaria della vita affettiva, in grado di esprimere
le forme più alte di relazione tra individui; in diverse società anche moderne l’alterazione volontaria
degli stati di coscienza per mezzo di sostanze psicoattive è pratica comune e tollerata.
Un’accentuazione della possibile pericolosità sociale, espressa nel passato in termini di corruzione
morale, ha oggi trovato un nuovo terreno nei rischi connessi con la diffusione dell’Aids, da alcuni
considerata come una “giusta punizione”. Da questo aspetto sono derivate le gravi conseguenze per la
diffusione del virus; infatti nei primi anni la maggior parte dei contagiati si ebbe tra gli omosessuali, il
che contribuì a far considerare il fenomeno come limitato a quella categoria. Dal momento che anche i
tossicodipendenti costituiscono una categoria a grande rischio di Aids, la diffusione di questa malattia
ha contribuito a una sorta di sovrapposizione delle valutazioni e degli stereotipi che riguardano le due
categorie.
Tratti di personalità considerati tipici di queste persone sono debolezza psicologica e scarsa maturità
personale.

LE SPIEGAZIONI
Solo attraverso una corretta conoscenza del funzionamento di stereotipi e pregiudizi è possibile
riconoscerli e contrastarli nel miglior modo possibile.

Classificazione delle diverse spiegazioni


Una modalità per orientarsi tra le diverse interpretazioni è quello di individuare alcuni criteri
70
discriminanti:
- Ordinarietà o eccezionalità del pregiudizio, che vede opposte da un lato l’opinione che pregiudizi e
stereotipi si fondino su processi normali, tipici della natura umana e con i quali si deve imparare a
convivere, e dall’altro la convinzione che si tratti di fenomeni anormali che si sviluppano solo in
condizioni di patologia individuale o sociale e che devono quindi essere combattuti.
L’idea di naturalità nasce dalla constatazione della loro diffusione in tutti i tempi e luoghi e della
difficoltà di contrastarli; tuttavia la riconduzione a processi ordinari viene vista come se si ponesse
l’obiettivo di giustificarli, di considerarli inevitabili e di considerare normali anche le discriminazioni e
le oppressioni ad essi connessi.
Si oppone a questa concezione l’idea che gli stereotipi e i pregiudizi possano essere ridotti e controllati
proprio se ci si libera dalla convinzione che si tratti di qualcosa di caratteristico e inevitabile della
natura umana; il considerare questi processi eccezionali ottiene di circoscriverne la portata,
alimentando l’illusione che si tratti della responsabilità di pochi e di altri, fungendo da conforto per
quanti pensano a sé stessi come lontani dal profilo tipico di intollerante.
- Livello individuale o livello sociale di spiegazione dello stereotipo: da un lato si collocano le spiegazioni
che mettono l’accento sull’individuo, sui percorsi che possono averlo portato ad essere ciò che è, e in
tal modo vengono chiamati in causa la selezione naturale, i processi di funzionamento della mente, le
motivazioni, così che il problema del pregiudizio diventa quello di individuare e rieducare le persone
che ne sono più affette.
Dall’altro lato troviamo spiegazioni che spostano l’attenzione sulle interazioni tra gli esseri umani; si
collocano su questo versante le spiegazioni di tipo sociopolitico, fattori economici e i rapporti di
potere tra i gruppi sociali.

Le spiegazioni: Fondamento biologico dell’ostilità / Spiegazione evolutiva della cooperazione


Uno possibile modo per spiegare le basi ordinarie dei pregiudizi è quello di vederli come espressione
di una generica ostilità nei confronti di ciò che non si conosce, di diverso, tratto tipico di tutti gli
animali e risultato del processo di selezione naturale. Sarebbe, infatti, stata premiata dalla selezione
naturale la capacità di attacco o fuga nei confronti di essere viventi appartenenti a specie diversa. Con
lo stesso criterio si sarebbe sviluppato un istinto di aggressività nei confronti dei membri della stessa
specie. Ma dal momento che gli animali (e quindi gli uomini) non possono vivere in una perenne lotta
di tutti contro tutti, si sarebbe sviluppata la tendenza a vivere in armonia con un numero ristretto di
individui. Tale processo sarebbe tanto importante e tanto radicato nell’istinto che non si potrebbe fare
a meno di attivarlo, e sarebbe questa la ragione per cui capita spesso che in assenza di un nemico reale
si tende a crearsene uno in modo arbitrario.
Nell’ambito degli stessi orientamenti di studio che fanno riferimento alle basi biologiche del
comportamento umano si possono individuare spiegazioni che valorizzano al contrario, sempre con
riferimento alla selezione adattiva, la tendenza alla cooperazione e la disposizione positiva nei confronti
del diverso. Dalla selezione naturali si sarebbero sviluppati quindi due istinti apparentemente opposti:
quello di protezione e chiusura e quello di esplorazione e apertura. Il successo evolutivo dipenderebbe
dal loro corretto bilanciamento.

La necessità psicologica di semplificare il mondo


Le spiegazioni cognitive del pregiudizio sono molto più diffuse e fanno riferimento alle caratteristiche
proprie della mente umana, al modo in cui l’essere umano raccoglie ed elabora le informazioni del
mondo esterno.
Questo modo di vedere il pregiudizio ebbe inizio con l’opera dello psicologo Gordon Allport che
pubblicò il volume “La natura del pregiudizio”; uno dei primi capitoli si intitolava proprio “La normalità
71
del pregiudizio”, volendo indicare che il fenomeno si fonda su un’esasperazione di processi
assolutamente ordinari. L’idea di base è che il sistema cognitivo ha la necessità di ridurre e
semplificare la massa di informazioni e che lo strumento principale è il raggruppamento in categorie.
Applicata al mondo sociale, la categorizzazione porta a vedere gli altri in base ai possibili criteri in cui
sono raggruppabili, attribuendo poi ai singoli individui le caratteristiche che definiscono l’intera
categoria.
La differenza sostanziale tra l’uso delle categorie come strumento ordinario di classificazione del
mondo e la loro utilizzazione distorta nel caso di pregiudizi e stereotipi sta nel motivo per cui un
determinato tratto entra a far parte della categoria. Nel caso di stereotipi e pregiudizi si verifica
un’estensione dei requisiti di base che definiscono la categoria a requisiti del tutto accessori (ad
esempio è ragionevole aspettarsi da un ingegnere che conosca la matematica e che abbia quindi una
mentalità di tipo pragmatico e razionale; diventa un elemento di stereotipo il fatto di considerare per
questo tale persona scostante e non generosa).

Le inferenze
Nel rapporto con le persone noi abbiamo la necessità di poter fare il più rapidamente possibile delle
previsioni. Altrimenti, infatti, prima di capire che l’interazione con una persona sarebbe per noi
pericolosa, dovremmo di fatto averci a che fare, e questo non sarebbe utile. Per questo attiviamo un
processo di inferenza che ci porta a prevedere la corrispondenza tra certi tratti immediatamente
rilevabili e certe più nascoste caratteristiche soggettive; questo può indurci in errore, ma nel
complesso funziona come mezzo di orientamento delle scelte.

Percezione di omogeneità delle categorie sociali


Un processo ordinario che viene spesso esasperato nel caso di stereotipi e pregiudizi è il fenomeno
definito di accentuazione percettiva che consiste nella tendenza a percepire gli oggetti che sono inclusi
in una stessa categoria come più simili tra loro di quanto siano nella realtà. Pensiamo ad esempio alla
difficoltà che si ha nel distinguere dal punto di vista fisico individui che appartengono a un gruppo
etnico molto diverso dal nostro come i giapponesi.
Nel caso di stereotipi e pregiudizi tale forzatura dell’omogeneità di gruppo si estende anche a tratti
psicologici.

Appartenenza sociale, relazione tra gruppi e immagine di sé


Alcune spiegazioni ritengono che stereotipi e pregiudizi siano il risultato di speciali processi psicologici
che si attivano nel rapporto tra l’individuo e il suo contesto sociale, e che porterebbero a una tensione
tra il gruppo di appartenenza (in-group) e gli alti gruppi (out- groups).
Il principale riguarda l’effetto dell’appartenenza sociale nella formazione dell’identità.
Si definisce identità l’idea che ognuno ha di sé stesso, sintesi della propria storia personale, delle
opinioni circa le proprie capacità, aspettative sul futuro e convinzioni riguardo il proprio posto nel
mondo.
Essa è il risultato di un continuo processo di confronto sociale che avviene non tanto con gli altri
individui presi singolarmente, quanto coi i raggruppamenti in categorie sociali.
L’individuo tende ad applicare anche ai gruppi cui appartiene le tecniche di miglioramento
dell’autostima che abitualmente usa per sé stesso, strategia che viene definita favoritismo di gruppo:
considerare in modo più positivo ciò che riguarda il proprio gruppo e in modo più sfavorevole ciò che
riguarda altri gruppi.
Il favoritismo per l’in-group è stato oggetto di numerosi esperimenti.
I coniugi Sherif effettuarono degli studi con ragazzi che frequentavano campi estivi: i partecipanti
72
venivano divisi in gruppi in modo arbitrario, si usavano diversi accorgimenti per sottolineare la
divisione come, ad esempio, uno specifico colore. Questa semplice etichettatura era sufficiente ad
innescare una dinamica in-group/out-group, con evidenti atteggiamenti e comportamenti di ostilità
reciproca, creazione di simboli e codici in grado di rafforzare il senso di appartenenza e
sopravvalutazione dei risultati dei membri del proprio gruppo.
Un’altra nota serie di esperimenti è quella effettuata da Tajfel con i cosiddetti “gruppi minimali”: i
soggetti venivano divisi in modo arbitrario in due gruppi, e a ciascun soggetto veniva comunicata
l’appartenenza ma non la composizione del gruppo; a ciascuno era offerta la possibilità di decidere
con quale criterio andavano distribuite le risorse.
Tre strategie erano sottoposte a verifica: il massimo profitto comune, in modo che gli sperimentatori
elargissero la maggior quota possibile a tutti, il massimo profitto del gruppo di appartenenza e la
massima differenza tra il guadagno del proprio gruppo e quello dell’altro. Era la terza strategia a
prevalere: pur di tenere alta la differenza i soggetti erano disposti a compromettere non solo il
guadagno di tutti ma anche il guadagno possibile del proprio gruppo.
Altre ricerche hanno mostrato come la preferenza agisca in modo automatico, al di sotto del livello
della coscienza, orientando la percezione e la valutazione degli stimoli. In una di queste, ai soggetti
venivano presentate diverse parole positive o negative, e il loro compito consisteva nel decidere il più
rapidamente possibile di quale dei due tipi fossero. Prima di ciascuna parola veniva presentata per un
tempo brevissimo, non sufficiente al pieno riconoscimento un’altra parola che aveva a che fare con
appartenenze di gruppo (noi, nostro, essi, loro). Il tempo di decisione è più breve quando le parole
positive sono precedute da un pronome di in-group o quando parole negative sono precedute da un
pronome di out-group e più lungo nei casi inversi.

Appartenenza socioculturale e ostilità


Il cuore della spiegazione socioantropologica del favoritismo per il proprio gruppo è il nostro bisogno di
percepirci come parte di un insieme omogeneo di persone legate da scopi comuni, da una comune
visione del mondo, dagli stessi valori e dalla stessa concezione del bene e del male.
Sentirsi parte di una comunità significa dare e ricevere una costante conferma del proprio modello
culturale. Conseguenza di tutto ciò è la tendenza, pressoché universale, all’etnocentrismo: la propria
cultura di appartenenza considerata come il centro dell’universo, rispetto alla quale tutte le altre sono
considerate a priori come inferiori e potenzialmente pericolose, in quanto mettono in discussione
l’identità del gruppo e l’efficacia della sua visione del mondo. Una conseguenza dell’etnocentrismo è
“tirannia dei costumi”: vincolato alla propria cultura, l’individuo non può che comportarsi come essa
prescrive e pensare nel modo in cui il gruppo prevalentemente pensa.

La costruzione sociale del pregiudizio


Negli approcci che si definiscono costruzionisti la realtà è in qualche modo la sua rappresentazione: un
fatto è tale non per le sue caratteristiche intrinseche, ma perché qualcuno per scopi ben precisi e con
il consenso degli altri lo ha definito in quel modo.
Grande rilievo viene assegnato alle pratiche comunicative nelle quali stereotipi e pregiudizi prendono
forma.
La comunicazione è considerata non un semplice veicolo con il quale pregiudizi e stereotipi si
diffondono, ma bensì la loro sede propria e in definitiva la loro sostanza.
Due sedi vengono considerate cruciali: i mezzi di comunicazione di massa e la comunicazione
interpersonale quotidiana.

Cause eccezionali di stereotipi e pregiudizi


73
Il pensiero che stereotipi e pregiudizi siano da ricondurre a caratteristiche e processi anormali
presenta il rischio di una facile de-responsabilizzazione: una volta che abbiamo collocato noi stessi
dalla parte della tolleranza, ci è possibile considerare le nostre manifestazioni di ostilità come
comportamenti dovuti a ragioni oggettivamente valide. È ciò che accade nel cosiddetto pregiudizio
ragionevole, che si esprime con la formula “io non sono razzista, ma…” seguita da considerazioni
negative nei confronti di minoranze. Le minoranze come capro espiatorio
Alcune spiegazioni di tipo psicoanalitico della tendenza al pregiudizio fanno riferimento a difficoltà di
tipo quasi patologico: l’ostilità nei confronti delle minoranze viene vista come un mezzo attraverso il
quale l’individuo risolve i propri conflitti interni. La più nota, la teoria della frustrazione-aggressività
(Università di Yale) considera l’ostilità come una forma di aggressione verso un bersaglio sostitutivo,
con la quale l’individuo scarica un eccesso di tensione psichica accumulatasi in seguito alle frustrazioni
che subisce nella vita quotidiana. Si verifica quella che in psicoanalisi si chiama dislocazione
dell’aggressività: essa si dirige verso un bersaglio nei confronti del quale l’aggressione sia più semplice
che svolge quindi la funzione di capro espiatorio. Un altro tipo di spiegazione chiama in causa il
processo psicologico della proiezione che consiste nell’attribuire ad altri pulsioni e caratteristiche che
non si possono accettare come parte della propria personalità.

La personalità autoritaria
Un altro tipo di interpretazione dei pregiudizi chiama in causa tratti che renderebbero alcune persone
più inclini di altre a giudicare in modo distorto e sulla base di un’ostilità preconcetta, coloro che sono
diversi da sé: la cosiddetta personalità autoritaria. Questa sindrome si caratterizza per piena fiducia
nei valori tradizionali, conformismo, immagine negativa dell’essere umano con tendenza a vedere
dovunque pericoli e minacce, atteggiamento sottomesso nei confronti dell’autorità, ostilità nei
confronti dei gruppi esterni, dei devianti e dei marginali, eccessiva preoccupazione per la dimensione
sessuale, marcata rigidità mentale e scarsa tolleranza per ogni tipo di ambiguità. L’individuo debole si
identifica con il potere e cerca protezione in ogni genere di certezza.

Condizioni di conflitto e di confronto


La teoria del conflitto reale è tra le spiegazioni che fanno riferimento alle particolarità della situazione
sociale, una delle più note teorie che mette in correlazione diretta la tendenza al pregiudizio con la
competizione per risorse limitate e con il conflitto degli scopi perseguiti. Ad esempio stereotipi e
pregiudizi sono più forti tra popolazioni che per motivi storici e geopolitici si trovano a competere per
le risorse materiali. L’importanza della situazione sociale si esprime nel concetto di deprivazione
relativa secondo cui ciascuno valuta la propria situazione di vita comparandola con almeno tre punti di
riferimento:
1) la propria situazione precedente
2) la propria situazione ideale
3) ciò che accade agli altri

Quando la deprivazione relativa diviene più ampia si genera un forte disagio che tende a scaricarsi in
un conflitto avente come obiettivo non solo il gruppo sociale che viene ritenuto antagonista ma anche
altri gruppi più deboli.

LE STRATEGIE DI DIFESA
Il modo di abbassare i pregiudizi dipende in gran parte dal tipo di spiegazione di questi fenomeni:
- spiegazione di tipo biologico: tutto lo sforzo sociale è indirizzato a contenere l’istinto
74
- pregiudizio come prodotto di una personalità patologica: si cerca di individuare queste personalità e
rimuovere le cause prime della loro formazione tramite strumenti di rieducazione
- ruolo dell’identità sociale nella creazione dei pregiudizi: si punta a ridurre le esasperazioni della
conflittualità di gruppo
- ruolo centrale del conflitto e della competizione sociale: si mira ad una più equa distribuzione delle
risorse e ad una ridefinizione dei criteri di confronto sociale
- pregiudizio come risultato della costruzione collettiva dei significati nei processi di comunicazione:
l’impegno è indirizzato a rendere espliciti il meccanismo di produzione del pregiudizio in modo da
renderne consapevoli coloro che li usano. Le diverse spiegazioni e, dunque, anche le possibili strategie
che da esse derivano, non vanno intese come alternative, ma come complementari.

Riproduzione e modifica degli stereotipi


Uno degli aspetti distintivi degli stereotipi è la loro relativa rigidità, cioè il fatto che tendono a
rimanere invariati nel tempo e risultano difficilmente modificabili. Questa rigidità deriva dalla capacità
degli stereotipi di autoriprodursi attraverso diversi meccanismi; conoscerli è di grande utilità per la
programmazione degli interventi.

Tendenza alla conferma delle ipotesi


Non è possibile accostarci agli altri in maniera libera da ipotesi e aspettative, delle quali abbiamo
bisogno per poterci prefigurare il possibile svolgimento degli eventi. Queste ipotesi dovrebbero però
poi essere sottoposte a verifica nel corso dell’interazione, nel senso che l’individuo dovrebbe valutare
se le informazioni che provengono dall’effettivo svolgimento del rapporto smentiscono o confermano
le aspettative.
Senonché una volta formulata una certa ipotesi essa finisce per godere di consistenti vantaggi rispetto
alle alternative. Ciò avviene perché il processo di raccolta delle informazioni è condizionato dall’ipotesi
stessa: se ci aspettiamo che una persona abbia certe caratteristiche tendiamo a notare di più i
comportamenti coerenti con questa aspettativa. Per questo motivo un compito importante, negli
interventi miranti alla modifica degli stereotipi, è quello di fornire in anticipo uno schema di
interpretazione alternativo allo stereotipo stesso.

La profezia che si auto adempie


In alcune situazioni la riproduzione degli stereotipi avviene perché, interagendo con gli altri sulla base
delle proprie aspettative, si finisce per fare in modo che effettivamente essi rispondano a queste
aspettative, realizzando quello che viene definito il fenomeno della profezia che si auto adempie.
Le ricerche mostrano che un maggior effetto di autoadempimento si ha quando il soggetto bersaglio
ritiene di poter avere un qualche vantaggio dal suo adeguarsi alle aspettative, nell’opportunità di
compiacere il soggetto percipiete che di solito si trova in una situazione di maggiore potere sociale.
Uno degli ambiti in cui si è maggiormente studiato l’effetto di auto adempimento della profezia è
quello educativo, con particolare riferimento al rapporto tra aspettative degli insegnanti e rendimento
degli allievi. Le ricerche più note sono quelle condotte dagli psicologi Rosenthal e Jacobson, i quali
usarono per descrivere il fenomeno l’espressione effetto Pigmalione.
Un altro ambito in cui sono stati riscontrati i medesimi effetti è quello degli stereotipi di genere
sessuale. In molte ricerche si è potuto dimostrare che tanto gli uomini quanto le donne tendono a
comportarsi in maniera più conforme alle aspettative di ruolo sessuale quando si trovano a interagire
con persone che condividono in modo particolare quelle aspettative.
Dall’insieme delle ricerche derivano alcune indicazioni circa i fattori che possono esaltare o ridurre
75
l’effetto di autoadempimento. Un fattore decisivo è la consapevolezza del possibile effetto delle
aspettative, in modo da esaminare i propri comportamenti e modificarli di conseguenza. Dal punto di
vista di coloro che invece sono oggetto di stereotipi e pregiudizi è essenziale la presa di coscienza delle
proprie caratteristiche personali, e dunque della probabile non corrispondenza di queste ai tratti dello
stereotipo. Tuttavia tutto questo dipende dal contesto e dal rapporto di potere tra i soggetti coinvolti.
Le ricerche mostrano che un maggiore effetto di autoadempimento si ha quando il soggetto bersaglio
ritiene di poter avere un qualche vantaggio dal suo adeguarsi alle aspettative, nell’opportunità di
compiacere il soggetto percipiente che di solito si trova in una situazione di maggior potere sociale.

Strategie per la convivenza


La relazione con il diverso è fondata anche su altre basi che sono di natura non mentale, bensì sociale
e culturale.
Un esempio evidente del condizionamento ideologico e culturale delle interpretazioni e delle direttive
di intervento si può trovare osservando le strategie di relazioni interetniche considerate di volta in
volta più rispondenti all’ideale di uguaglianza e valorizzazione della dignità dell’uomo:
- strategia di assimilazione: tendenza del gruppo maggioritario a inglobare quello minoritario, facendo
in modo che esso rinunci alla sua differenza; è stata una delle strategie comuni negli anni delle
immigrazioni negli Stati Uniti, il cosiddetto movimento di americanizzazione.
- strategia di fusione: mescolare le diversità in un ipotetico crogiuolo (melting pot) dal quale ci si
aspetta che fuoriesca una sintesi superiori, migliore dei singoli componenti di partenza
- strategia di pluralismo culturale: mirare a mantenere le differenze, valorizzando ciascuna di esse in
quanto possibile arricchimento del patrimonio culturale complessivo, il quale trae la sua forza dal
confronto e dalla pacifica coesistenza di culture diverse. È quest’ultima prospettiva che si può
considerare oggi come la più efficace e produttiva, rispondente ai valori della convivenza e della
dignità della persona umana. Tuttavia essa si presenta difficile da applicare per diversi motivi: essa
richiede la convinzione della validità di ciascuna posizione, un esercizio continuo di tolleranza nella vita
quotidiana e un grosso sforzo di tipo istituzionale per adeguare le strutture della società alle esigenze
delle diverse culture. Si pensi ad esempio alla necessità di assicurare a tutte le culture e religioni
un’adeguata rappresentanza nella scuola. La strategia presenta inoltre alcuni rischi: - pregiudizio
differenzialista: il rispetto della differenza può tramutarsi in rifiuto di contatti - relativismo spinto: in
nome della validità autonoma delle singole culture si rinuncia a porre alcuni valori come assoluti. Ciò
diventa un problema nel caso di valori fondamentali come il rispetto della vita, della libertà e della
dignità.

Progettare una buona interazione


Uno dei fenomeni che occorre tenere presente è quello relativo a ciò che accade quando due o più
gruppi entrano in contatto. La strategia di intervento più diffusa è quella di favorire il contatto tra i
diversi. Questa strategia si basa sulla convinzione che stereotipi e pregiudizi derivino da
un’insufficiente conoscenza dell’altro, il quale viene percepito erroneamente come troppo diverso da
sé. Sono basati su questa convinzione tutti gli interventi che puntano alla de- segregazione: rompere le
barriere sia giuridiche che culturali.

Tuttavia in alcuni casi il contatto ha avuto come esito non una diminuzione, ma addirittura un
aumento dell’ostilità reciproca.
Il contatto non è sufficiente, è necessario che esso avvenga in particolari condizioni:
- i soggetti devono disporre in anticipo di un quadro interpretativo, il quale deve essere il più possibile
realistico e non tendere a occultare le differenze, ma piuttosto a fornire spiegazioni alternative allo
76
stereotipo
- l’interazione deve essere sufficientemente lunga e approfondita
- l’interazione deve essere soddisfacente, ovvero apportare elementi informativi positivi che rendano
gratificante il rapporto
- il rapporto con il diverso deve essere di tipo cooperativo, spesso solo con un impegno comune verso
uno scopo comune è possibile rendersi conto delle qualità reciproche
- i soggetti in interazione devono avere uno status simile, vale a dire che non devono esistere evidenti
disparità in termini di potere
- è fondamentale il supporto istituzionale e culturale: le esperienze di contatto non possono essere
degli episodi isolati, in quanto l’individuo lo vivrebbe come delle eccezioni rispetto a una norma che è
quella dell’esclusione Ignorare o rispettare le differenze? Occorre tenere conto della necessità di ogni
individuo di riconoscersi in un gruppo, ovvero del bisogno di identità sociale.
Una strategia molto comune negli Stati Uniti è la cosiddetta prospettiva colour-blind (cieca al colore)
che consiste nell’ignorare deliberatamente ogni differenza tra gli individui, trattando tutti esattamente
allo stesso modo a prescindere dalle appartenenze e dalla provenienza sociale. Questa strategia
presenta però alcune difficoltà: occorre ricordare che il confronto tra le diverse appartenenze non
avviene di solito su un piano di parità, la minoranza si trova quasi sempre in una posizione sociale
inferiore e il trattamento totalmente egualitario finisce per ratificare tale inferiorità, in quanto non
tiene conto della storia personale dei singoli. Inoltre questa strategia non tiene conto che l’individuo
ha di fatto bisogno di riconoscersi in un sistema di appartenenze, il quale implica una valorizzazione
positiva delle proprie radici e un confronto sistematico con gli altri.
Una soluzione migliore è quella di perseguire insieme sia l’obiettivo della pariteticità che quello del
rispetto della differenza.
Una strada può essere quella di individuare diverse dimensioni lungo le quali effettuare il confronto:
un gruppo è migliore in alcuni aspetti, mentre l’altro è migliore in altri aspetti che non entrano in
conflitto con i primi.
Il requisito primo è una disponibilità alla tolleranza.
Un vantaggio di questo tipo di strategia consiste nella più ampia generalizzabilità delle esperienze
positive. Infatti un problema che si verifica spesso è il fatto che si tende a circoscrivere l’esperienza
positiva, considerando le persone con cui si è interagito come delle eccezioni rispetto al loro gruppo,
lasciando così inalterato lo stereotipo negativo.

LE ORIGINI E IL FUNZIONAMENTO DEL LINGUAGGIO


Il linguaggio è la capacità di utilizzare un codice per esprimere, comprendere, comunicare e
rappresentare il mondo e le idee sul mondo attraverso un sistema convenzionale di segni arbitrati.
Un sistema combinatorio, discreto e arbitrario in cui è possibile ottenere un numero infinito di parole
e frasi complesse.
- Combinatorio indica che ognuna delle infinite combinazioni ha un significato diverso che può essere
previsto dai significati delle sue parti e dalle proprie regole e principi alla base del loro ordinamento
(proprietà costruttiva)
- Discreto indica il carattere digitale del linguaggio in cui il numero delle frasi o delle parole è infinito
perché è possibile riorganizzare gli elementi discreti in ordini e combinazioni particolari (produttività
linguistica)
- Arbitrario si riferisce all’arbitrarietà dell’attribuzione del significato alle parole

Le origini
Il linguaggio, dal momento della nascita, accompagna la vita di un essere umano in ogni suo istante,
77
tanto nelle relazioni con gli altri, quanto nella dimensione della nostra interiorità. Da questo punto di
vista il linguaggio appare come un qualcosa di ovvio, di banale, di congenito, di intrinseco alla nostra
natura, come il nutrirsi o il respirare. Il linguaggio sembra essere un qualcosa che fa parte dell'essenza
stessa dell'essere umano. Se però volgiamo lo sguardo alla nostra storia evolutiva, ci accorgiamo che la
parola è una conquista abbastanza recente nella storia dell'umanità. Molto spesso si cade nell'errore
di credere che la cultura sia un prodotto della parola articolata, ma la cultura è molto più antica della
parola.
Il linguaggio, così come lo intendiamo oggi, quasi sicuramente si è sviluppato con la nostra specie,
Homo sapiens, e, molto probabilmente, in un momento già avanzato della nostra vita sul pianeta. Si
considera che il ramo evolutivo che ha portato alla comparsa di Homo sapiens si sia separato da quello
degli scimpanzé almeno sei milioni di anni fa; per un periodo di tempo che ci è difficile anche solo
concepire, nella vita dei nostri antenati il linguaggio, semplicemente, non esisteva. In principio non era
il verbo, ma il silenzio. Prima dell'emergenza della capacità linguistica, gli ominidi probabilmente
comunicavano con l'aiuto della gestualità. L'origine del linguaggio sembra risalire ad un periodo in cui
l'uomo aveva già perfezionato la stazione eretta e aveva liberato le mani dall'uso della locomozione,
mani che, tra le altre cose, servirono per arricchire il significato dei gesti combinati con suoni molto
rudimentali e che ancora non costituivano una forma di linguaggio. Molto probabilmente, in quel
periodo l'uomo disponeva già di capacità cognitive e corticali mature per il controllo dell'articolazione
e aveva già sviluppato quelle funzioni indispensabili per l'acquisizione e la memorizzazione di uno
strumento nuovo, ma altamente funzionale per la nostra sopravvivenza, che era la parola.
Nell'arco temporale compreso tra sei milioni di anni fa e l'emergenza delle prime forme di
comunicazione verbale, si sono sviluppate le caratteristiche anatomiche e cognitive necessarie al
linguaggio. Allo stato attuale delle conoscenze sembra però molto difficile poter stabilire esattamente
quando questa facoltà sia nata nell'uomo. Una via non certo più agevole ma che, se non altro, è
oggetto di studio di varie discipline, è quella che indaga da quale forma ancestrale abbia avuto origine
il linguaggio. Questo perché, una volta trovata l'origine, sarà più facile risalire alla nascita.
Uno dei grandi enigmi nella storia evolutiva dell'umanità è, infatti, come sia apparso il linguaggio.
Prima ancora di Charles Darwin e dello studio dell'evoluzione delle specie, la questione dell'origine del
linguaggio e del suo ruolo nel pensiero furono oggetto di indagine e riflessione a partire almeno dai
testi greci classici.
Fino al XIX secolo vi fu un proliferare di teorie riguardo alle possibili origini del linguaggio; una
speculazione che abbracciava tanto le discipline umanistiche quanto quelle scientifiche, finché, nel
1866, la Société de Linguistique di Parigi proibì, nel suo statuto, ogni discussione in materia. La ragione
di tale divieto va fatta probabilmente risalire al fatto che la maggior parte delle teorie proposte erano
pure supposizioni che non trovavano la minima verificabilità nell'evidenza empirica. A partire dalla
seconda metà del Novecento, l'interesse per la genesi del linguaggio rinasce, stimolato dai progressi
paralleli dell'antropologia e della linguistica. Oggi, grazie soprattutto alle conquiste della biologia, della
genetica e delle neuroscienze, siamo riusciti a fare luce su gran parte di ciò che, neanche due secoli fa,
appariva oscuro e impenetrabile.
Ci stiamo avvicinando, come mai prima, a comprendere come, quando e perché nella linea evolutiva
umana si sia sviluppato il linguaggio come oggi lo conosciamo.

Modelli interpretativi
Le difficoltà metodologiche che deve affrontare la ricerca sull'origine del linguaggio sono direttamente
condizionate, da un lato, dal dibattito teorico riguardo la natura biologica della capacità linguistica
umana, dal momento che non esiste, su questa tema, un consenso evidente. Dall'altro lato, qualunque
lavoro che si occupi dell'evoluzione del linguaggio deve pronunciarsi riguardo l'esistenza di entità
78
prelinguistiche e linguistiche di cui non esistono evidenze materiali. Da ciò consegue che ogni
conclusione su questo fenomeno sia il risultato di affermazioni costruite a partire da deduzioni e
ipotesi comparative, spesso basate su dati archeologici o resti fossili non linguistici, la cui validità può
risultare, in molte occasioni, discutibile.
Un primo punto di controversia è rappresentato dal modello evolutivo che ha caratterizzato
l'emergenza del linguaggio. A riguardo sono stati proposti due modelli generali differenti. Le tesi
“discontinuiste” propongono un tipo di evoluzione a mosaico, distinguendo differenti componenti
costitutive del linguaggio (meccanismi auditivi, meccanismi cerebrali, meccanismi articolatori), il cui
sviluppo sarebbe avvenuto secondo vari gradi di continuità. Al contrario, i sostenitori delle tesi
“continuiste” optano per uno sviluppo unico e continuo del linguaggio.
Una seconda questione di grande rilevanza è costituita dal problema del tempo evolutivo che ha
marcato l'apparizione del linguaggio. Alcuni autori propongono una evoluzione graduale, risultato di
una serie di cambiamenti minori ma cumulativi, come conseguenza di un meccanismo selettivo che
opera su ogni componente del linguaggio.
Per altri, la natura stessa della grammatica universale, così come è stata descritta dal linguista
americano Noam Chomsky, impedirebbe l'esistenza di stadi intermedi tra una sintassi di tipo non
combinatorio e il linguaggio umano, motivo per cui il passaggio a quest'ultimo sarebbe stato unico.
Un'altra problematica particolarmente importante è quella che riguarda la natura del meccanismo
evolutivo che ha dato origine al linguaggio. Le tesi non gradualistiche sostengono che il linguaggio sia il
risultato di un exattamento, cioè il prodotto di un processo evolutivo differente, in cui un insieme di
caratteristiche dapprima scaturite in un contesto vengono impiegate successivamente in un altro per
soddisfare una funzione differente. In questo caso, il linguaggio sarebbe il risultato di una
riorganizzazione in chiave linguistica di aree cerebrali dapprima coinvolte nel controllo di sequenze di
movimenti.
In opposizione a questo modello si trovano coloro che sostengono che sia l'adattamento il
meccanismo evolutivo che meglio spiega l'apparizione del linguaggio. In conseguenza della sua
evoluzione adattativa, il linguaggio si rivelerebbe come una struttura eterogenea che si comporta
come un'unità funzionale, frutto della selezione naturale. Il vantaggio, dal punto di vista evolutivo, del
linguaggio come adattamento sarebbe la possibilità di «comunicare strutture proposizionali tramite un
canale che opera in modo sequenziale, facendo corrispondere significati a suoni pronunciabili e
recuperabili, cosa che permette all'essere umano di acquisire e scambiare informazioni, riguardo
l'ambiente esterno e il proprio stato interiore, e rispondere ai cambiamenti dell'ambiente senza
necessità di sviluppare nuovi caratteri adattativi mediante la mutazione e la selezione, un processo
evolutivo molto più lento».
Nella maggior parte dei casi, la scelta tra una o l'altra delle opzioni proposte per spiegare l'origine e lo
sviluppo del linguaggio umano dipende, in pratica, dall'impostazione linguistica teorica assunta dal
ricercatore nell'affrontare la discussione e non tanto dall'analisi delle evidenze empiriche di tipo
paleontologico o anatomico, la cui interpretazione non risulta quasi mai unanime.

Definizione e classificazione
Fino a 25 anni fa, le conoscenze sulle basi neurali del linguaggio derivavano principalmente dagli studi
di correlazione tra deficit e lesione nei pazienti colpiti da ictus, dai dati elettrofisiologici degli
elettroencefalogrammi e dalle registrazioni intracraniche durante gli interventi chirurgici.
Il modello classico di concepire la relazione tra cervello e linguaggio ha dominato gli ultimi 100 anni a
partire dagli studi di Broca (1861), Wernicke (1874) e Lichteim (1885).
Questo modello (Wernicke-Lichteim) che descrive una connessione tra la corteccia inferiore frontale
sinistra e la regione temporale posteriore mediante un fascicolo arcuato ha avuto negli anni una forte
79
influenza nelle discussioni sui correlati neurali del linguaggio.
Attualmente lo sviluppo di nuove tecnologie di neuroimaging ha rivoluzionato le nostre conoscenze.
Il linguaggio è caratterizzato da differenti componenti e ognuna di queste può essere valutata in
comprensione e produzione:
- Fonetica e fonologia
- Semantica
- Morfologia
- Sintassi
- Lessico
- Pragmatica
- Metacomponenti.

La fonetica
Analizza e classifica i suoni prodotti e percepiti dagli esseri umani (i foni) nel loro aspetto fisico

La fonologia
Studia il modo in cui i suoni si comportano sistematicamente in una data lingua. L’unità linguistica
oggetto di studio è il fonema, cioè la più piccola particella nel linguaggio che produce distinzioni di
significato (es. rana/lana). Il sistema fonologico è l’insieme dei suoni di una data lingua e delle regole
che indicano come i suoni si combinano in quella lingua.

Morfologia
Studia la struttura della forma delle parole, cioè come le parole cambiano forma per esprimere
funzioni diverse (es. coniugazione per il verbo, declinazione per nome e aggettivo).

Sintassi
Studia le regole che governano il modo in cui le parole si compongono per formare le frasi di una
lingua. Le parole vengono combinate tra di loro in frasi attraverso delle regole specifiche di ogni
lingua. Le regole di combinazione delle parole costituiscono la sintassi della lingua.

Semantica
Studia i significati degli elementi del linguaggio (parole, frasi, discorsi).
Nomi, verbi, avverbi, aggettivi sono termini dotati di contenuto, che hanno almeno due tipi di
significato. Possiamo distinguere tra un significato denotativo e uno connotativo.
Il significato denotativo di una parola si riferisce al concetto che la parola esprime, ed è ben
rappresentato dalla definizione che ne viene data nel vocabolario.
Le parole hanno spesso molti significati che possono essere più o meno adeguati a seconda del
contesto in cui vengono usate le parole stesse.
Alcune parole sono relativamente libere da ambiguità, altre sono particolarmente ambigue (es.
generale, marcia). In genere, il contesto della conversazione ne chiarisce il significato appropriato.
Il significato connotativo si riferisce agli aspetti affettivo-emotivi legati alla parola. Es. la parola
comunista è positiva per alcuni e negativa per altri. Anche il significato connotativo può variare a
seconda del contesto.

Lessico (vocabolario)
L’insieme delle parole di una lingua. Può essere passivo (comprensione) o attivo (produzione).
Comprende probabilmente un magazzino delle forme uditive e uno delle forme visive delle parole.
80
La pragmatica
Studia la funzione comunicativa del linguaggio e il modo in cui le persone usano il linguaggio nelle
interazioni sociali. Ha forti connessioni con la semantica e con abilità extra-linguistiche quali le
competenze sociali, le abilità inferenziali, la teoria della mente.

Le metacomponenti
Le competenze metalinguistiche riguardano le varie componenti del linguaggio. Consistono in
conoscenze esplicite o abilità di manipolazione deliberata delle caratteristiche delle unità linguistiche.
La metafonologia (consapevolezza fonologica) consiste nella capacità di riconoscere, discriminare e
manipolare i suoni che compongono le parole. Particolarmente importante per l’apprendimento della
letto-scrittura.

Cenni storici
Le prime ricerche di correlazione tra struttura cerebrale e linguaggio sono state avviate dal chirurgo
francese Paul Broca. Broca (1861), in due soggetti che avevano perso la capacità di esprimersi
verbalmente ma non di esprimersi a gesti e che comprendevano quanto gli veniva detto, scoprì una
lesione distruttiva nella parte posteriore della terza circonvoluzione frontale dell’emisfero cerebrale
sinistro. Questa scoperta rappresentò la prima prova dell’esistenza, in quella zona della corteccia, di
un centro del linguaggio articolato. Il difetto funzionale fu denominato da Broca afemia, termine
sostituito successivamente da quello di afasia (afasia motoria o di Broca). In seguito Broca fu in grado
di osservare 8 casi analoghi, ciascuno dei quali presentava una lesione di quell'area. In tutti i casi la
lesione era presente nella metà sinistra del cervello. Questa scoperta condusse il chirurgo francese a
formulare, nel 1864, uno dei principi più famosi relativi alla funzione cerebrale: Parliamo con
l'emisfero sinistro!. Broca notò inoltre che tutti i pazienti con disturbi del linguaggio dovuti a lesioni
dell'emisfero sinistro erano destrimani e presentavano una paresi o una paralisi della mano destra. Le
ricerche di Broca stimolarono nuovi studi sulla localizzazione cerebrale, in particolare iniziarono ad
emergere le prime evidenze di correlazione tra aree cerebrali e comportamenti. Le successive ricerche
hanno progressivamente portato a una migliore definizione delle varianti di afasia e dei disturbi
correlati (agnosie, asimbolie), e a una descrizione particolareggiata dei corrispondenti focolai di
lesione.
In particolare, C. Wernicke (1874) portò avanti studi sull’afasia sensoriale e sull’afasia di conduzione.
L’afasia sensoriale secondo Wernicke era dovuta a un danno a livello di un’area localizzata nella prima
circonvoluzione temporale sinistra (parte posteriore del lobo temporale dove questo si unisce al lobo
parietale e a quello occipitale), a cui attribuì il significato di area uditiva del linguaggio; nella
descrizione dell’afasia di conduzione egli valorizzò l’importanza delle connessioni esistenti tra le
diverse aree implicate nella funzione del linguaggio e attribuì alla lesione di queste vie l’insorgenza di
un’afasia a corteccia cerebrale integra. L'afasia di Wernicke è caratterizzata da un disturbo della
comprensione del linguaggio e non della pronuncia delle parole (cioè un disturbo della recezione e non
della espressione). Mentre i pazienti di Broca capivano ma non riuscivano a parlare, quelli di Wernicke
parlavano ma non riuscivano a capire.

Wernicke creò una teoria del linguaggio unendo le due teorie più diffuse all’epoca sulle funzioni
cerebrali: quella dei frenologi (la corteccia è un mosaico di funzioni specifiche e anche gli attributi
mentali astratti sono localizzati in singole aree corticali altamente specializzate); quella dei campi
cerebrali associati (le funzioni mentali sono distribuite uniformemente nella corteccia cerebrale).
Wernicke fece uso sia dei suoi risultati che di quelli di Broca e di Fritsch e Hitzig per sostenere che
81
soltanto le funzioni mentali di base, in rapporto con attività percettive e motrici semplici, sono
localizzate in aree corticali ben delimitate. Le singole aree deputate a queste funzioni semplici sono
poi variamente connesse fra di loro. Perciò, secondo questa teoria le funzioni cognitive più complesse
prendono origine dall'interazione delle diverse aree cerebrali deputate alle attività percettive e
motorie semplici e sono mediate dalle vie nervose che le connettono. Wernicke, inoltre, mise in luce il
concetto che una stessa funzione può venir elaborata sia in serie che in parallelo in diverse regioni
cerebrali, mentre i singoli componenti specifici della funzione vengono analizzati in sedi particolari.
Wernicke fu il primo a formulare l'idea di elaborazioni a livello cerebrale svolte sia in parallelo che in
serie e ipotizzò che l'espressione del linguaggio necessita l'intervento di zone sensitive e motrici distinte.
Egli, inoltre, formulò l'ipotesi che l'area di Broca controlli il programma motorio che coordina i
movimenti della bocca necessari per dare vita a un discorso coerente, compito per il quale l'area di
Broca sembra avere una localizzazione particolarmente adatta, essendo situata subito davanti
dell'area motoria che controlla la bocca, la lingua, il palato e le corde vocali. Wernicke attribuì la scelta
delle parole, e cioè la componente sensitiva del linguaggio, all'area del lobo temporale che aveva
scoperto. Anche quest'area è localizzata nella migliore posizione possibile, in quanto è circondata dalla
corteccia uditiva e da altre aree corticali (dette cortecce associative) che integrano informazioni visive
ed acustiche in percezioni complesse.
Secondo questo modello, le percezioni uditive e visive relative al linguaggio si formano nelle rispettive
aree sensitive e associative e convergono quindi nell'area di Wernicke, dove vengono riconosciute
come linguaggio scritto o parlato. Senza questo riconoscimento, la comprensione del linguaggio è
perduta. Avvenuto il riconoscimento, la rappresentazione nervosa è inviata dall'area di Wernicke a
quella di Broca dove viene trasformata da rappresentazione acustica (o visiva) in linguaggio parlato (o
scritto). Se questa trasformazione manca, la capacità di articolare il linguaggio è danneggiata.
Usando questo modello Wernicke predisse un altro tipo di afasia che fu scoperto in seguito.
Questo tipo di afasia è prodotto da una lesione completamente diversa da quella presente nelle afasie
di Broca e di Wernicke: le aree recettive e motrici del linguaggio sono indenni, ma sono lese le vie che
le connettono, viene interrotto cioè il fascicolo arcuato che decorre nella regione parietale inferiore.
La sindrome che ne deriva, chiamata in seguito afasia di conduzione, è caratterizzata dall'uso non
appropriato delle parole (parafasia). I pazienti affetti da parafasia non sono in grado di ripetere
semplici frasi anche se possono capire le parole che hanno ascoltato e letto. Essi parlano in modo non
corretto, dimenticando di usare alcune sillabe e introducendo suoni sbagliati nelle parole. Essi si
rendono conto dei propri errori ma non sono in grado di correggerli.
Alcuni anni dopo, Kurt Goldstein (1934) studiando le lesioni cerebrali dovute a traumi cranici concluse
che i disturbi del linguaggio non possono essere attribuiti esclusivamente a lesioni specifiche ma sono
la conseguenza di alterazioni di quasi tutte le aree corticali. Goldstein utilizzando un approccio olistico,
affermava che l'entità del danno corticale, indipendentemente dal sito della lesione, determina nel
paziente una regressione da un linguaggio altamente simbolico ad un'espressione verbale semplice e
automatica: da un linguaggio astratto a quello più concreto caratteristico delle afasie.
Sul finire degli anni '50 Wilder Penfield (1959) ebbe la possibilità di stimolare la corteccia di pazienti
svegli, nel corso di operazioni cerebrali eseguite in anestesia locale per la localizzazione di focolai
epilettici. Per assicurarsi che le manipolazioni chirurgiche non compromettessero le facoltà del
linguaggio del paziente, Penfield stimolava la corteccia per individuare le aree la cui stimolazione
determina alterazioni del linguaggio. Le sue osservazioni, basate su quanto riferivano i soggetti,
confermarono in pieno le localizzazioni indicate dagli studi di Wernicke. Il fatto che i disturbi possono
essere provocati, sia pure con diversa frequenza per le singole varietà, stimolando una qualsiasi delle
aree citate, ha suggerito a W. Penfield l’idea che queste regioni siano unite da collegamenti trans e
sottocorticali, che le fanno diventare funzionalmente un tutto unico.
82
Correlati neurali - La percezione del linguaggio e le oscillazioni corticali
Il riconoscimento del linguaggio richiede l’analisi più o meno continua degli input in unità discrete che
entrano in contatto con le informazioni immagazzinate che supportano l’elaborazione delle parole. In
aggiunta all’analisi è necessario uno stadio di decodifica nel quale l’impulso è trasformato in
rappresentazioni che supportano la computazione linguistica. Sia gli studi di anatomia funzionale sia
quelli di neurofisiologia hanno tentato di delineare l’infrastruttura del language-ready brain.
L’anatomia funzionale dell’elaborazione dei suoni linguistici comprende un sistema corticale
distribuito che include regioni lungo almeno due flussi (circuiti) di elaborazione (Hickok and Poeppel).
Una via ventrale del lobo temporale che media la mappatura dall’input sonoro al significato/parole.
Una via dorsale che incorpora i lobi frontali e parietali che favoriscono le trasformazioni sensomotorie
che sottostanno al mapping per creare l’output delle rappresentazioni.
Nuovi esperimenti hanno l’obiettivo di spiegare come siano supportati i processi di analisi e decodifica.
Gli aspetti differenti dei segnali (modulazione temporale lenta e veloce, composizione delle frequenze)
devono essere processati per il riconoscimento. Una serie di esperimenti neurofisiologici suggeriscono
quali siano le strutture alla base di queste analisi. Le oscillazioni neuronali a differenti frequenze (delta
1–3Hz, theta 4–8 Hz, basse gamma 30–50 Hz) possono fornire alcuni dei meccanismi sottostanti. In
particolare, per ottenere l’analisi di un segnale di input in una porzione gestibile, un livello
mascroscopico consiste nel far scorre e resettare le finestre temporali, implementato come fase di
chiusura delle attività delle basse frequenze e resetting delle oscillazioni intrinseche su scale di tempo
privilegiate.
Il resetting dell’attività neuronale fornisce costanti temporali (o finestre di integrazione temporale) per
l’analisi e decodifica dei segnali linguistici. Questi studi collegano in modo diretto le oscillazioni neurali
alla percezione dei suoni linguistici. I segnali acustici contengono alcuni tipi di “edge” (una
discontinuità acustica) che l’ascoltatore può utilizzare per “porzionare” il segnale ad appropriate
granularità temporali. Questi “edge” giocano probabilmente un ruolo causale nell’analisi percettiva dei
segnali uditivi complessi.

Neuroanatomia computazionale della produzione linguistica


La maggior parte delle ricerche sul linguaggio sono state condotte all’interno di due differenti
tradizioni:
una tradizione psicolinguistica che ricerca generalizzazioni a livello di fonemi, morfemi, e unità frasali
una tradizione relativa ai sistemi neurali/controllo motorio che si occupa prevalentemente delle forze
cinematiche, delle traiettorie del movimento e del controllo tramite feedback .
A dispetto degli obiettivi comuni per comprendere come il linguaggio venga prodotto c’è stata solo
una ridotta interazione tra queste aree di ricerca.
L’approccio psicolinguistico lavora a un livello di analisi più astratto amodale mentre quello del
controllo motorio/neuroscientifico esamina prevalentemente i processi di controllo articolatori di più
basso livello. Comunque un attento esame tra i due approcci rivela una sostanziale convergenza.
Ad esempio, la ricerca psicolinguistica ha evidenziato l’esistenza di un sistema di produzione del
linguaggio gerarchico, nel quale unità di pianificazione vanno dalle caratteristiche articolatorie, alle
parole, alle intonazioni e alle frasi. Gli approcci del controllo motorio hanno enfatizzato il ruolo dei
segnali efferenti dai comandi motori e degli internal forward models nel controllo e
nell’apprendimento motorio.
Un’ integrazione tra i due approcci ha prodotto un modello di produzione del linguaggio di tipo
gerarchico con controllo a feedback. L’architettura del modello è derivata dai modelli a feedback del
controllo motorio e incorpora i livelli di elaborazione identificati dalla ricerca psicolinguistica.
83
L’architettura di base prevede un controller motorio che genera predizioni sensoriali. La
comunicazione tra i sistemi sensoriali e motori è ottenuta tramite un sistema di traduzione audio-
motorio.
Il modello include due livelli gerarchici di control feedback, ciascuno con i propri feedback sensoriali
interni ed esterni.
Come nei modelli psicolinguistici, gli input al modello partono con l’attivazione di una
rappresentazione concettuale che a turno eccita una corrispondente rappresentazione della parola. Il
livello della parola proietta in parallelo ai versanti motorio e sensoriale dei più alti livelli corticali di
controllo a feedback. Questo loop a sua volta proietta anche in parallelo al livello più basso, ossia al
loop corteccia motoria-cervelletto- corteccia somatosensoriale.
Questo modello differisce dai precedenti modelli psicolinguistici e del controllo motorio in due aspetti.
- Primo, l’elaborazione fonologica è distribuita su due livelli organizzati gerarchicamente, implicanti un
circuito uditivo-motorio a livello più alto e un circuito somatosensoriale-motorio a livello più basso che
effettuano rispettivamente un’analisi a livello sillabico e fonemico.
- Secondo, una copia del segnale di efferenza è integrato nel processo di elaborazione motorio. I
correlati anatomici di questi circuiti sono derivati da ricerche di neuroimaging e da studi
neuropsicologici. Alcune delle assunzioni computazionali sono state dimostrate alle simulazioni al
computer.

Neuroimaging
Gli studi di neuroimaging hanno evidenziano il ruolo delle seguenti regioni cerebrali nella produzione e
comprensione del linguaggio: corteccia frontale, corteccia temporale e parietale.
Le regioni frontali inferiori incluse le aree di Broadmann 45, 46, e 47, mostrano attivazione durante
prove che coinvolgono l’elaborazione fonologica, le task di decisione semantica e l’elaborazione a
livello di frase e discorso. Queste stesse regioni sono coinvolte nella memoria a breve termine
(immagazzinamento e mantenimento).
Le regioni frontali superiore e media mostrano attivazione principalmente durante le prove di
decisione semantica (BA 6, 8, 9) e si è evidenziato un loro coinvolgimento anche durante task di
memoria semantica.
Inoltre, è frequente la loro attivazione in test che richiedono l’elaborazione delle informazioni
necessarie alla teoria della mente presenti in una storia.
L’area motoria supplemetaria (BA 6, 44) e l’area di Broca sono state implicate nella produzione verbale
e nella risposta motoria non verbale, nel mantenimento delle rappresentazioni fonologiche e nella
produzione delle sub-vocalizzazioni.
L’area di Broca appare anche coinvolta durante l’elaborazione sintattica come durante le task di
percezione musicale.
Nell’emisfero destro, la corteccia frontale inferiore è attiva durante l’elaborazione delle parole
astratte, l’elaborazione della frase e del discorso, nella detezione del contenuto emotivo del linguaggio
e nell’elaborazione fonologica.
La corteccia frontale superiore e media hanno mostrato attivazione durante prove di decisione
semantica e sono state implicate negli aspetti di integrazione dell’elaborazione del discorso.

Le regioni temporo-parietali
Il giro temporale superiore (BA 22) ha mostrato attivazione durante il processo di elaborazione uditiva
dei suoni linguistici, durante l’elaborazione semantica e sintattica (soprattutto le aree anteriori).
Il giro temporale medio (BA 21) è coinvolto nella elaborazione fonologica e semantica, mentre il polo
temporale (BA 38) mostra di attivarsi nell’elaborazione del discorso.
84
L’area di Wernicke (BA 40) e il giro sopramarginale mostrano di svolgere un ruolo nell’elaborazione
semantica e in alcuni aspetti dell’elaborazione fonologica, quali la traduzione di parole scritte in
rappresentazioni fonologiche.
Le regioni temporali postero-inferiori e il solco occipito-temporale (BA 42, 37) sono coinvolte
nell’elaborazione precoce delle parole insieme al giro angolare (BA 39/40), al giro fusiforme (BA 37), e
alle regioni laterali extrastriate (BA 18/19).
Le regioni parietali superiori (BA 7, 19) si attivano nella elaborazione del discorso, mentre il cervelletto
mostra di attivarsi nelle prove di denominazione e nelle decision tasks.
Nell’emisfero destro la maggior parte di queste regioni presenta la stessa attivazione che si verifica
nell’emisfero sinistro.
Le aree parietali superiori di destra si attivano durante l’elaborazione del discorso così come il lobo
temporale. Il giro temporale superiore di destra si attiva durante l’elaborazione precoce del
linguaggio, durante l’elaborazione di frasi difficili e nell’elaborazione del discorso.
Molte delle aree visive sono attivate bilateralmente nelle prime fasi dell’elaborazione delle parole. Le
regioni temporali destre sono anche associate all’elaborazione prosodica.
Il linguaggio non riveste semplicemente il ruolo di codice comunicativo attraverso cui avviene lo
scambio di informazioni; ovvero, il linguaggio non è solamente un mezzo, uno strumento di cui noi ci
serviamo per scambiarci informazioni e interagire con gli altri individui; o ancora, il linguaggio non sta
all'essere umano come le altre forme di comunicazione stanno agli altri animali.
Il linguaggio è l'essenza stessa della natura umana.
Il linguaggio è, innanzitutto, l'elemento fondamentale nella comprensione di che cos'è (e di cosa non
è) un essere umano.
L'uomo non preesiste al linguaggio, né filogeneticamente né ontologicamente.
Il linguaggio non è quindi un elemento estrinseco o accessorio dell'umano, né una caratteristica che si
aggiunge a una umanità preformata, che ne completerebbe l'intelligenza o ne potenzierebbe le
prestazioni, ma è la base stessa della possibilità di quell'intelligenza e di quelle prestazioni.
La definizione del linguaggio e l'individuazione delle sue caratteristiche costituiscono un oggetto di
studio problematico, poiché in ogni caso il linguaggio costituisce anche, e inevitabilmente, il mezzo
dell'oggetto di cui si parla e la riserva di concetti che servono per definirlo.

Terminologia
Molto spesso termini come comunicazione, linguaggio, lingua, vengono usati come sinonimi, il cui
significato può risultare confuso o sovrapposto. É utile, ai nostri scopi, distinguere i significati di alcuni
dei termini che verranno utilizzati:
Informazione – Consiste in una quantità significativa di dati (segnale), in grado di organizzare e attivare
una trasformazione entro un sistema instabile, risolvendone le tensioni. L'informazione è pertanto ciò
che è in grado di far cambiare fase a un sistema, individuandolo.
Comunicazione – Nella descrizione più semplice e classica, quella proposta dalla teoria
dell'informazione, la comunicazione è un processo in cui due individui scambiano informazioni: uno
dei due, detto emittente, produce un segnale che il secondo, detto ricevente, interpreta.
Questa descrizione, pur utile, tralascia un fatto fondamentale: l'informazione non lascia intatti gli
individui ma, per definizione, ne modifica lo stato, effettuando delle transizioni di fase. Per questa
ragione, è meglio pensare alla comunicazione come al processo in cui due sistemi scambiano
informazioni che ne modificano lo stato. Nel mondo vivente i segnali possono essere emessi e ricevuti
attraverso canali differenti: chimico, olfattivo, tattile, visivo, vocale.
Segno – Un segno è una qualsiasi entità che, per scopi comunicativi, indica / rappresenta / sta al posto
di un’altra entità.
85
Codice comunicativo – Ogni segno appartiene a un codice, vale a dire un sistema che associa dei segni
a dei significati. Se il ricevente ignora il codice comunicativo utilizzato dall'emittente fra i due non sarà
possibile alcuna trasmissione di informazione.
Linguaggio – Il linguaggio è un codice comunicativo specifico, avente struttura doppiamente articolata,
che negli esseri umani viene implementato come lingua particolare. Nonostante la normale
associazione tra “linguaggio” e “linguaggio vocalico”, è opportuno precisare che né il linguaggio né le
lingue devono essere necessariamente vocaliche. La doppia articolazione può fondarsi anche su gesti,
caratteri scritti, bit, ecc.
Lingua – Qualsiasi realizzazione particolare del linguaggio generale. Realizzazioni storiche del
linguaggio umano sono tutte le lingue, ivi inclusi i dialetti, che si parlano nel mondo.
Forme della comunicazione. Segnali, icone, simboli

Per comunicare molti animali usano un complesso sistema di segnali, realizzato tramite l'associazione
di segni e significati entro un codice. Si pensi ad esempio alla danza delle api. Si tratta di un codice
dalla semantica complessa, inscritto in qualche modo nella biologia stessa delle api, che consente loro
di comunicare informazioni dettagliate riguardo alla distanza e all'orientamento delle fonti di cibo.
Nella danza c'è semantica (i segni sono associati a significati: la frequenza della danza sta per la
distanza, l'orientamento rispetto al sole sta per la direzione), ma non c'è associazione semantica: il
codice significativo è dato una volta per tutte, non è ampliabile né può essere mutato. Un altro
esempio sono i richiami delle vervet monkeys che dispongono di diversi segnali per indicare il tipo di
pericolo che le sta minacciando (il richiamo che indica “predatore dal basso” induce le scimmie a salire
sugli alberi, e così via).
Una differenza decisiva tra il linguaggio e i segnali utilizzati dagli animali è che i segnali si riferiscono
solamente a ciò che è presente nell'ambiente dell'animale. Le api danzano solo dopo essere ritornate
direttamente all'alveare quando hanno trovato il nettare. Le vervet monkeys segnalano con richiami
solo quando il pericolo è immediato.
Con l'aiuto del linguaggio invece è possibile comunicare cose che non sono “né qui né ora” e che
potrebbero anche non esistere. Segnali e simboli sono entrambi strumenti della comunicazione che
possono essere espressi in vari modi, per esempio con suoni o gesti. La differenza fondamentale è che
un simbolo si riferisce a una rappresentazione isolata, mentre un segnale rappresenta una percezione
o una sensazione. I segnali riguardano il mondo circostante, sono segni che si riferiscono a qualcosa
dell'ambiente in cui si vive: il fumo è un segnale che indica il fuoco; uno sparo è il segnale che indica ai
corridori l'inizio della gara. Il linguaggio simbolico invece riguarda spesso il nostro mondo interiore,
cioè le nostre immaginazioni, memorie, progetti e sogni (Gärdenfors, 2006). I segnali di una specie
animale sono grossomodo identici in tutti i membri della specie (eccetto le differenze di sesso e di
età). Gli animali non scelgono che suono emettere. Al contrario, un simbolo è una convenzione
arbitraria che bisogna imparare per poterla utilizzare come strumento comunicativo. L'arbitrarietà è
infatti uno dei caratteri fondamentali del linguaggio umano. Anche nella comunicazione di alcune
specie animali è presente l'arbitrarietà (vedi i richiami delle vervet monkeys) dal momento che
l'associazione tra segnali e significati può essere arbitraria (lo sparo e l'inizio della gara). Non è
nemmeno la complessità della grammatica o il problema di imparare un ampio sistema che rende il
linguaggio inaccessibile alle altre specie animali, ma il fatto che è simbolico (Deacon, 1997). Il mondo
interiore degli animali non è sufficientemente ricco per gestire la complessità di rappresentazioni
separate (isolate) a cui il linguaggio fa riferimento (Gärdenfors, 2006).
La funzione predominante del linguaggio è di comunicare ciò che non è né qui né ora. Un cane può
'dire': ho fame, ho sete, voglio uscire, mi piaci ecc. Ma non ha mezzi comunicativi che gli permettono
di 'dire': ieri avevo fame, e neanche: avrò fame se anche stanotte mi chiudi in casa, e sgranocchierò il
86
tappeto. Allo stesso modo, il cane può 'dire': c'è un topo qui! Ma non può 'dire': c'è un topo nella
stanza accanto. […] Chiaramente, se vivi nel presente, per comunicare principalmente ciò che senti e
ciò che vuoi fare nell'immediato, i segnali biologici presenti in ogni specie sono sufficienti. Un
linguaggio è necessario solo per comunicare le tue rappresentazioni interne di ciò che potrebbe
essere, ciò che è stato e di quelle cose e avvenimenti che non sono presenti nel momento immediato
(Sjölander, 1993).
La filosofa Susanne Langer fa una chiara distinzione tra segnali e simboli:
Un termine usato come simbolo e non come segnale non suscita un'azione appropriata alla presenza
del suo oggetto. […] I simboli non sono sostituti dei loro oggetti, ma sono veicoli per la concezione
degli oggetti. Concepire una cosa o una situazione non è lo stesso di 'reagire in base a quella'
apertamente, o essere consapevoli della sua presenza. Parlando delle cose noi abbiamo concezioni di
quelle, non le cose stesse; e sono le concezioni, non le cose, che i simboli direttamente 'significano'. Il
comportamento in base alle concezioni è ciò che le parole normalmente suscitano: questo è il tipico
processo del pensiero (Langer, 1948).
Il linguaggio ci permette di parlare non solo di cose che sono remote in termini di spazio e di tempo,
ma anche di cose non collocate nello spazio e che non fanno riferimento ad avvenimenti determinati:
Il fatto che possiamo rendere comprensibile enunciati linguistici riguardo spazio e tempo, giusto e
sbagliato, Humpty Dumpty, e la radice quadrata di meno uno, dimostra incontrovertibilmente che il
linguaggio può trattare elementi che non hanno niente a che fare con 'stimoli osservabili' […] (Von
Glasersfeld, 1977).
Nella terminologia utilizzata da Gärdenfors (2006), l'icona è un segno che assomiglia alla
rappresentazione separata indicata dal segno. La silhouette di una donna sulla porta del bagno
femminile è un'icona per quelle persone a cui tale spazio è riservato. Una freccia bianca orientata a
destra su un cartello stradale di colore blu in Europa è un'icona per la direzione che bisogna seguire. A
differenza dei simboli, la scelta delle icone non è arbitraria, ma dipendente dalla somiglianza tra il
segno e ciò che indica.
In conclusione, un sistema comunicativo, per essere un linguaggio, deve essere costituito da simboli.
Ma questo non è sufficiente per arrivare al tipo di linguaggio che utilizzano gli esseri umani. Un altro
presupposto fondamentale è che gli interlocutori abbiano ben sviluppato un proprio mondo interiore
(Gärdenfors, 2006).

La doppia articolazione
Il linguaggio umano presenta 2 livelli di articolazione:
- Fonemi, cioè le unità base dell’emissione vocalica, come ad esempio A, U, R, F, che non
veicolano il significato (organizzato dalla Fonologia)
- Parole, che veicolano il significato (organizzato dalla Sintassi)
A partire da poche decine di elementi base di tipo fonetico, il linguaggio umano dispone così di una
produttività pressoché infinita. La ragione per cui il linguaggio umano accede a questa potenza
espressiva risiede nella disgiunzione del primo livello combinatorio, quello dei fonemi, dalla semantica;
questo fa sì che, quando si tratta di associare i segni ai significati, non si hanno più a disposizione
appena qualche decina di suoni diversi, ma decine di migliaia di suoni articolati diversi.
La prima articolazione del linguaggio umano è, dunque, quella dei fonemi, cioè delle unità che non
trasmettono significato.
I fonemi sono i suoni ammessi da una lingua specifica. Non tutte le lingue usano gli stessi fonemi e, nel
campo dei suoni producibili dall'apparato fonatorio umano, ciascuna lingua ne seleziona soltanto
alcuni.
Dopo la scelta dei suoni ammessi, viene fatta una seconda selezione, quella delle sequenze di suoni
87
ammesse.
Ciascuna lingua lega i fonemi tra loro in base a precise regole morfologiche che consentono alcune
combinazioni, ne obbligano altre, e altre ancora vietano.
A partire da un numero estremamente limitato di suoni, in ogni lingua le regole di selezione e
combinazione dei fonemi permettono di formare decine di migliaia di parole.
Le parole, intese come segni che rimandano ad un significato, manifestano appieno l'arbitrarietà del
linguaggio: a parte le onomatopee (che tuttavia, come si sa, variano da lingua a lingua) niente lega una
specifica parola a uno specifico oggetto del mondo se non una convenzione condivisa fra i parlanti di
una lingua specifica.
La seconda articolazione del linguaggio umano è quella delle unità che trasmettono il significato,
ovvero delle parole. La sintassi è l'insieme delle strutture schematiche ricorsive per mezzo delle quali le
parole vengono combinate in proposizioni e le proposizioni in periodi. Essa costituisce il secondo
meccanismo moltiplicatore, quello che permette, a partire da un numero già alto di parole, di
comporre un numero pressoché infinito di enunciati.
Le regole della sintassi sono vincolanti e specifiche per ciascuna lingua. Così come le regole
fonologiche e morfologiche stabiliscono quali sequenze di fonemi/lettere sono accettabili entro una
specifica lingua, così le regole sintattiche stabiliscono quali sequenze di parole siano accettabili entro
quella lingua.
La sintassi è un altro componente specifico del linguaggio umano.
Nessun altro animale vivente, incluse le scimmie a cui si è provato a insegnare il linguaggio, è in grado
andare oltre le più semplici regole sintattiche. Un bambino di tre anni supera comunemente le abilità
sintattiche dello scimpanzé più esperto nell'uso del linguaggio dei segni.

Cervello e linguaggio
Nella competenza comunicativa globale (che non è fatta solo da sintassi e grammatica, ma anche di
intonazione, di affettività, di relazione, di espressioni, ecc.) il cervello si comporta come organo
unitario, gestendo quindi il compito complessivo della comunicazione con l'interezza delle sue
funzioni.
Nondimeno sembra che alcune aree cerebrali specializzate siano coinvolte nel processo di produzione
linguistica. Non è possibile tuttavia, spiegare il linguaggio solo con l'esistenza di queste aree, poiché
sembra che l'abilità linguistica sia strettamente intrecciata con altre funzioni del cervello. Questa è
collegata con funzioni cognitive, filogeneticamente più antiche, soprattutto la capacità di
programmare e di eseguire sequenze di azioni.
Quello che possiamo affermare con certezza è che la capacità linguistica coinvolge delle parti del
cervello normalmente localizzate nell'emisfero sinistro, ma che tuttavia è possibile trovare, in alcuni
mancini, anche nell'emisfero destro.
Si tratta di un complesso di aree corticali fisicamente vicine e in stretta connessione neurale, che
operano sia tra loro che con il resto dell'encefalo. Le due aree principali che partecipano al processo
linguistico sono quella di Broca e quella di Wernicke, in associazione con altre la cui funzione, però,
sembra essere meno specifica.
L'area di Broca si trova nel lobo frontale, nella porzione posteriore della terza circonvoluzione frontale
inferiore. Presiede all'articolazione vocalica e alla combinazione di fonemi in parole.
Nelle scimmie la porzione analoga alla nostra area di Broca presiede al controllo di alto livello dei
movimenti della bocca e della faccia. L'area di Wernicke si trova presso il solco laterale (scissura di
Silvio), ovvero la zona di contatto tra lobo temporale e lobo parietale; comprende la circonvoluzione
temporale superiore, che circonda la corteccia uditiva, e il lobulo parietale inferiore.
Presiede all'identificazione dei suoni verbali e, più in generale, alla comprensione del linguaggio.
88
Queste due aree sono collegate tra loro per mezzo di fibre nervose che costituiscono il cosiddetto
“fascicolo arcuato” e che consentono il passaggio delle informazioni fondamentali per l'emissione di
un linguaggio chiaro e comprensibile.
Le frasi che si “formano” nell'area di Wernicke vengono, per così dire, trasmesse all'area di Broca per
mezzo di queste fibre. Qui si elabora la sequenza delle parole che viene a sua volta inviata alla
corteccia motoria per la pronuncia e il loro controllo.
La zona corticale che corrisponde all'area di Broca controlla, infatti, i muscoli della vocalizzazione, dei
movimenti delle labbra, della mandibola, della lingua, del palato molle, delle corde vocali, ossia di tutti
gli organi fondamentali per rendere comprensibile il linguaggio umano.
L'area di Broca, includendo i circuiti corticali e subcorticali che la collegano alle altre parti del cervello,
si presenta come un'area specializzata e funzionale che sembra essere una delle caratteristiche uniche
del cervello umano.
Come confermato dagli studi sull'afasia di Broca, l'area di Broca è molto vicina alle parti del cervello
che controllano direttamente i muscoli della faccia, delle mani e delle braccia, ed è in qualche modo
collegata a queste parti del cervello.

L'apparato vocale
Per l'articolazione linguistica le strutture neuronali di controllo non sono sufficienti: è necessario un
apparato fisico di produzione del linguaggio vocale. L'effettiva produzione materiale dei suoni è
affidata all'apparato composto dalla laringe, dalla faringe e dalla bocca. L'originaria funzione fisiologica
della laringe è quella di sfintere: serve a proteggere la trachea durante la deglutizione e a separare il
deposito d'aria polmonare dall'ambiente esterno. La laringe provoca generalmente la perdita di fluidità
nel parlare, alterazioni dell'articolazione vocale e l'incapacità di ricorrere a strutture sintattiche e
grammaticali corrette.
L'afasia di Broca provoca anche deficit motori: il parlato è esitante e distorto e il suo controllo
spontaneo è spesso assente.
Soprattutto, risulta molto danneggiata la capacità di coordinare le attività motorie. I soggetti affetti
dall'afasia di Broca hanno difficoltà nel pronunciare le consonanti occlusive (p, b, t, d, k, g) che
necessitano di una precisa coordinazione tra i movimenti della lingua o delle labbra e della laringe.
L'apparato fonatorio: non è completamente chiusa la fuoriuscita dell'area dai polmoni, per un
meccanismo di vibrazione delle membrane laringee. Si produce, quindi, un suono.
Le membrane laringee costituiscono, per l'appunto, le corde vocali; esse si aprono a seguito
dell'aumento di pressione nella colonna d'aria emessa dai polmoni e si richiudono per forza elastica. Il
tratto sopralaringeo (composto da faringe, bocca e naso) serve, ai fini fonatori, come cassa di
risonanza per i suoni emessi dalla laringe e, soprattutto, come meccanismo di articolazione.
La faringe era in origine un tratto del canale alimentare; per quanto riguarda le emissioni vocali, essa
funziona da prima cassa di risonanza e da primo meccanismo articolatorio: nel passaggio attraverso la
faringe il suono, proveniente dalla laringe, viene amplificato solo su certe frequenze.
La bocca, la cui funzione primaria è quella masticatoria, è un secondo risonatore, distinto e autonomo
rispetto alla faringe, e fa sì che l'apparato vocale umano funzioni come organo a due canne.
Il comportamento articolatorio combinato di faringe e bocca controlla l'emissione delle vocali; le
consonanti vengono, invece, prodotte dai movimenti occlusori della lingua e delle labbra.

LINGUAGGIO E COMUNICAZIONE
Linguaggio: abilità appresa o innata?
Il linguaggio è una funzione che pervade la nostra attività mentale e molte delle attività cognitive,
come il pensiero, la soluzione di problemi, i giudizi.
89
Gli psicologi cognitivi, riguardo al linguaggio, hanno concentrato il loro interesse sui meccanismi
cognitivi alla base dell’uso del linguaggio.
Nel dibattito teorico sul linguaggio si sono contrapposte diverse teorie. In particolare, così come era
avvenuto per la percezione, anche in questo ambito si sono scontrati empiristi e innatisti.

Teorie empiriste
Gli empiristi ritenevano che il linguaggio si sviluppa grazie agli stimoli ambientali che il bambino riceve.
In particolare, Skinner riteneva che l’apprendimento del linguaggio non fosse diverso da qualunque
altro tipo di apprendimento e che, di conseguenza, si sviluppasse per associazioni di stimoli e risposte
opportunamente rinforzate.

Teorie innatiste
Questa posizione fu fortemente criticata da Chomsky, a partire dagli anni 50, Chomsky al contrario
affermava che l’apprendimento linguistico non poteva avvenire secondo le modalità descritte da
Skinner, perché in questo caso avrebbe richiesto degli anni per potersi sviluppare.

Psicolinguistica
La psicolinguistica moderna, ovvero la disciplina che si occupa della descrizione dei processi cognitivi
coinvolti nell’uso del linguaggio, fonda l’elaborazione teorica e la ricerca empirica sul linguaggio
prendendo le mosse dal lavoro di N. Chomsky. Egli si oppone alla tesi del comportamentismo che
tratta il linguaggio come un qualsiasi comportamento soggetto alle leggi dell’apprendimento e del
condizionamento mediante rinforzi e sostiene che il linguaggio è un sistema generativo in cui si
possono individuare elementi comuni a tutti i linguaggi e strutture che possono riflettere meccanismi e
principi cognitivi organizzativi innati; questi principi organizzativi possono influenzare direttamente
l’acquisizione e la generazione del linguaggio.
Il principale argomento portato da Chomsky a favore della tesi innatista è che il linguaggio viene
appreso troppo rapidamente dai bambini perché si possa sostenere che costoro inizino
l’apprendimento dal nulla.
Gli argomenti contrari alla tesi comportamentista sono che l’approccio non può rendere conto della
capacità da parte dei bambini di produrre nuove espressione linguistiche che, in quanto nuove, non
possono essere state udite prima e rinforzate.
Inoltre Chomsky osservò che i genitori non ricompensano i bambini che producono espressioni
linguistiche grammaticali corrette, ma ricompensano i bambini che producono espressione vere anche
se grammaticalmente errate.
Sulla base di queste considerazioni, Chomsky propose, quindi, l’esistenza di un meccanismo innato in
grado di favorire l’acquisizione del linguaggio. Tale meccanismo è un dispositivo che contiene i principi
della grammatica universale, vale a dire i principi generali di tutte le lingue naturali che consentono ai
bambini di scoprire le strutture linguistiche corrette proprie della lingua della comunità linguistica di
appartenenza. L’esecuzione linguistica, ovvero la capacità effettiva di usare il linguaggio, dipende non
solo dalla competenza ma anche da molti altri fattori cognitivi, situazionali, socioculturali.
Negli studi di psicolinguistica riconosciamo
- La semantica: il significato delle parole
- La sintassi: l’insieme delle regole per combinare le parole
- La pragmatica: le relazioni tra il linguaggio e le situazioni
Semantica, sintassi e pragmatica, costituiscono la grammatica, cioè l’insieme di regole che i parlanti
usano implicitamente per capire e produrre le frasi della propria lingua.

90
Grammatica generativa-trasformazionale
La teoria chomskiana si sviluppa attorno a quattro nozioni principali:
- la struttura superficiale: fa riferimento alla sequenza di suoni che può essere segmentata in parole;
- la struttura profonda: forma sottostante alla prima e contiene le informazioni necessarie alla
trasmissione del significato;
- regole di struttura sintagmatica: sono quelle che consentono di trasformare un costituente frasale in
altri costituenti, come ad esempio la frase in costituenti più semplici come i sintagmi;
-le regole trasformazionali: sono quelle che consentono di trasformare una struttura in un’altra
struttura, come ad esempio la trasformazione della forma attiva di una frase nella sua forma passiva.
Chomsky sulla base di queste nozioni, ha sviluppato una grammatica trasformazionale in cui vengono
descritte le leggi che governano il modo in cui un dato messaggio linguistico può essere trasformato in
un altro. L’implicazione che deriva dalla grammatica generativa-trasformazionale è che l’analisi del
linguaggio si dovrebbe basare su un livello sintattico perché è il livello al quale l’analisi può rendere
conto della varietà delle forme linguistiche che possono essere rapidamente generate e,
corrispondentemente, che possono essere facili da comprendere. Questa implicazione rende conto
quindi del principio di correttezza grammaticale anche in una frase priva di senso.

Teorie intermedie
Tra questi due estremi, empirismo ed innatismo, esistono anche delle posizioni intermedie che si sono
andate affermandosi nel corso degli anni (es. costruttivismo, connessionismo).
Infatti approcci più recenti, sostengono che, sebbene non esista un vero e proprio LAD (dispositivo
innato per l’acquisizione del linguaggio), le stesse caratteristiche del cervello umano, in interazione
con l’ambiente, hanno permesso lo sviluppo linguistico.
In particolar modo a partire dagli anni ’70, i costruttivisti hanno messo in discussione le teorie di
Chomsky, sostenendo che sì esiste una predisposizione al linguaggio, ma non si può trascurare
l’importanza dell’ambiente nello sviluppo linguistico.
Nello specifico, Bruner riprendendo il concetto di zona prossimale di sviluppo di Vygotskij ha ipotizzato
che il bambino acquisisca il linguaggio all’interno di questa zona, grazie all’aiuto dell’adulto. Per cui, se
è vero che esiste un LAD, allora deve esistere anche un LASS (sistema di supporto per l’acquisizione
della lingua) negli adulti, a testimonianza del ruolo chiave dell’ambiente in cui è inserito il bambino, ai
fini dello sviluppo linguistico.
Pur restando valido l’esperimento di Brown e Hanlon (1970), studi successivi hanno evidenziato che le
madri tendono gradualmente ad innalzare il grado delle richieste fatte ai loro bambini. Per cui sì, in
una fase iniziale di acquisizione del linguaggio, viene accettato qualunque suono simile al nome di un
oggetto a cui ci si riferisce, ma la madre non fornisce solo un rinforzo generico, ripete anche il nome
corretto della parola. In seguito, la madre richiede al bambino di correggersi e di pronunciare
adeguatamente il termine in questione.
Inoltre, la posizione costruttivista considera il linguaggio non a se stante, ma come una parte di una
funzione più complessa come quella comunicativa che precede lo sviluppo linguistico. Secondo questa
impostazione gli aspetti pragmatici e comunicativi del linguaggio sarebbero centrali.

Teorie sulla elaborazione del linguaggio


Diversi autori sostengono che la percezione del linguaggio (suoni linguistici) sia un processo che ha
caratteristiche distinte dalla più generale percezione acustica. Nello specifico è stata individuata una
specializzazione dell’emisfero sinistro per i suoni linguistici. In particolare, la difficoltà è rappresentata
dalla capacità di individuare le parole nel flusso del linguaggio (segmentazione).
Studi effettuati attraverso lo spettrografo, mostrano che i pattern sonori di uno stesso fonema
91
tendono a modificarsi in funzione dei fonemi che precedono o seguono il fonema target (problema
della non invarianza).
Infine, è stato individuato un fenomeno noto come percezione categoriale; questo fenomeno si
riferisce al fatto che chi ascolta discrimina meglio tra suoni appartenenti a categorie fonetiche
differenti, piuttosto che tra suoni appartenenti alla stessa categoria.
A questo proposito, alcuni ricercatori pensano che la percezione linguistica costituisca uno specifico
modulo cerebrale.
Sebbene sia plausibile affermare che i meccanismi coinvolti nella percezione del linguaggio siano
probabilmente differenti da quelli necessari per la percezione acustica, tuttavia non esistono prove
dell’esistenza di un modulo specializzato nella percezione linguistica.
Nello studio del riconoscimento delle parole si è partiti da due modelli:
1. l’elaborazione delle parole proceda in modo seriale o sequenziale per cui esisterebbero, un
insieme di stadi fissi e costanti implicati nell’elaborazione linguistica. L’analisi del contesto linguistico
sarebbe successiva all’elaborazione della parola.
2. L’elaborazione linguistica implicherebbe il ricorso a diverse fonti di conoscenza che
interagiscono tra loro in modo flessibile. L’analisi del contesto linguistico avverrebbe durante
l’elaborazione della parola. Questo modello interattivo implicherebbe sia processi bottom up, legati
all’analisi della parola, che processi top down, legati alle aspettative del soggetto in rapporto
all’informazione derivante dal contesto linguistico. Questo secondo modello è attualmente il più
seguito dalle ricerche.
Da questo modello derivano due teorie:
1. La Teoria della Coorte
2. Il modello TRACE

La teoria della Coorte (Marlsen e Tyler)


Quando si ascolta la prima parte di una parola, tutte le parole che cominciano con quella sequenza di
suono (fonema), conosciute dall’ascoltatore, vengono attivate nella memoria a lungo termine (coorte
dell’inizio della parola). Successivamente si procede all’eliminazione di varie parole di questa coorte,
perché la sequenza sonora ascoltata non combacia con la parola (bottom-up) o perché la parola non si
inserisce adeguatamente nel contesto semantico (top-down), questo fino all’individuazione della
parola finale. Il limite del modello consiste nel troppo peso dato al primo fonema di una parola per cui
in seguito è stato rivisto, ipotizzando che vengono attivate tutte le parole non solo che iniziano con
quel fonema ma anche con quelli simili.

Il modello TRACE(McClelland e Elman)


Sottolinea l’importanza dell’integrazione di processi bottom-up e top-down. È un modello più
dettagliato rispetto al precedente. Il sistema è composto da nodi che elaborano le informazioni a tre
livelli:
-Caratteristiche fisiche
-Fonemi
-Parole
La presentazione di una parola determina l’attivazione del sistema che sarà massima nel momento in
cui la parola viene riconosciuta.

Teorie sulla produzione del linguaggio


La funzione principale del linguaggio è quella di comunicare qualcosa. In particolare noi parliamo per
trasmettere dei messaggi agli altri. La comunicazione sociale, però, prevede alcune regole
92
convenzionali.

Teoria di Garrett
Diversi autori hanno cercato di individuare quali sono i processi implicati nella produzione linguistica.
Secondo Garrett nella produzione linguistica vi è una forte componente pianificatoria, ciò significa che
tutti noi, generalmente, riflettiamo su ciò che intendiamo dire e organizziamo i nostri discorsi. Tale
pianificazione viene operata a più livelli:
1. livello del messaggio: devo aver chiaro significato globale del discorso, cioè cosa intendo
comunicare;
2. livello funzionale: a questo livello pianifico le linee guida del discorso, pianifico l’articolazione del
contenuto (posizione di nomi, verbi ecc.) senza effettuare una scelta specifica dei singoli termini da
utilizzare;
3. livello posizionale: seleziono le parole più idonee ad esprimere il messaggio e le “declino”
in termini morfologici;
4. livello articolatorio/fonetico: produco i suoni linguistici adeguati.
Sulla base della sua teoria, Garrett ha proposto alcune spiegazioni relative a comuni errori linguistici.
Infatti, l’analisi degli errori linguistici compiuti da persone normali permette di chiarire i meccanismi di
produzione linguistica. Uno di questi errori è il fenomeno della parola sulla punta della lingua, questo
può essere spiegato proprio dall’idea che noi in una prima fase elaboriamo il concetto che intendiamo
esprimere e solo successivamente scegliamo le parole che ci sembrano più adeguate. Nel fenomeno
della parola sulla punta della lingua, il soggetto sa cosa vuol dire, ma non trova la parola più idonea.
Altri errori sono quelli di scambio di parole, che si verificano a livello funzionale, cioè nel momento in
cui si stabilisce la posizione che devono avere le parole nella frase. Mentre, gli errori di scambio di
morfemi, es. “gli ho cantato la mostrina” anziché “gli ho mostrato la cantina”, si verificano a livello
posizionale.

Teoria di Dell
Gary S. Dell parte dallo stesso presupposto di Garrett, e cioè che la produzione linguistica implica una
attenta pianificazione. Anche Dell individua quattro livelli, in parte sovrapponibili a quelli di Garrett:
1. livello semantico: pianificazione del significato del messaggio;
2. livello sintattico: pianificazione della struttura grammaticale;
3. livello morfologico: pianificazione dei morfemi da utilizzare;
4. livello fonologico: pianificazione dei fonemi
Dell ritiene che nella formulazione del discorso, la scelta delle parole più idonee venga effettuata sulla
base di regole specifiche per ogni livello di pianificazione.

Universali e relativismo linguistico


In ogni lingua si possono individuare sequenze di suoni che corrispondono a nomi, verbi, colori,
forme… Fin dalla metà degli anni ’50 fu sviluppata una linea di ricerca empirica a sostegno dell’idea
che il linguaggio potesse avere una qualche influenza sul nostro modo di percepire e di
concettualizzare il mondo che ci circonda. In tale ottica, la teoria più famosa, formulata da Whorf,
sosteneva che oggetti ed eventi denotati da una parola sono concepiti in maniera differente a seconda
della cultura del parlante; la conseguenza logica di tale ipotesi è che la causa di queste diverse
modalità di vedere e di concepire la realtà può essere imputata al linguaggio e al suo uso presso le
differenti comunità linguistiche. Il modo in cui una situazione viene percepita dipende da come essa
viene descritta, cosicché si poteva concludere che le parole usate per descrivere gli oggetti potevano
influenzare il comportamento degli individui su quegli oggetti.
93
Per rispondere a esigenze di adattamento all’ambiente, in certe lingue vi sono nomi differenti per
designare uno stesso oggetto o evento.
Il problema che emerge dall’analisi delle ricerche condotte da Whorf è di capire se le differenze
linguistiche corrispondano a delle differenze nella modalità di percepire e pensare la realtà oppure se
tutti gli individui condividano la stessa esperienza anche se la descrivono in modo differente.
La percezione e la denominazione dei colori costituisce un terreno sul quale furono condotte ricerche
fondamentali per lo studio degli universali linguistici e per falsificare le tesi whorfiane.
Le ricerche interculturale hanno messo in luce che vi sono poche lingue che dispongono di due parole
per denominare i colori, ovvero parole che fanno riferimento alla luce e al buio, mentre vi sono altre
lingue che dispongono da tre a dieci parole per denotare i colori fondamentali. La diversa disponibilità
di nomi in lingue differenti non influenza la capacità degli appartenenti ai due gruppi linguistici di
percepire i colori.

Identificazione delle parole


La facilità di identificazione delle parole è influenzata dalla frequenza con cui le parole sono utilizzate
in una determinata lingua, ma anche dalla loro pronunciabilità.
Un altro fattore che favorisce l’identificazione delle parole è il contesto in cui una parola è presentata:
l’effetto del contesto rende conto di un fenomeno noto come “effetto di superiorità della parola”.
Il contesto costituito da una parola ha un effetto facilitante sul riconoscimento della singola lettera. Le
parole possono essere identificate grazie alla possibilità che le informazioni necessarie per il
riconoscimento siano allocate in un sistema che costituisce una sorta di “vocabolario mentale”.

Comprensione di frasi
Comprendere una frase significa dare un senso a una sequenza di suoni.
A questo compito contribuiscono processi che coinvolgono principalmente conoscenze di tipo
sintattico e conoscenze di tipo semantico.
Un approccio di tipo sintattico all’esame dei processi di comprensione di una frase mette in luce
l’utilizzo di differenti strategie volte a segmentare la sequenza di suoni in unità o costituenti frasali, a
partire dai quali si potrà costruire la rappresentazione semantica.
Una delle strategie per la segmentazione è quella basata sull’identificazione delle “parole funzione”
ovvero le parole come articoli, preposizioni, pronomi, congiunzioni…
Le parole funzione, inoltre, aiutano l’ascoltatore a classificare le “parole contenuto” che normalmente
seguono la parola funzione.
Gli ascoltatori, inoltre, utilizzano conoscenze di tipo semantico per comprendere le frasi.
La comprensione di frasi può andare oltre il significato superficiale espresso dalla frase medesima, e
può talvolta portare l’ascoltatore a sovrainterpretare quanto viene espresso in maniera esplicita dalla
frase.

Comprensione di testi e di storie


La comprensione di testi consiste nell’integrazione dei significati estratti dalle singole proposizioni che
costituiscono il testo in un’unica idea o nucleo concettuale.
L’integrazione di idee è un compito tanto più complesso e difficile quanto più debole è la relazione
esistente tra le idee espresse dalle diverse proposizioni.
La diversa facilità con cui le idee nuove possono essere messe in relazione con idee espresse in
precedenza può essere provata manipolando l’ordine con cui le stesse frasi vengono presentate.
Una caratteristica essenziale del modello è che si assume che l’elaborazione iniziale del testo avvenga
nella memoria a breve termine che, a causa della sua capacità limitata, potrà mantenere solo una
94
piccola porzione di preposizioni; per riuscire a trovare una corrispondenza tra le proposizioni il lettore
dovrà esplorare la memoria a lungo termine per poter trovare una corrispondenza. Questa ricerca è
denominata “ricerca per la reintegrazione” ed è una delle ragioni per cui spesso la lettura di un testo
può presentarsi difficoltosa.
Un caso particolare di comprensione di testi è la comprensione di storie. Queste, specialmente quelle
semplici, hanno generalmente una struttura definita: fiabe e novelle popolari, infatti, sono costituite
da uno scenario, dei personaggi, un tema, degli episodi che vengono più o meno sviluppati, una
conclusione e talvolta una morale. I testi possono essere compresi più facilmente se sono introdotti da
un titolo: la lettura del titolo, infatti, consente al lettore di farsi un’idea del contenuto, di costruirsi uno
schema che guida la comprensione.

Comunicazione e persuasione
La comunicazione può avere come obiettivo la persuasione dell’interlocutore, cioè quello di ottenere la
modificazione di un atteggiamento o di un comportamento particolare. In quest’ottica la forza
persuasiva dei messaggi si riferisce per lo più alla comunicazione di massa.
La comunicazione persuasiva è stata analizzata con diversi approcci teorici.
Uno dei più accreditati è quello che ha trovato un’elegante sistematizzazione nel “modello della
probabilità di elaborazione” dell’informazione ad opera di Petty e Cacioppo.
I due ricercatori ritengono che il cambiamento degli atteggiamenti, come effetto dell’azione
persuasiva di un messaggio, coinvolga due percorsi differenziati denominati “percorso centrale” e
“percorso periferico”.
Il percorso centrale viene attivato quando l’elaborazione dell’informazione richiede un’elaborazione
accurata e un’analisi attenta delle argomentazioni contenute nel messaggio.
Il percorso periferico, invece, è attivato dallo scarso interesse che il messaggio ha per il destinatario: si
tratta di un processo di elaborazione attivato quando il cambiamento di atteggiamento vede coinvolti
elementi non direttamente collegati con il tema principale del messaggio e argomentazioni deboli.
In base al modello di Petty e Cacioppo, quindi, gli individui esposti a un messaggio attiveranno più
probabilmente il percorso centrale piuttosto che il percorso periferico, quanto più essi ritengono che il
messaggio abbia una rilevanza personale e perciò siano motivati a un’elaborazione attenta dei suoi
contenuti.
Gli effetti persuasivi di un messaggio dipendono da una molteplicità di fattori quali la fonte che emette
il messaggio, il ricevente e il messaggio. Gli effetti dell’interazione di questi fattori sono modulati dal
contesto nel quali tali fattori interagiscono e sono stati studiati con teorie e paradigmi tipici della
psicologia sociale.

Conversazione e comunicazione interpersonale


Una conversazione è caratterizzata da almeno tre diverse fasi:
- inizio o apertura: in questa fase avviene in maniera reciproca l’identificazione e il riconoscimento e
vengono espresse le formule di saluto;
- sviluppo di uno o più argomenti sui quali vi sia un qualche interesse da parte dei partecipanti;
- insieme di espressioni che portano alla conclusione della conversazione.
Un aspetto centrale nella dinamica conversazionale riguarda l’avvicendamento dei turni.
Nell’interazione tra individui la comunicazione si basa ed è regolata da principi che consentono ai
partecipanti di comprendere ciò che intendono comunicarsi e di regolare la dinamica conversazionale.
La comprensione dei messaggi linguistici che vengono trasmessi dai parlanti nello scambio
conversazionale parte dall’interpretazione che essi possono assegnare ai messaggi stessi.
La conversazione, inoltre, per essere una comunicazione interpersonale efficiente, deve obbedire a un
95
fondamentale “principio di cooperazione”, inteso come la necessità da parte del partecipante di dare il
proprio contributo al momento opportuno coerentemente con le richieste della situazione
comunicazionale.
Grice ha declinato questo principio in 4 massime conversazionali:
1) massima della quantità, suggerisce che i partecipanti alla conversazione cerchino di non dire più di
quanto sia necessario;
2) massima della qualità, suggerisce che gli interlocutori facciano affermazioni vere;
3) massima della relazione, si riferisce al fatto che gli interlocutori cerchino di essere pertinenti;
4) massima del modo, suggerisce che gli interlocutori cerchino di essere chiari ed evitare le ambiguità.
Sulla base della teoria di Grice è stato sviluppato un modello inferenziale applicato alla conversazione:
tale modello enfatizza il fatto che i partecipanti alla conversazione potranno sviluppare delle inferenze
che consentano loro di comprendere coerentemente quanto si dice se vengono rispettate le massime
griciane.

Linguaggio figurato ed espressioni idiomatiche


La comunicazione può essere interpretata a due livelli di significato:
- significato letterale di un’ espressione linguistica: significato che emerge dalla particolare
combinazione dei significati delle singole parole che compongono l’espressione;
- ricorso alle implicature, cioè quelle inferenze che consentono di andare oltre il significato veicolato
dal primo livello per poter identificare l’intenzione comunicativa del parlante.
Il linguaggio figurato si manifesta attraverso un’ampia gamma di espressioni linguistiche: la metafora.
Tra le forme di linguaggio si possono collocare le espressioni idiomatiche, vale a dire quelle forme
linguistiche con funzione metaforica ma con un significato unico e convenzionale.
La comprensione di un’espressione idiomatica è stata spiegata con diversi modelli psicolinguistici; uno
di questi suggerisce che gli individui iniziano a elaborare il significato letterale delle parole e tale
attivazione viene mantenuta fino al momento in cui la sequenza dei termini viene riconosciuta come
un’espressione idiomatica. Ciò significa, quindi, che un singolo processo consentirebbe di elaborare
l’espressione idiomatica e successivamente, soltanto al momento in cui l’espressione viene
riconosciuta come idiomatica, emerge il significato idiomatico.

Comunicazione nei gruppi


La comunicazione interpersonale è una delle modalità essenziali di costituzione dei gruppi e della loro
esistenza e attività.
La comunicazione tra i componenti dei gruppi, oltre a favorire il consolidamento della struttura
organizzativa e la distribuzione del potere tra i membri, è un potente strumento di influenza sociale di
singoli o di componenti del gruppo su altre componenti del gruppo medesimo.
L’influenza sociale all’interno dei gruppi può assumere due forme principali:
- influenza maggioritaria: ha come effetto quello di indurre negli individui condotte compiacenti o
conformistiche;
- influenza minoritaria: la propensione persuasiva della minoranza è tanto più forte quanto più i giudizi
espressi sono sostenuti da argomentazioni dotate di forza e di qualità.
La comunicazione interpersonale tra i membri di un gruppo favorisce l’emergere del fenomeno della
polarizzazione. Il fenomeno consiste nel fatto che i gruppi tendono a estremizzare le decisioni.

Comunicazione mediata da computer


Una particolare caratteristica dei sistemi di comunicazione asincrona è la tendenza a riportare in tutto
o in parte il messaggio cui si intende rispondere in modo da facilitare il ricevente nella comprensione
96
della risposta. Solitamente le parti del messaggio riportate sono tenute separate con segni
convenzionali oppure sono intercalate dalle risposte coerenti con il contenuto della parte di messaggio
considerata. Altre caratteristiche tipiche del linguaggio on-line riguardano il ricorso a strategie
comunicazionali volte a compensare la mancanza di codici di comunicazione gestuale. Questa
modalità di comunicazione influenza la conversazione determinando un particolare registro linguistico
che sembra essere caratterizzato da un uso altamente economico del linguaggio nel tentativo di
emulare una normale conversazione faccia a faccia.

Comunicazione e risoluzione negoziata dei conflitti


La comunicazione è forse la forma più evoluta per la risoluzione dei conflitti interpersonali. La
risoluzione dei conflitti può avvenire secondo due principali linee di condotta: il compromesso o il
negoziato integrativo. La comunicazione ha un valore essenziale nel far emergere i reali interessi delle
parti soprattutto se il processo negoziale si è arenato e se il processo negoziale muove con difficoltà
verso una soluzione integrativa. In queste circostanze può essere utile il coinvolgimento di un
mediatore che aiuti le parti a costruire un clima di fiducia reciproca e a facilitare la comprensione dei
rispettivi interessi.

97
PENSIERO E RAGIONAMENTO
Con il termine pensiero in psicologia si indica una realtà molto vasta, comprendente processi mentali
che non potrebbero essere tutti definiti come processi logici, razionali o ancor meno creativi, pur
essendo anch'essi prodotti dall’attività psichica dell'uomo inteso come essere pensante. Il pensiero è
ritenuto l'attività̀̀̀ mentale per eccellenza, una funzione mentale superiore (insieme ad altri due
processi cognitivi l'apprendimento e la memoria, nel senso che il loro funzionamento presuppone
che una parte dell'informazione in arrivo dall'ambiente o dall'organismo stesso sia già̀̀̀ stata elaborata
a livello percettivo, dopo essere passata attraverso i nostri organi di senso) fondamentale per l'essere
umano, e sulla quale da sempre la psicologia ha posto il suo interesse. In psicologia il termine
pensiero indica quella attività mentale che comprende una serie svariata di fenomeni quali
ragionamento, memoria, attenzione, immaginazione, capacità simbolica, ecc. e che permette inoltre
di essere in comunicazione con il mondo esterno, con sé stesso, con gli altri, di fare ipotesi sul mondo
e sul nostro modo di pensare, di risolvere problemi utilizzando, in funzione del contesto, le
conoscenze acquisite.

Psicologia del Pensiero


La Psicologia del pensiero, come affermano Vittorio Girotto e Paolo Legrenzi, «è una disciplina antica
e allo stesso tempo recente. Antica perché in ogni importante sistema filosofico della tradizione
occidentale troviamo un tentativo, più̀̀ o meno sofisticato, di spiegare come mai l’uomo sia in grado
di pensare. Recente perché la psicologia del pensiero, nell’ambito della psicologia
come disciplina scientifica, costituisce un settore che ha conosciuto solo da poco tempo forte
sviluppo».
La questione fondamentale ci pare quella di definire l’ambito proprio di questa recente disciplina
scientifica. Per precisare tale ambito, lo si dovrà distinguere da quello proprio della filosofia, in
generale, e della logica, in particolare. E tuttavia, ferme restando le necessarie distinzioni, non si
potrà non considerare il fatto, a nostro giudizio molto rilevante, che sempre del pensiero ci si occupa,
così che non si potrà evitare di fornire una qualche definizione di esso.
Paolo Cherubini, nel tentativo di fornire tale definizione, si riferisce a quanto affermato da G. C. Oden
in Concept, knowledge and thought: «Il pensiero, definito in maniera ampia, è tutta la psicologia;
definito in maniera più circoscritta, sembra non essere niente di essa». Ho riportato questa
definizione per la ragione che ci pare lasci intendere in modo esemplare, innanzi tutto, la difficoltà di
definire il pensiero e, di conseguenza, la difficoltà di definire il suo rapporto con la psicologia. Il
pensiero, infatti, è, al tempo stesso, il “definente” e il “definito”, così che il pensiero “definito” dalla
psicologia potrebbe apparire diverso dal pensiero “definito” dalla filosofia e dalla logica o, che è lo
stesso, il pensiero di cui si occupa la psicologia potrebbe non coincidere con quello di cui si occupano
filosofia e logica.
La questione, insomma, concerne il tema del “pensiero del pensiero”, che è uno dei problemi
fondamentali con cui l’uomo si è misurato allorché ha cominciato a riflettere e, in particolare, a
riflettere criticamente. In effetti, costituisce un dato di fatto che i campi in cui si è sviluppata la
ricerca in ordine al pensiero sono molteplici e diversi; tuttavia, è altresì innegabile la necessità di
postulare comunque una “scienza” che rivesta valore fondamentale, perché in grado di cogliere il
pensiero “in quanto tale”. Solo a muovere da questo attingimento è possibile lasciare emergere le
differenze e tracciare un discrimen tra gli ambiti disciplinari, fermo restando, però, che sempre del
pensiero si intende parlare e solo al pensiero ci si intende riferire.
Quanto detto conferma semplicemente che non si può evitare di pensare: per definire il pensiero,
insomma, si è già cominciato a pensare. Il pensiero, da questo punto di vista, risulta originario, poiché
solo pensando è possibile individuare le forme in cui esso si modula e si declina in ambiti teorici
98
determinati. Non per niente, Girotto e Legrenzi, sempre nella Introduzione al loro volume Psicologia
del pensiero, fanno riferimento a Giovanni Gentile: «Prendendo a prestito da un filosofo italiano
(Giovanni Gentile) una celebre distinzione, possiamo dire che i “pensieri pensanti” si sono
cristallizzati in “pensieri pensati”».
La distinzione posta da Gentile, in effetti, è volta a mostrare non soltanto il valore originario del
pensiero, ma altresì l’impossibilità di oggettivarlo, se lo si intende nella sua forma più pura, e cioè
come la condizione in virtù della quale si pone ogni oggettivazione possibile. Il pensiero in quanto
pensante, questo dice Gentile, è irriducibile al pensiero in quanto pensato; dunque, in quanto
“pensante”, esso è inoggettivabile. Se viene oggettivato, viene ridotto a pensiero pensato e, come
tale, perde ciò che ne costituisce l’essenza. Questo ci pare un punto fondamentale: non dimenticare
mai che qualunque discorso venga svolto sul pensiero non esaurisce mai il pensiero che lo pone
come discorso. In questo senso, non può non intendersi un’emergenza del pensiero sul linguaggio.
Tale emergenza, tuttavia, non va intesa come un darsi di pensieri che non si sono ancora configurati
come linguaggio. I pensieri pensati sono già linguaggio; di contro, il pensiero pensante è il pensiero in
atto, la condizione incondizionata, come direbbe Kant, che pone la serie dei condizionati.

Ciò premesso, è possibile cercare di individuare il differente modo di concepire il pensiero da parte
della filosofia e della psicologia. Paolo Cherubini, ad esempio, nel definire «il pensiero in generale» fa
valere l’aspetto per il quale «le parole riferite al pensiero si usano quando nel vissuto soggettivo di
una persona “c’è qualcosa in più” rispetto a ciò che deriva dai processi sensoriali», così che è
possibile affermare che «la mente pensa nell’istante in cui si rendono disponibili a essa informazioni
che non possono trovare un immediato referente nell’attuale quadro di stimolazione percettiva;
queste informazioni, integrate a quelle sensoriali, possono guidare e causare l’azione». La definizione
offerta da Cherubini ci pare che, da un lato, mantenga un aspetto di continuità tra la concezione
filosofica del pensiero e la concezione psicologica di esso; dall’altro, evidenzi un aspetto di
discontinuità, legato alla centralità che il concetto di “informazione” riveste in ambito psicologico e,
segnatamente, nell’ambito della psicologia cognitiva. La continuità è sottolineata dallo stesso
Cherubini, il quale afferma di riferirsi direttamente alla concezione aristotelica, che individua due
modalità di conoscenza, l’esperienza sensoriale o percezione (aisthesis) e il pensiero (nous). «[ ]
mentre la percezione – aggiunge Cherubini – permette di accumulare informazioni particolari, legate
direttamente ai sensi, e coincidenti con la realtà (nel terzo libro sull’anima è scritto esplicitamente “la
percezione è sempre vera”), il pensiero si occupa di conoscenze “cognitive” (noetiche) relative a ciò
che è universale, e quindi della rappresentazione di tutto ciò che non è direttamente percepibile».
Nell’enunciato di Cherubini vi sono almeno due aspetti che meritano di venire adeguatamente
tematizzati. Il primo aspetto è l’assunto che fa della percezione qualcosa di indubitabilmente vero,
perché coincidente con la realtà stessa. Il secondo aspetto, invece, è legato al tema dell’universale,
che Cherubini fa coincidere con le conoscenze noetiche. A nostro giudizio, i due aspetti sono
fortemente vincolati per la ragione che in entrambi ci si occupa del problema gnoseologico
fondamentale, e cioè dell’individuare un fondamento sicuro dell’edificio del conoscere, un
fondamento che sia sicuro perché oggettivo. Ebbene, tale oggettività la si può trovare o nel “dato di
fatto”, ed è la posizione realista, o nella “universalità del pensiero”, e tale concezione finirà per
risolversi nella posizione logicista. Cercheremo di prendere in esame i due aspetti, distintamente ma
anche congiuntamente, stante il loro vincolo intrinseco.
Ora, come è noto, il realismo di Aristotele, cui Cherubini fa riferimento, è stato messo fortemente in
discussione tanto da pensatori illustri che lo hanno preceduto, come per esempio Parmenide e
Platone, quanto da altri che lo hanno seguito. Si potrebbe anzi dire che la storia del pensiero
filosofico nasce e si sviluppa come critica del dato di fatto e lo stesso Aristotele afferma che il
99
pensiero non può non mettere in discussione l’oti (il “che”), la presenza fattuale, onde pervenire al
dioti (al “per-che”), alla ragione che sia in grado di legittimare il fatto: se il fatto fosse sufficiente a
legittimare se stesso, la domanda di ragione, dunque la filosofia, non sarebbe mai sorta.
Se, inoltre, consideriamo la discussione che si è sviluppata nell’ambito della epistemologia
contemporanea, da Popper e Hanson fino a Kuhn, Lakatos e Feyerabend, allora ci accorgiamo che
l’osservazione non è più intesa come lo strumento che consente di cogliere la realtà nel suo essere
puro, oggettivo, ma si è parlato di osservazione “carica di teoria”. Di più: si è parlato di “dogma
dell’immacolata osservazione” per bollare come ingenuo il realismo che assume il dato certificato dai
sensi come coincidente con la realtà, pensata come autonoma e autosufficiente, cioè appunto come
oggettiva e totalmente indipendente dal soggetto. Come se una tale realtà non fosse ancora pensata
come indipendente dal pensiero e dal soggetto.
La questione, insomma, consiste nel modo di intendere il cosiddetto “reale”: il realismo ingenuo lo
intende come assolutamente indipendente dal soggetto, come preesistente ad esso, se non che, poi,
ritiene che la percezione, che è un’attività soggettiva, possa pervenire a cogliere questa realtà, senza
eo ipso negarne l’indipendenza, senza cioè trasformarla inevitabilmente nell’atto del coglierla; di
contro, il realismo critico o sofisticato riconosce che ciò che vale come “reale” altro non è che
l’esperienza di un soggetto, cosicché al reale immane un vincolo intrinseco e innegabile che impone
lo si consideri sempre relativo ad un punto di vista e mai assolutamente indipendente dal soggetto.
Ciò, tuttavia, non significa risolvere l’oggetto nel soggetto, come vorrebbe l’idealismo assoluto, dal
momento che soggetto e oggetto sono esistenze correlative: l’oggetto è ob- iectum, gettato di fronte
al soggetto, in modo tale che, se venisse meno il soggetto, anche l’oggetto sparirebbe; il soggetto è
sub-iectum, gettato sotto l’oggetto, dunque in relazione intrinseca con quest’ultimo.
La stessa evidenza, per quanta oggettività le si voglia attribuire, risulta tale solo a muovere da
assunti, in ordine ai quali si configura un campo di presenze che risultano “evidenti” solo in
riferimento ad essi. Il nodo, non di meno, è fondamentale. L’esigenza del conoscere, quella che lo
pone in essere come conoscere, è innegabilmente pervenire all’oggettivo, al reale, al vero, il quale è
tale non in quanto relativo a presupposti o assunti, ma anzi perché indipendente da essi.
Sennonché, tale esigenza, evidenziata dallo stesso Bacone, che è stato l’autentico inventore della
scienza moderna, non trova mai un compimento fattuale e rimane un’esigenza ideale. La totale
expurgatio intellectus non si realizza mai e il soggetto, nel riferirsi all’esperienza, finisce sempre per
riferire l’esperienza al proprio sistema di riferimento, così che l’esito è che la modella, le dà una
forma.
Kant ha espresso in forma esemplare il ruolo costitutivo che ha il soggetto nel configurarsi
dell’esperienza e Popper, che dichiara di ripensare il “problema di Bacone”, ha affermato il primato
della teoria sull’osservazione, valorizzando il metodo deduttivo rispetto a quello induttivo. Tuttavia,
non è facile far valere fino in fondo tale consapevolezza, dal momento che si vorrebbe avere un
banco di prova per verificare o falsificare le teorie. Il problema è che l’esperienza non può essere un
banco di prova definitivo e non lo è non solo in ambito verificazionista, giacché le teorie non possono
mai venire dichiarate vere (“verificare” è da verum facere), ma neanche in ambito falsificazionista:
nonostante l’asimmetria logica tra verificazione e falsificazione (per verificare una teoria si
dovrebbero osservare tutti i fatti che la riguardano, per falsificarla ne basta uno soltanto), ricorrere
all’esperienza come banco di prova ripropone il problema della teoreticità dell’osservazione. E ciò
vale anche per la falsificazione, nonostante Popper se lo sia dimenticato.
Glielo hanno, però, ricordato i suoi stessi “allievi”: Kuhn, Lakatos e poi Feyerabend hanno evidenziato
come sia sufficiente un opportuno accorgimento teorico per rendere innocua un’osservazione che
inizialmente poteva apparire falsificante. Nel caso della teoria “tutti i cigni sono bianchi”, ad esempio,
qualora si incontrasse un cigno nero, come effettivamente è stato, risulta sufficiente affermare che
100
non si tratta di un cigno, dal momento che il colore bianco delle piume viene assunto come tratto
determinante della categoria.
Si è cercato di riassumere, in forma cursoria, una discussione che va avanti da millenni, ma che si è
svolta in modo estremamente significativo nella seconda metà del Novecento, tra filosofi, filosofi
della scienza ed epistemologi. In effetti, a tale discussione hanno fornito un contributo assai rilevante
anche gli scienziati, in particolare i fisici. Si pensi, ad esempio, alla discussione aperta dalla teoria dei
quanti e dalla formulazione del principio di indeterminazione di Heisenberg, che sono state
interpretate, anche perché lo stesso Heisenberg lo ha affermato esplicitamente, come la piena
consapevolezza del ruolo che il soggetto osservante ha nella costituzione dell’oggetto osservato.
Sulla questione, offre un contributo illuminante l’opera di un grande fisico, Bernard D’Espagnat,
intitolata Alla ricerca del reale, nella quale l’impossibilità di assumere il “dato” in senso ingenuo viene
espressa in modo esemplare.
Tutta la psicologia del pensiero muove dall’assunto che si dia un modo corretto di pensare, espresso
dalla logica, e un modo empirico di pensare, che è il modo usato dalla maggior parte dei soggetti in
condizioni ordinarie. Scrive, a questo proposito, Vittorio Girotto: «Infatti, fino a non molti anni fa la
quasi totalità degli psicologi del ragionamento, ben lungi dal criticare l’uso dei problemi logici classici,
ha difeso una teoria che identificava il pensiero umano con la logica formale. I difensori di questa
teoria postulano che la mente delle persone, anche quelle che non hanno studiato la logica,
contenga un insieme di schemi di inferenza di tipo formale, cioè una sorta di logica mentale, che
permette di spiegare come vengono tratte le inferenze valide. Per esempio, le persone non esperte
di logica sono in grado di trarre l’inferenza valida del modus ponens perché applicano alle premesse
lo schema corrispondente, da loro inconsapevolmente conosciuto. Una spiegazione di questo tipo è
indubbiamente facile da accettare, dato il suo carattere intuitivo e la sua eleganza formale. Ci sono
però almeno due classi di fenomeni di cui non riesce a dare conto.
Da un lato, le persone traggono inferenze erronee da premesse che permetterebbero l’applicazione
di schemi di inferenza validi. Dall’altro lato, le inferenze che le persone traggono appaiono spesso
influenzate dal contenuto delle premesse. Per cercare di superare queste difficoltà, nel corso degli
ultimi due decenni sono state sviluppate alcune teorie alternative alla logica mentale. Secondo le più
importanti tra queste teorie, quelle dei modelli mentali, le persone comuni traggono inferenze valide
(come la conclusione del modus ponens), non sulla base
dell’applicazione di uno schema inferenziale, ma sulla base della costruzione e manipolazione di
rappresentazioni (o modelli) mentali del contenuto delle premesse».
In genere, parlando di psicologia del pensiero, oggi si tende a mettere a confronto le procedure
valide descritte dalla logica formale con le procedure ordinarie che i soggetti comuni mettono in atto
nelle condizioni in cui operano: «Tuttavia, obiettivo dello psicologo è soprattutto quello di analizzare
la fenomenologia del processo di pensiero: comprendere cioè come l’individuo ragioni nella vita
quotidiana e inserito nel proprio contesto, indagare quali siano le possibili spiegazioni di una
discrepanza tra pensiero razionale e pensiero reale. Non sempre, infatti, nei propri ragionamenti e
nelle proprie decisioni l’essere umano si rivela razionale, attenendosi a quanto prescritto dai sistemi
logici e formali».
Come si evince dal passo, la psicologia del pensiero muove dalla differenza tra “pensiero razionale” e
“pensiero reale”, progettando di fornire possibili spiegazioni alla “discrepanza” che non
infrequentemente si ravvisa tra di essi, sia in condizioni ordinarie sia in ambito sperimentale. Si dà,
dunque, per scontato che esista un “pensiero razionale”, cioè “universale”, che è poi quello descritto
dalla logica formale, e ci si limita ad osservare che non sempre gli uomini usano tale pensiero nel
corso della loro esistenza (o negli esperimenti svolti in laboratorio).

101
Forse tale assunto deve adeguatamente venire discusso, nel senso del tematizzare l’autentica
universalità della logica formale. Il fatto che gli schemi logico- formali vengano detti “validi” indica,
per ciò stesso, che essi sono universali? Quando si parla di “universalità”, cosa propriamente si
intende?

L'obiettivo dello psicologo è l'analisi fenomenologica dei processi di pensiero, intesa come raccolta
delle forme di pensiero in tutte le sue possibili varietà, come studio delle strutture caratteristiche di
queste forme, per giungere ad isolare i fattori che intervengono a determinare le varie forme di
pensiero.
Gli studi più noti in questo campo sono stati effettuati dai teorici della Gestalt.
Wertheimer si proponeva di analizzare quali fossero le condizioni in cui si può giungere ad un atto di
intelligenza creativa, quel tipo di pensiero che ci permette di risolvere problemi e che l'Autore ha
definito produttivo.
Molto spesso nell'apprendimento, o nella ricerca di una soluzione, vengono seguiti metodi che
prevedono atti puramente mnemonici, dettati dall’applicazione passiva di regole già apprese;
Wertheimer vuole mostrare come si possa giungere a soluzioni e ad apprendimenti più generali e
profondamente radicati quando si adotta un’impostazione che osservi la situazione come una totalità
significante e non come un insieme di parti.
In questa prospettiva, anche gli errori dovrebbero acquistare carattere positivo.
Il pensiero che segue questo procedimento porta ad una ristrutturazione del campo, viene chiamato
produttivo ed è ben diverso da un procedimento mnemonico o appreso passivamente.
E’ il tipo di pensiero che ci permette di risolvere i problemi.
Sarà Kohler, poi, ad introdurre un concetto basilare per la psicologia del pensiero: quello di INSIGHT,
che prevede che la soluzione di un problema possa coincidere con la ristrutturazione del campo
cognitivo (ristrutturazione cognitiva+consapevolezza di una relazione).
I gestaltisti, inoltre, hanno indagato, con Duncker, il costrutto del problem solving: una delle variabili
fondamentali del pensiero, che si configura come la capacità di generare mentalmente delle
alternative rispetto alla risoluzione di un problema.
Gli Autori hanno identificato al suo interno le seguenti fasi:
- Fase preoperatoria / Fase di incubazione, che ha a che fare con il fatto che la persona può
continuare a pensare ai termini del problema anche quando non sta attivamente meditando su
quello
- Fase di insight, ossia di improvviso reperimento di una soluzione tramite intuizione
- Fase di verifica.
La psicologia della Gestalt distingue dunque 2 tipi di pensiero:
- Pensiero riproduttivo: con il quale le conoscenze vengono utilizzate correttamente ma senza
essere creative;
- Pensiero produttivo: che è in grado di “creare” una soluzione nuova e di modificare la
struttura, percettiva o cognitiva, di un problema particolarmente importante quando ci troviamo in
una situazione complessa che non presenta possibilità di soluzione immediata e che non consente
l’uso di schemi di comportamento già sperimentati.
Altri tipi di pensiero distinti dagli Autori sono:
- Il pensiero prevenuto, costituito dalla credenza e dall’oggetto della credenza. Si esprime in stereotipi
e pregiudizi.
- Il pensiero nevrotico, costituito dalla presenza massiva di meccanismi difensivi primitivi, distorsione
e restringimento del campo, irrazionalità, concezione dicotomica della vita eccetera.
- Il pensiero psicotico, deviazione del pensiero logico così evidente da giustificare la sua delimitazione
102
al campo strettamente patologico.
Tra le metodologie di indagine, il Test proiettivo di Rorschach permette una valutazione qualitativa
del pensiero; in particolare, consente di individuare la presenza di inibizione del pensiero produttivo
causata da stati depressivi. Citiamo inoltre la scala WAIS, di fondamentale importanza per l’indagine
del funzionamento del pensiero tipico di alcuni pazienti, come ad esempio il pensiero dicotomico nei
disturbi del comportamento alimentare. Infine il Test del pensiero creativo di Torrance, per
individuare e misurare in modo utile e funzionale le capacità creative di bambini, adolescenti e adulti,
adatto a valutare gli effetti differenziali di diversi programmi e metodi didattici.
Per quanto riguarda i risvolti applicativi è molto importante, per lo psicologo, considerare le
componenti profonde ed emotive che possono sovrapporsi alle normali facoltà logiche di pensiero.
Lo sviluppo della Psicoterapia Cognitiva è legato alla necessità di fornire fondamento scientifico al
trattamento psicologico dei disturbi mentali ed emotivi. Il termine "cognitivo" fa riferimento in modo
particolare al rilievo dato alle modalità di pensiero, di conoscenza di sé e di sé con gli altri. La
Psicoterapia Cognitiva si prefigge due obiettivi principali: il primo è quello di definire il tipo di
pensiero che accompagna le emozioni negative (es. dolore, sconforto, paura). Il secondo consiste nel
cercare delle modalità alternative, più funzionali, di affrontare le situazioni problematiche. L'adozione
di modalità di pensiero più costruttive conduce a una modificazione dell'esperienza emozionale
dolorosa. Risvolti applicativi importanti riguardano inoltre il riconoscimento dei disturbi del pensiero:
per lo psicologo è fondamentale saper riconoscere e valutare disturbi di forma e contenuto delle idee
al fine di meglio comprendere le problematiche presentate dall’individuo. Tra questi citiamo, ad
esempio, la circostanzialità (si perde in dettagli, passando ad altri argomenti), l’inibizione (povertà di
idee, rallentamento del pensiero), la confabulazione (tentativo di mantenere un pensiero iniziato in
una direzione coerente, mentre le reali informazioni sono insufficienti all’assunto), idee dominanti,
deliri e così via. Inoltre citiamo il BRAINSTORMING, una tecnica di creatività di gruppo per far
emergere idee volte alla risoluzione di un problema.
Un’altra definizione del pensiero lo definisce qualsiasi attività mentale che abbia dei contenuti
simbolici, che cioè si avvalga di rappresentazioni astratte e non sia per necessità dipendente dai dati
percettivi (quando si fanno dei ragionamenti, si cerca di risolvere un problema, si riflette su un
avvenimento passato oppure futuro, si elaborano progetti ecc.). I contenuti simbolici del pensiero si
possono chiamare concetti. Se non pensassimo per concetti saremo sommersi dalla quantità di
informazioni. Il concetto è un modo che la nostra mente ha adottato per dare ordine alle
informazioni e per economizzare il tempo ed energia (su una persona nomina ad un'altra parola
"cavallo" l'interlocutore capisce subito, poiché nella sua mente si attivano tutte quelle informazioni
che sono ad essa collegate).
Una ulteriore differenziazione (introdotta da Guilford) è quella che vede contrapporsi:
- il pensiero divergente (quel tipo di pensiero che ha la caratteristica di scindere i fenomeni per
cogliere alternative di significato e di uso degli stessi concetti ed oggetti)
- il pensiero convergente (quel tipo di pensiero che analizza e scopre gli elementi comuni e
associabili fra loro nel portare verso una sola direzione / soluzione).
Un ulteriore distinzione è possibile tra
- pensiero realistico (cioè la capacità di essere in comunicazione con se stessi, con gli altri e col
mondo esterno)
- pensiero autistico (introdotta da Bleuler) e fa riferimento ad un tipo di pensiero
completamente egocentrico e caratterizzato dal completo o quasi completo distacco dalla
realtà).
Una distinzione che in letteratura è molto frequente è quella tra
- pensiero quotidiano (caratteristico delle moltissime situazioni problematiche della vita di ogni
103
giorno, in cui le persone, senza compiere alcuno sforzo per essere logiche o scientifiche,
intendono ugualmente prendere posizione, arrivare ad una soluzione, che viene accettata
come valida anche se in realtà, dato il modo in cui è stata raggiunta, non presenta alcuna
garanzia di validità rispetto ad un'altra soluzione qualsiasi)
- pensiero logico (pensiero che nella costruzione di un ragionamento utilizza in ogni passaggio gli
strumenti forniti dalla logica dando giustificazione razionale del percorso concettuale seguito).
Riguardo al pensiero, gli psicologi si sono occupati per lo più di capire i meccanismi sottostanti alla
produzione di pensiero e di individuare i fattori responsabili degli errori di pensiero.
Il pensiero può essere definito come l’attività mentale in grado di elaborare e di sviluppare le
relazioni fra le informazioni codificate in precedenza nella memoria.
Il pensiero può assumere, però, forme differenti, sostanzialmente in due macrocategorie: la prima
include le forme di pensiero non finalizzato, ovvero quelle caratterizzate da associazioni libere,
attività oniriche…; la seconda invece include le diverse forme di pensiero rivolto a una meta, come il
ragionamento, i processi mentali volti alla soluzione di problemi e alla presa di decisione.
Il pensiero è la facoltà di conoscere e comprendere gli aspetti generali e universali delle cose, senza
dipendere immediatamente, e di volta in volta, dalle singole cose e dagli aspetti isolati con cui esse ci
appaiono. Si tratta cioè della capacità di cogliere il reale per "astrazione". Ad es. con la parola "mela"
possono essere comprese e identificate tutte le mele del mondo, anche se ogni mela può essere
diversa dall'altra. Inoltre col concetto di "mela" s'intende un vasto complesso di elementi
strettamente integrati: forma, colore, volume, peso, ecc.
Il pensiero è presente in ogni fenomeno cosciente: è l'attività che percepisce, elabora ricordi,
coordina immagini, astrae, compara, giudica, ragiona.
Abbiamo un pensiero percettivo che ci mette in contatto con gli avvenimenti che accadono in noi e
nel mondo esterno; un pensiero immaginativo che ci rappresenta i dati percepiti o evocati dal
passato; un pensiero associativo che stabilisce un certo ordine tra i vari fenomeni psichici; un
pensiero affettivo che elabora le manifestazioni della nostra affettività; un pensiero volitivo che
presiede ad ogni azione volontaria.
Il pensiero si eleva al di sopra del mondo delle percezioni per formare schemi generali che sono i
concetti; esso afferra relazioni e trasforma il materiale fornito dai ricettori sensoriali in un sistema di
giudizi, attraverso un processo di analisi e sintesi (ragionamenti).

La formazione dei concetti


Presupposto necessario alla formazione del ragionamento è il concetto, termine con cui ci si riferisce
ad un simbolo astratto e generale che racchiude tutte le caratteristiche più rilevanti, comuni a un
gruppo determinato di oggetti o eventi.
I concetti si formano perché il nostro pensiero separa nella realtà quello che è utile o essenziale da
ciò che è superfluo, ovvero le caratteristiche costanti da quelle variabili.
Noi riconosciamo e classifichiamo gli oggetti sulla base dei concetti.
Questo processo di schematizzazione dei dati percettivi rappresenta una grande economia di energia
e di pensiero. Se dovessimo affrontare ogni oggetto o situazione come se fossero unici e irripetibili,
saremmo sopraffatti dalla realtà.
I due processi fondamentali per giungere alla formazione di un concetto sono quindi l'astrazione e la
generalizzazione.
Il pensiero come giudizio.
Si parla di giudizio esplicito quando dalla percezione (che di per sé può anche costituire un giudizio
implicito) si passa ad una riflessione cosciente, espressa verbalmente o per iscritto o in maniera
gestuale.
104
L'attività giudicativa consiste nel riunire due percezioni o due immagini o due concetti, stabilendo tra
loro un rapporto.
Giudicare significa congiungere due termini con una affermazione, o separarli con una negazione. Ad
es. il viso di una persona incontrata ci fa venire in mente quello di un'altra persona: questa
associazione per somiglianza, per diventare giudizio, richiede che il pensiero decida la verità o la
falsità dell'asserzione.
Il giudizio presume sempre una qualche certezza, o in positivo o in negativo.

Il pensiero come ragionamento


Quando da uno o più giudizi ricaviamo la validità di un altro giudizio (l'affermazione di un nuovo
rapporto), noi elaboriamo un ragionamento.
Stabilito un punto di partenza, si cerca di arrivare a un punto di arrivo.
Il giudizio di conclusione scaturisce dalle premesse, considerate come evidenti, e dai rapporti logici
con altri giudizi che si fanno nel corso del ragionamento. Il passaggio da un giudizio all'altro
costituisce il processo della ragione, che è appunto una serie coordinata di giudizi in un tutto
organico.
Dai dati particolari passiamo, con un procedimento induttivo, ai principi generali e dai principi
generali, con un procedimento deduttivo, passiamo alle conseguenze particolari; oppure procediamo
per somiglianze, ma il procedimento per analogia non è rigoroso.

Il pensiero nell'età evolutiva.


Il pensiero si struttura durante l'età evolutiva, in rapporto alla progressiva maturazione fisica e
psichica dell'individuo.

Nell'infanzia la vera attività intellettuale non è ancora comparsa: il pensiero è sorretto da uno
schematismo pre-logico, legato ai dati immediati della percezione. Il bambino inizia a ragionare con
la forma analogica, che risponde al primo bisogno di "prova", cioè con un procedimento di
verosimiglianza che va da un particolare a un altro particolare, detto "transduttivo" (aldilà della
deduzione). Questo pensiero difetta di analisi, è irreversibile, unidirezionale.

Il fanciullo invece confronta gli oggetti tra loro e ci ragiona sopra, nota le caratteristiche comuni e
differenti, intravede nuovi rapporti, pur nei limiti dell'immediato presente.

L'adolescente supera il ragionamento concreto del fanciullo, basato unicamente sulle azioni e sulla
realtà, e sconfina nel campo del pensiero puro, della logica formale (aritmetica, matematica,
geometria ecc.), dando così inizio al ragionamento ipotetico-deduttivo, svincolato da ogni
dipendenza dal reale.

Caratteristiche essenziali del pensiero logico


Un pensiero sensoriale è concreto, un pensiero intellettuale è astratto. La capacità di astrazione
permette di cogliere l'essenziale di un tutto, di analizzare il tutto nelle sue parti e di riunirle nell'unità
della sintesi. Un pensiero logico ha la capacità di riflettere sulle proprietà comuni delle cose, di
schematizzarle nella struttura del concetto e di ordinare i concetti in una serie gerarchica, secondo il
loro grado di astrazione. Solo attraverso il pensiero logico il soggetto si rende conto di sé e rende
conto di sé agli altri.

Da ricordare anche il pensiero intuitivo, che ci permette di cogliere la verità non col ragionamento,
105
ma con una specie di illuminazione interna, improvvisa, inconscia. Questo pensiero spesso lo si
ritrova (unito al pensiero logico) a capo di molte scoperte scientifiche, ma soprattutto nel campo
artistico e religioso.

Ovviamente l'articolazione del pensiero presuppone l'uso della parola, sia essa pensata, parlata,
scritta o espressa col linguaggio dei sordomuti. Senza il linguaggio che socializza i pensieri, non
sarebbe possibile pensare, come senza pensiero sarebbero impossibili il linguaggio interiore ed
esteriore. Il pensiero precede, anzi crea la parola, ma la parola, a sua volta, è creatrice di pensiero,
perché la parola creata torna al pensiero, lo precisa, lo arricchisce, lo sviluppa.

Il pensiero produttivo
Il pensiero produttivo è quella forma di ragionamento che entra in azione ogni volta che ci troviamo
di fronte a una situazione problematica, possibile di soluzione, ma tale da non presentare possibilità
di soluzioni immediate e da non permettere nemmeno l'impiego di schemi di comportamento
abituali. Tale situazione, se risolta, porta in genere a una nuova conoscenza.

Su questa particolare forma di pensiero è da vedere il contributo offerto dagli studi sulla psicologia
animale compiuti da Kohler (uno dei maggiori esponenti della psicologia della percezione).

Le sue numerose osservazioni possono essere ricondotte a questo schema: un animale è affamato e
quindi motivato a prendere cibo; questo non può essere raggiunto direttamente; per farlo l'animale
deve risolvere un piccolo problema (p.es. aggirare la gabbia, utilizzare delle cassette o dei bastoni). I
risultati mostrano che lo scimpanzé giunge alla soluzione mediante un'improvvisa riorganizzazione
del campo psicologico (ciò soprattutto avviene nel momento in cui, p.es., il bastone cambia di
significato e diviene da oggetto per giocare a strumento).

Normalmente le difficoltà che impediscono di ottenere la soluzione di un determinato problema


sono legate alla tendenza propria del pensiero umano a ricercare dei metodi risolutivi già
sperimentati per problemi analoghi.

A volte risulta difficile vedere altre proprietà o funzioni in un oggetto che è sempre stato utilizzato in
una determinata maniera (p.es. una bottiglia che in una situazione d'emergenza può anche essere
vista come "candeliere").

Quando questa fissità dovuta all'abitudine è tale da precludere con una certa forza la soluzione dei
problemi, si parla di rigidità mentale.

Tuttavia l'individuo, a differenza dell'animale, può distaccarsi dalla situazione, mettersi al di fuori
della presenza reale degli oggetti, al fine di cercare la giusta soluzione. In lui si realizza il
ragionamento che è reso possibile in quanto ha raggiunto il pensiero concettuale.

Il pensiero onirico
Freud è stato il primo ad occuparsi seriamente dei sogni in maniera del tutto nuova rispetto alle
teorie mediche precedenti. Egli riteneva che il sogno, come il lapsus, doveva essere considerato
come un fenomeno psichico finalizzato a soddisfare un desiderio inconscio attraverso
un'allucinazione visiva che assume il carattere di realtà.
Il sogno è una forma particolare di pensiero in cui non ci sembra di pensare bensì di vivere,
106
accettando in buona fede delle allucinazioni.
I pensieri vengono trasformati in immagini (per lo più visive): le rappresentazioni delle parole
vengono trasposte in rappresentazioni di cose concordanti, che divengono consce come percezione
sensoriale.
Nel sogno agisce la censura che maschera il materiale inconscio prima che possa accedere alla
coscienza sotto forma di sogno. Se il desiderio rimosso non ha una sufficiente copertura, il sogno è
regolarmente accompagnato da angoscia, che interrompe il sonno.
Il pensiero onirico segue una logica diversa dal pensiero vigile, creando contatti e legami e
coincidenze anche quando non esistono o sono irreali. Le scene visive che costituiscono il sogno
rappresentano il contenuto manifesto, dall'analisi del quale si può risalire al contenuto latente.

PENSIERO E LINGUAGGIO
Il linguaggio è certamente la capacità cognitiva che più caratterizza la specie umana e che permette
almeno due importanti funzioni: quella comunicativa e quella conoscitiva. Dato che queste ultime
due funzioni sono la base costituente l’attività di pensiero, il problema del rapporto tra linguaggio e
pensiero appare una delle questioni più dibattute della psicologia.
Su questo complesso problema si possono considerare schematicamente 6 ipotesi:
1) Il pensiero è linguaggio–ipotesi comportamentista.
2) Il pensiero dipende dal linguaggio – ipotesi del relativismo linguistico di Whorf.
3) Il linguaggio dipende dal pensiero – ipotesi cognitivista di Piaget.
4) Linguaggio e pensiero sono originariamente indipendenti, successivamente si integrano in un
processo di reciproco potenziamento – ipotesi di Vygotksij.
5) Il linguaggio è pensiero – ipotesi di Bruner.
6) Linguaggio e pensiero sono costruiti socialmente, attraverso la comunicazione – ipotesi di
Shaffer.
Le linee teoriche di riferimento sono quelle che intorno agli anni 70 hanno visto contrapposta la
visione di Piaget (il linguaggio dipende dal pensiero) a quella di Vygotskij (linguaggio e pensiero sono
in origine interdipendenti).
Secondo Piaget, lo sviluppo cognitivo precede sia logicamente che ontogeneticamente l’emergere del
linguaggio ed è autonomo rispetto ad esso, mentre lo sviluppo linguistico deriva e dipende dallo
sviluppo cognitivo. Questo si può osservare dal fatto che gli schemi di azione cognitivi (prendere,
fare) nel bambino si sviluppino prima delle competenze linguistiche.
La posizione di Piaget ha influenzato gli studi sul linguaggio portando a formulare la cosiddetta
“ipotesi cognitiva” e stimolando una serie di ricerche atte ad individuare i prerequisiti cognitivi per la
comparsa del linguaggio (Bloom).
Nonostante queste ricerche abbiano messo in luce come soltanto alcune abilità cognitive
caratteristiche dello sviluppo sensomotorio (imitazione, il gioco simbolico, ecc) ad 1 anno di età
correlano con la comparsa del linguaggio; non è stata, tuttavia, dimostrata la tesi della dipendenza
del linguaggio dal pensiero e conseguentemente la superiorità di quest’ultimo rispetto alla prima.
Vygotskij suggerì l’iniziale indipendenza del pensiero dal linguaggio: esempi di linguaggio non
concettuale sono il Babbling (lallazione prelinguistica del bambino, caratterizzata da coppie di vocali e
consonanti) e i suoni prodotti alla presenza di certi oggetti. Il linguaggio ed il pensiero si fondono,
secondo l’autore, all’età di 2 anni circa, in cui i bambini imparano che gli oggetti hanno un nome e,
quindi, utilizzano le parole come simboli. Successivamente diventano interdipendenti: il linguaggio
fornisce una spinta alla cognizione e viceversa.
Secondo Vygotskij, pensiero e linguaggio non si sovrappongono mai completamente, neanche negli
adulti. Egli attribuisce un ruolo importante all’interazione sociale nello sviluppo di tutte le funzioni
107
mentali superiori (rispetto alla visione di Piaget): tutte le funzioni mentali compaiono come sociali,
richiedono, cioè, il supporto degli altri individui, ed in seguito diventano individuali grazie ad un
processo di interiorizzazione.
Perciò, mentre per Piaget il linguaggio egocentrico si riflette nell’incapacità del bambino di fare
proprio il punto di vista di un altro individuo e tende a sparire con il tempo, per Vygotskij, invece,
esso aiuta il bambino a dirigere le sue attività di soluzione dei problemi e con lo sviluppo evolve in
linguaggio interiore.

Metodi e strumenti
Strumenti utili per individuare legame tra pensiero e linguaggio sono:
- il test di fluenza verbale, in grado di dare una misura della capacità di ricerca rapida di parole nel
lessico interno e indaga l’organizzazione delle funzioni cognitive del pensiero e del linguaggio; spesso
questa prova è parte integrante del test dell’afasia (per pazienti lievi o di media gravità). La prova di
fluenza viene utilizzata per valutare il miglioramento dell’afasia in quanto il numero di parole
prodotte aumenta con il regredire del disturbo lessicale. Viene, inoltre, utilizzato come test frontale
per valutare la capacità del paziente di generare una strategia di ricerca appropriata.
- il test della generazione di frasi: cerca di dare una misura della capacità di far uso delle regole
grammaticali sintattiche per produrre una frase.

IL RAGIONAMENTO
Come abbiamo detto, una particolare caratterizzazione del pensiero è quella di manifestarsi come
capacità di ragionamento.
Secondo Gallotti, il ragionamento è un’attività che sottopone l’informazione data a delle
trasformazioni, così da poter giungere a delle conclusioni.
Vi sono tipicamente due forme di ragionamento:
- il ragionamento deduttivo: dal generale al particolare. Si parte da un insieme di assunzioni
(premesse) cui devono seguire necessariamente determinate conclusioni; la conclusione non
aggiunge nuova informazione perché l’informazione è già presente (anche se implicitamente)
nelle premesse. E’ possibile ottenere conclusioni valide. Ad esempio, nelle premesse diciamo:
“tutti gli animali sono mortali”. Il leone è un animale. La conclusione implicita è che il leone sia
mortale.
- il ragionamento induttivo: dal particolare al generale. Basato su dati dell’esperienza o
osservazioni che fungono da indizi. La conclusione aggiunge nuova informazione non presente
nelle premesse. Non è garantita la validità delle conclusioni raggiunte. Ad esempio: tutte le
pantere che ho visto sono nere. La conclusione è…quindi, tutte le pantere sono nere. Non è
garantita qui la validità delle conclusioniraggiunte.

Sillogismi ed errori di ragionamento deduttivo


La struttura di ragionamento sillogistico è la forma più semplice di ragionamento deduttivo. I
sillogismi sono una particolare forma di logica deduttiva in cui due proposizioni sono combinate in
maniera da produrre una proposizione finale.
I sillogismi sono costituiti da due premesse che conducono necessariamente ad una conclusione.
Il ragionamento categoriale è un ragionamento basato su sillogismi, perché le premesse del sillogismo
specificano le relazioni tra categorie.
Le proposizioni possono essere universali o particolari, affermative o negative.
La verità di un sillogismo deriva soltanto dal fatto che le conclusioni derivano dalle premesse.
Spesso è difficile separare il problema dalla validità di un sillogismo, dall’incongruenza tra il sillogismo
108
e le proprie credenze.
Conseguentemente può succedere che un sillogismo venga rigettato perché la sua conclusione non
viene considerata empiricamente vera.
Woodworth e Sells (effetto atmosfera) hanno avanzato l’ipotesi che differenti tipi di premesse creino
un’atmosfera che predispone i soggetti ad accettare una conclusione che contiene il medesimo
quantificatore.
Secondo Woodworth e Sells una premessa negativa crea un’atmosfera negativa, ma la cocnlcusione
non è necessariamente vera:
Alcuni A sono B; alcuni B sono C; quindi, alcuni A sono C
Nessun A è B, tutti i B sono C, quindi nessun A è C
I soggetti devono valutare se le conclusioni fornite sono valide. Gli errori dipendono dall’atmosfera
delle premesse.
Premesse entrambe universali, portano ad una conclusione universale.
Premesse entrambe particolari, portano ad una conclusione particolare.
Premessa negativa porta ad una conclusione negativa.
Premessa particolare porta ad una conclusione particolare.

Nelle prime ricerche condotte sul ragionamento veniva chiesto ai soggetti di giudicare se le
conclusioni proposte erano conclusioni valide.
I soggetti utilizzati in questi compiti facevano degli errori sistematici quando le permesse e le
conclusioni presentavano particolari caratteristiche: i giudizi sembravano influenzati da una sorta di
effetto atmosfera creato dal tipo di sillogismo proposto. Un altro errore comune è determinato
dall’interpretazione di proposizioni che contengono quantificatori, interpretazione che renderebbe
talvolta la conversione della relazione tra i termini, inaccettabile.

Gli effetti del contenuto sulla deduzione


I primi tentativi per spiegare come mai gli individui spesso falliscono nel concludere correttamente
un ragionamento sillogistico sono stati indirizzati all’esame del ruolo del contenuto delle proposizioni
alla base del ragionamento e in particolare del ruolo della conoscenza, della credibilità, della
concretezza delle premesse.
Nelle ricerche svolte si osserva che i soggetti accettano affermazioni come vere semplicemente per il
fatto che sono congruenti con le loro credenze.

Il ragionamento deduttivo condizionale


Sillogismo condizionale, modalità di ragionamento costituito anch’esso da una premessa maggiore e
una premessa minore, ma in questo caso nelle premesse non sono contenuti dei quantificatori come
nel caso dei sillogismi finora esaminati: nel sillogismo condizionale, infatti, la premessa maggiore ha
la forma di un enunciato condizionale del tipo “se.. allora ..”.
La premessa minore è un enunciato che può esprimere o la proposizione antecedente o la
proposizione conseguente; entrambi gli enunciati possono essere proposti o in forma affermativa o
in forma negativa. Per determinare se una conclusione tratta da un argomento condizionale è valida
occorre far ricorso alla “tavola di verità”, ovvero uno dei metodi usati dai logici per stabilire quali
sono gli argomenti validi: tale metodo indica lo stato di verità di un enunciato complesso a partire dai
valori di verità delle singole proposizioni costituenti.

Errori di conversione (Chapman e Chapman)


Molti errori di conversione dipendono dalla tendenza a sottoporre le premesse a conversioni illecite.
109
Talvolta gli individui convertono poco saggiamente una premessa e accettano la conclusione erronea
che segue una tale conversione.
Tutti gli A sono C
Tutti i B sono C
Quindi tutti gli A sono C

Schemi di ragionamento condizionale ed errori logici


Nel ragionamento condizionale si possono utilizzare due schemi inferenziali validi, ovvero due
conclusioni che derivano necessariamente dalla relazione tra la premessa maggiore e la premessa
minore. Il primo schema inferenziale, detto “modus ponens”, è caratterizzato dalla proposizione
condizionale e dall’affermazione dell’antecedente. La conclusione che viene facilmente derivata
applicando questo schema consiste, dunque, nell’affermazione della conseguente. Il secondo schema
inferenziale, detto “modus tollens”, è caratterizzato dalla proposizione condizionale e dalla negazione
della conseguente.
La conclusione che si può derivare applicando questo schema consiste, dunque, nella negazione
dell’antecedente.
Quando si sviluppa un ragionamento condizionale si può incorrere in due fallacie.
La prima fallacia conosciuta come “negazione dell’antecedente” produce come errore tipico la
negazione della conseguente; la seconda cui si può incorrere è quella denominata “affermazione
della conseguente”.

La teoria della logica mentale


La teoria della logica mentale si basa sull’assunto che gli individui quando devono fare delle inferenze
deduttive utilizzano un insieme di regole molto astratte simili a quelle della logica.
Uno dei principali sostenitori di questa teoria, Braine, assume che tutti gli individui posseggono gli
schemi astratti, come lo schema modus ponens e lo schema modus tollens.
Si può, quindi, affermare che la capacità di ragionare è resa possibile da questa “competenza”
acquisita a seguito della maturazione cognitiva dell’individuo e che gli errori sono imputabili alle
difficoltà generate dall’inadeguata applicazione delle strategie volte al coordinamento della sequenza
di inferenze o a causa del fraintendimento delle premesse o a disattenzione, a causa dell’incapacità
di mantenere le informazioni rilevanti nella memoria di lavoro o errori fatti nell’applicazione degli
schemi inferenziali.
La teoria della logica mentale consente, quindi, di rendere conto di come certe inferenze sono più
facili di altre e come certi ragionamenti portano spesso a trarre conclusioni non valide.
Tale teoria propone che la difficoltà è determinata dal fatto che non esiste un singolo schema da
applicare così come nel caso del modus ponens, ma si deve applicare una serie di regole diverse per
trarre una conclusione; ciò espone l’individuo a commettere più frequentemente errori anche in
conseguenza del carico cognitivo cui è sottoposta la memoria di lavoro.

I modelli mentali e ragionamento sillogistico


La teoria dei modelli mentali è stata proposta da Johnson-Laird per rendere conto dei limiti delle
teorie logiciste. Gli individui costruiscono dei modelli mentali della situazione a cui si riferiscono e poi
traggono delle conclusioni a partire da questo modello mentale. Un insieme di premesse rende
possibile la costruzione di vari modelli mentali. Una conclusione viene accettata se è coerente con
tutti i modelli mentali che sono stati costruiti.
La teoria si basa sull’idea che il ragionamento si fonda sulla generazione di rappresentazioni mentali
110
o modelli del mondo.
Essenzialmente la teoria descrive un processo mentale che si sviluppa in 3 fasi:
- prima fase: comprensione delle premesse grazie alle conoscenze linguistiche e a tutte le conoscenze
rilevanti per tale compito;
- seconda fase: combinazione dei modelli delle premesse per ottenere una descrizione della
situazione che può essere definita da quelle premesse;
- terza fase: validazione ovvero ricerca di modelli alternativi che sono congruenti con le premesse, ma
in cui la conclusione candidata ad essere adottata è falsa; se ciò si verifica allora la conclusione è falsa
e deve essere ricercata e validata un’altra conclusione. Questa fase si conclude quando tutte le
potenziali conclusioni sono esaurite.
In due modelli mentali che condividono un termine è possibile combinarli in modi differenti per
ottenere possibili modelli mentali alternativi.
Se i modelli mentali possono essere combinati in un solo modo, sarà possibile ottenere un’unica
conclusione valida.
Se invece i modelli possono essere combinati in più di un modo, allora il processo di ragionamento
produrrà più di una possibile conclusione.
Due modelli mentali integrati conducono a conclusioni molto differenti tra loro.
I modelli mentali possono essere utilizzati anche per spiegare il ragionamento condizionale e per
rendere conto degli errori commessi.

Ragionamento lineare e modelli mentali di descrizioni spaziali


Ci sono problemi di ragionamento in cui le asserzioni forniscono informazioni relative alle relazioni
esistenti fra i termini. Questi problemi sono denominati “sillogismi lineari” o problemi a tre termini. In
questi casi si trae un’inferenza valida quando si riescono ad ordinare in maniera coerente gli elementi
del problema.
Le difficoltà nella risoluzione di un problema a tre termini può essere imputabile alla difficoltà nella
comprensione delle premesse e della domanda cui si deve rispondere.
Una modalità per risolvere problemi di questo tipo è quella di costruirsi una rappresentazione
unitaria dei termini e delle relazioni che compongono il problema, ovvero una rappresentazione
analogica che riproduce l’ordinamento degli elementi secondo la direzione verticale o orizzontale.
La costruzione di un modello mentale per rappresentarsi e ricordare descrizioni spaziali ha
un’efficacia maggiore della comprensione e della rappresentazione puramente proposizionale del
problema.

Il ragionamento induttivo
Ragionare in maniera induttiva non consente di provare che una conclusione o un’ipotesi siano
logicamente valide, tutt’al più un’ipotesi specifica può essere logicamente confutata. La ricerca
scientifica opera così.
In psicologia sono stati messi a punto vari compiti per capire i meccanismi alla base dell’incapacità
della gente di generare ipotesi che possano essere sottoposte a prova e di tentare di falsificarle.
La tendenza errata è,infatti, quella di confermare le ipotesi.
Il “compito di selezione” è un famoso problema, proposto da Wason, per studiare le strategie
utilizzate dagli individui per risolvere problemi di questa natura. La spiegazione più semplice di
questo errore sistematico è che gli individui incontrino difficoltà nell’utilizzare materiale astratto.
Gli effetti del materiale del contesto plausibile nel compito di selezione.
Mentre negli esperimenti di Wason il 10% circa dei soggetti riusciva a produrre la risposta corretta, in
un esperimento successivo condotto da Johnson-Lairs e Legrenzi, le risposte corrette salivano a oltre
111
l’80%. La facilità con cui i partecipanti riuscivano a svolgere il compito di ragionamento venne
spiegata con il fatto di aver utilizzato materiale concreto.

Generazione e falsificazione di ipotesi


Wason ideò un particolare paradigma in cui i soggetti devono generare le informazioni necessarie per
risolvere un problema volto a comprendere ulteriormente i processi sottostanti alla generazione e
alla falsificazione di ipotesi. In uno degli esperimenti eseguiti, Wason proponeva ai soggetti una
tripletta di numeri (2, 4, 6) e diceva loro che tale tripletta era stata generata in base a una regola che
era nota solo allo sperimentatore; la regola che aveva in mente era ‘sequenza di numeri crescenti’. Il
compito dei partecipanti era quello di indovinare quale fosse la regola con cui lo sperimentatore
aveva costruito la tripletta; i soggetti producevano esempi che erano tutti coerenti con la regola
corretta ed enunciavano ipotesi più specifiche rispetto a quella corretta. Il compito, per quanto possa
apparire semplice, nasconde un’insidia comunicazionale e cioè il fatto che la regola corretta viola
l’imperativo di Grice, vale a dire che non si deve dire né più né meno di quanto è necessario. Il
compito sarebbe facilmente risolto se i soggetti procedessero con una stretegia volta a falsificare le
ipotesi formulate.

Gli schemi pragmatici di ragionamento e la teoria dei contratti sociali


Alcuni ricercatori hanno proposto che la facilità con cui gli individui riescono a svolgere un compito di
selezione con materiale concreto dipenda dal fatto che possono essere utilizzate delle regole
pragmatiche che possono venire normalmente impiegate in due classi di situazioni. Cheng e Holyoak,
per primi, hanno proposto l’ipotesi che generalmente gli individui applicano il ragionamento
condizionale per scopi pragmatici in particolare o per aver il permesso di fare qualcosa oppure perché
devono aderire a un obbligo o accattare dei vincoli contrattuali. Nel primo caso, gli individui applicano
uno schema di permesso e cioè se qualcosa è vero allora si può fare qualcos’altro; nel secondo caso,
applicano uno schema di obbligo e cioè se qualcosa è vero allora si deve fare qualcos’altro. Gli schemi
pragmatici proposti da Cheng e Holyoak costituiscono delle rappresentazioni di regole astratte in
termini di “condizione-azione”, rappresentazioni che possono essere applicate in differenti domini.
Una prospettiva differente per rendere conto della facilitazione con cui i soggetti possono risolvere
problemi relativi al controllo di ipotesi è stata avanzata da Cosmides ed è nota come “teoria dei
contratti sociali”. Secondo la Cosmides gli individui intrattengono relazioni in cui possono ottenere
qualcosa in cambio di qualcos’altro, cioè concorrono a stabilire dei comportamenti grazie ai quali
possono ottenere vantaggi reciproci; quindi gli individui stipulano implicitamente dei contratti sociali
che definiscono i termini di questo compromesso. La struttura tipica del contratto sociale può essere
espressa dalla seguente regola: se un individuo riceve un beneficio allora deve sostenere un costo. Il
compito di selezione proposto da Wason può essere rappresentato come un contratto sociale: il
soggetto che deve risolvere il compito assume l’atteggiamento di chi deve smascherare il trasgressore
della regola.

GIUDIZIO E DECISIONE
Quando gli individui devono produrre delle stime o effettuare delle valutazioni, possono fare ricorso a
procedure formalizzate che consentono di svolgere i compiti di giudizio in maniera accurata. Tali
procedure richiedono informazioni precise e complete e un carico cognitivo che spesso l’individuo non
è in grado di sostenere. Molto spesso gli individui fondano i propri giudizi su informazioni imperfette o
incomplete e perciò ricorrono a procedure pratiche economiche, dette euristiche che spesso
espongono i decisori a errori di valutazione ovvero distorsioni sistematiche nei giudizi, dette bias.
Gli individui spesso si servono di euristiche, o espedienti, che possono produrre il risultato desiderato
112
in alcune situazioni, ma che possono anche risultare fuorvianti in altre situazioni.
Anche se alcune euristiche funzionano molto bene, talvolta esse rappresentano dei processi
inferenziali che si discostano dai principi del ragionamento corretto.
I soggetti spesso compiono degli errori di ragionamento a causa della tendenza alla conferma e del
bias di confronto. Sono stati scoperti circa 30 di questi biases cognitivi.
Se noi fossimo competenti e accurati nell’effettuare stime, non dovremmo esprimere giudizi molto
distanti da quelli che si possono ottenere applicando le leggi della probabilità o modelli come il
teorema bayesiano, messo a punto dal monaco olandese Thomas Bayes nel XVIII secolo, per
combinare informazioni differenti per giungere alla formulazione di stime accurate e formalmente
corrette.
Nel caso di O.J. Simpson, il penalista avrebbe potuto formulare un giudizio corretto se avesse applicato
il teorema, ovvero non studiando “le donne picchiate” ma “le donne picchiate e poi uccise da
qualcuno” concludendo che la maggior parte di queste veniva assassinata dal compagno.

Probabilità soggettiva
Jacob Bernouilli, intorno all’inizio del 1700, ha scoperto la legge dei grandi numeri. Uno dei
fraintendimenti che circondano tale legge ha a che fare con la sua relazione con quella che viene
comunemente chiamata legge delle medie.
La legge dei grandi numeri specifica quanto spesso un evento si verifica a lungo andare.

Le euristiche di giudizio
Spesso gli individui tendono a credere che un piccolo campione sia rappresentativo della popolazione
da cui è stato tratto. Questa credenza è stata chiamata legge dei piccoli numeri. La credenza in tale
legge conduce gli individui a fare uso della euristica della rappresentatività, ovvero a fare delle
inferenze assumendo che piccoli campioni siano simiili fra loro e siano anche simili alla popolazione da
cui sono stati tratti.
Sono state descritte e analizzate da Kahneman e Tversky negli anni ’70:
a) Euristica di disponibilità o evocabilità si basa sul normale funzionamento della mente e sulla
conoscenza implicita che gli individui hanno dell’attività mnestica (che riguarda la memoria). La
disponibilità si riferisce alla facilità con la quale un item può venire in mente come l’etichetta di una
certa esperienza. Ovviamente la disponibilità gioca un ruolo centrale nel modo in cui noi rievochiamo
le esperienze precedenti. Ci sono molte cose di cui abbiamo fatto esperienza che, però, non ci
vengono facilmente in mente.
Gli autori hanno studiato l’influenza della disponibilità sul giudizio. Dai loro esperimenti è emerso che
siamo portati a credere che le parole che vengono rievocate più facilmente, siano più frequenti. In
questo modo confondiamo la frequenza di rievocazione con la frequenza delle occorrenze di un
evento.
Gli individui spesso formulano le loro stime sul numero di casi o di esempi dell’evento che vengono
loro in mente, assumendo che la numerosità degli esempi evocati corrisponda alla frequenza con cui
quegli eventi si sono verificati. Quindi, quanto più numerosi saranno gli eventi ricordati, tanto più
saranno ritenuti probabili. In molti casi la distorsione è causata dalla salienza.
Se, per esempio, chiediamo se sia più probabile un incidente in macchina o in aereo, la maggior parte
dei soggetti risponderà in aereo, per via dell’impatto emotivo che coinvolge il disastro. In realtà gli
incidenti in macchina, oltre ad essere più frequenti, sono anche di gran lunga più probabili.
Anche la vicinanza temporale contribuisce a distorcere la probabilità o la frequenza con cui due eventi
possono verificarsi congiuntamente. Per esempio, molti ritengono che l’uso di droghe sia associato
alla criminalità per via della correlazione basata sui dati in memoria. Si tratta, invece, di correlazioni
113
illusorie, come hanno dimostrato Chapman&Chapman: se l’individuo non riesce a riprodurre nessuno
scenario riterrà l’evento impossibile mentre riterrà l’evento quanto più probabile tanti più esempi
riuscirà a trovare in memoria. La disponibilità può anche essere ritenuta responsabile del fenomeno
delle correlazioni illusorie. Talvolta gli individui credono che eventi diversi si verifichino in
concomitanza gli uni con gli altri anche se, in realtà, questo non avviene.
Tversky e Kahneman hanno avanzato l’ipotesi che la disponibilità influenzi anche i giudizi riguadanti la
frequenza con cui eventi diversi si verificano contemporaneamente.
Shweder ha sottolinato il fatto che la correlazione non è un concetto intuitivo. Tali tipi di concetti sono
acquisiti con facilità, sono usati da quasi tutti gli adulti e non richiedono un’educazione formale per
essere acquisiti.
I concetti statistici, invece, vengono acquisiti senza istruzioni deliberate e senza la disponibilità di
apprendere.
b) Questo processo è anche alla base dell’operazione chiamata euristica della simulazione, che
consiste nel simulare un mondo possibile in cui qualcosa che in realtà è avvenuto non si sia realizzato
e nel trarre le conseguenze da questa costruzione fantastica. I controfattuali Fantastici sono il
prodotto della euristica della simulazione e spesso si rivolgono a situazioni impossibili.
c) Euristica di rappresentatività, ovvero valutando il grado si similarità tra l’evento che deve essere
stimato e il processo che l’ha generato o la categoria di riferimento.
Il giudizio distorto è causato dal fatto che i soggetti controllano quanto l’evento considerato (es: la
sequenza di lanci di una moneta) corrisponde all’idea che quell’evento rappresenta, in questo caso
dall’idea di caso o casualità che genera la sequenza considerata Quest’euristica viene utilizzata nel
ragionamento quotidiano in molte occasioni e produce effetti distorcenti quando si valutano eventi
congiunti invece di applicare una delle più elementari regole della teoria della probabilità com’è la
regola della congiunzione. La fallacia della congiunzione consiste nel ritenere che la probabilità di
occorrenza di un evento congiunto possa essere superiore alla probabilità di occorrenza degli eventi
costituenti. Es: “in spiaggia ci saranno più donne o più donne abbronzate?”
d) Euristica di ancoraggio e aggiustamento, dove gli individui formulano una prima
valutazione(ancoraggio) di un determinato fatto; poi in seguito all’acquisizione di nuove informazioni
vengono effettuate delle modificazioni più o meno consistenti e viene formulata la valutazione
definitiva. Il risultato di questo processo però è che il giudizio finale non è molto diverso da quello
iniziale.

Addestramento al ragionamento statistico


Nisbett e collaboratori hanno suggerito che, se è vero che i biases cognitivi regolano i processi di
ragionamento in molte situazioni, è vero anche che esistono, però, altre situazioni in cui gli individui
sono in grado di produrre la soluzione corretta. Inoltre, sostengono che la capacità di fare uso delle
corrette procedure di ragionamento dipende da:

1. Chiarezza dello spazio problematico: lo spazio problematico può essere compreso più
facilmente in alcuni casi che in altri. Gli errori si verificano nei casi in cui lo spazio problematico
viene compreso in maniera adeguata.
2. Comprensione dei processi casuali: alcune situazioni rendono più chiaro di altre l’operato del
caso. Non sempre gli individui si rendono conto della natura casuale dei fenomeni. Se gli
individui si rendono consapevoli che un processo è influenzato da fattori casuali, allora è più
probabile che facciano ricorso a procedure di ragionamento rigorose.
3. Prescrizioni culturali: gli individui ragionano in maniera conforme ai principi statistici se hanno
ricevuto un’educazione adeguata e se la loro cultura di appartenenza valuta in maniera
114
favorevole i processi di ragionamento di questo tipo.

Il pensiero magico
Frazer credeva che le pratiche magiche fossero regolate da 2 leggi:
- Legge della somiglianza: tale legge afferma che le cose simili si influenzano reciprocamente.
Cause ed effetti sono simili le une agli altri. Le pratiche magiche basate sulla legge della
somiglianza sono state denominate da Frazer magia omeopatica.
- Legge del contagio: tale legge afferma che le cose che sono state una volta in contatto le une
con le altre, continueranno in seguito ad esercitare un’influenza reciproca. Le pratiche basate
sulla legge del contagio, costituiscono la magia del contagio.

Coincidenze significative
Percepire una coincidenza come dotata di significato, per molti versi, è un’esperienza simile a quella
del pensiero magico. Una tale coincidenza si verifica quando degli eventi sembrano essere associati in
maniera significativa anche se si è verificato simultaneamente soltano per caso (cioè, non stanno in
una relazione casuale gli uni con gli altri).
Falk ha dimostrato che gli individui giudicano le coincidenze che li riguardano diversamente dal modo
in cui giudicano quelle che riguardano gli altri ed ha, inoltre, suggerito che una coincidenza è
sorprendente nella misura in cui è personale. Gli individui tendono a considerare le coincidenze
accadute nel loro passato come importanti e degne di essere ricordate. Questo fenomeno è stato
chiamato bias egocentrico.

La presa di decisione: l’approccio normativo e l’approccio descrittivo


La presa di decisione è considerata un compito in cui gli individui esprimono una preferenza tra
almeno due alternative.
Le alternative sono descritte da uno o più attributi.
Vi sono decisioni però che riguardano l’adozione di un solo corso di azione, di un’opzione singola,
come nel caso in cui la decisione debba far fronte a un caso imprevisto come una situazione critica
durante un volo o un incendio.
Le decisioni possono essere classificate secondo una serie di criteri.
1) In base all’incertezza associata agli esiti della scelta: vi sono decisioni prese in condizioni di incertezza
se gli esiti potranno verificarsi con una qualche probabilità e di certezza se gli esiti della decisione sono
sicuri.
2) Lunghezza del criterio decisionale e perciò si possono individuare decisioni prese in un unico atto e
decisioni conseguenti a una sequenza di operazioni.
3) Livello di coscienza al quale avviene il controllo del processo decisionale, che suddivide le decisioni
prese in automatico (se il controllo è sostanzialmente assente) oppure ponderate se il decisore ha il
totale controllo del processo. Gli studiosi si sono concentrati sulle decisioni sotto il controllo della
coscienza, indipendentemente dal grado di incertezza associata all’esito o dalla lunghezza. Lo studio
della decisione si ritiene sia iniziano nei primi del ‘700 grazie a Bernoulli, che voleva capire quanto gli
individui sono disposti a pagare per partecipare a un gioco familiare del lancio della moneta. Il gioco
continua finché esce testa e ogni volta che esce testa il premio viene raddoppiato. Ben poche sono le
persone disposte a investire somme enormi per giocare, anche se il valore atteso del gioco è infinito.

SOLUZIONE DI PROBLEMI E CREATIVITÀ


I problemi sono tutte quelle situazioni in cui un qualche obiettivo deve essere raggiunto ma non si
conoscono i mezzi con cui può essere raggiunto o la strategia che consenta di risolvere la situazione
115
problematica.
La struttura di un problema è determinata da costituenti che consentono di definire l’ambito di
riferimento della situazione problemica, il loro ruolo o la loro funzione all’interno della situazione,
dall’obiettivo o scopo che giustifica la soluzione, la strategia o procedura idonea per la soluzione che
dovrà essere individuata per raggiungere l’obiettivo.
La creatività è la capacità di adattarsi e inventare soluzioni.
I problemi possono essere di diversi tipi, ma sono raggruppabili in grandi categorie in funzione:
1) Del grado di definizione o di precisione della struttura dei problemi. In questo caso i problemi
possono essere:
a) Ben definiti: la struttura del problema si presenta in maniera precisa, sono chiaramente
individuabili i costituenti e l’obiettivo del problema. Es: espressione aritmetica
b) Mal definiti: il problema non presenta confini delineati e talvolta l’obiettivo non è ben
specificato
2) Del tipo di strategie: prevalentemente utilizzabile per la loro soluzione Che possono essere
raggruppati in:
a) Problemi che richiedono una strategia di soluzione riproduttiva: dove la procedura di
risoluzione è stata sperimentata o è familiare, quasi si dovesse applicare un comportamento
abitudinario
b) Problemi che richiedono una strategia produttiva: per la risoluzione si deve attuare una
procedura innovativa o del tutto nuova come risultato di un atto di creatività Es: soluzione di
un problema di geometria

Il processo di soluzione dei problemi


La soluzione dei problemi viene considerata come il risultato di un processo suddiviso da Polya in 4
fasi:
1) Comprensione del problema: il solutore cerca di comprendere il problema raccogliendo le
informazioni che il problema impone di acquisire
2) Individuazione di un piano: il solutore tenta di escogitare un piano che gli consenta di valutare se la
sua esperienza lo può aiutare a trovare una soluzione accettabile
3) Messa in atto del piano: il solutore tenta di mettere in atto in piano controllando tutti i passaggi che
il piano richiede
4) Controllo dei risultati: Il solutore applica una procedura di controllo a ritroso per vedere se il
risultato può essere raggiunto anche con un altro metodo e se le operazioni svolte sono tra loro
coerenti

Problema del tronco di piramide


Il problema consiste nel trovare il volume V di un tronco di piramide regolare, con un quadrato come
base. Altezza H. Lunghezza A di un lato della base superiore e B di un lato della base inferiore.
Si può riformulare il problema come: trovare il volume dell’intera piramide e sottrarre il volume della
parte superiore.

Rappresentazione dei problemi.


La soluzione dipende in larga misura dalla rappresentazione mentale del problema, ovvero dalla
capacità del sistema cognitivo di rappresentare la sua struttura. Per descrivere la struttura del
problema, Newell e Simon hanno coniato la nozione di struttura astratta, ossia lo spazio del problema,
che è costituito da tutti gli stati del problema, cominciando da quello iniziale, attraverso quelli
intermedi fino allo stato finale e dagli operatori, ovvero le procedure o le azioni che vengono applicate
116
per trasformare uno stato in quello successivo.
I problemi possono essere risolti principalmente con due metodi:
1) Applicazione di un algoritmo, che sono delle procedure che se applicate ricorsivamente, consentono
di risolvere correttamente il problema. Es: applicando la regola della moltiplicazione, posso risolvere
l’operazione 2x3
2) Strategia euristica. Le euristiche sono strategie generali di soluzione dei problemi e sono
indipendenti dal loro contenuto, possono cioè essere applicate a problemi di qualsiasi tipo, mentre
hanno come obiettivo soltanto la loro semplificazione. Le euristiche possono essere:
a) Euristica basata sull’analisi mezzi-fini: il problema cognitivamente troppo esteso viene
trasformato in una sequenza di sottoproblemi, ognuno dei quali con un sottoscopo. La
soluzione dei problemi implica la soluzione dei singoli sottoproblemi. Es: Torre di Hanoi. Tre
dischi di grandezza crescente infilati in un piolo A, devono essere spostati attraverso un terzo
piolo C in modo che sia rispettato l’ordine crescente, utilizzando un secondo piolo B come
passaggio intermedio. Il vincolo è che un disco non deve mai essere di dimensione superiore a
quello che vi sta sotto.
b) Euristica basata sull’esame a ritroso: consente di risolvere il problema a partire dal risultato
ritenuto corretto e risalendo, passo dopo passo, allo stato iniziale del problema per controllare
la correttezza della procedura. Es: labirinti aggrovigliati che si trovano sulle riviste di enigmi
c) Euristiche basate sulla semplificazione: consiste nel produrre una rappresentazione
semplificata del compito e tentare una simulazione della soluzione per provarne l’efficienza.
Es: recuperare un aquilone su un albero; per farlo posso ricondurlo a un problema geometrico.

Risolvere i problemi per Insight


Spesso i problemi vengono affrontati con un approccio chiamato per prove ed errori. In questo modo,
solo alcune volte gli individui riescono a trovare la soluzione alla soluzione problemica, mentre altre
volte le procedure riconducibili a questa strategia si dimostrano cieche, ossia senza via d’uscita.
Ci sono situazioni problemiche che possono essere risolte con un approccio creativo, grazie al quale la
soluzione emerge in virtù delle capacità del solutore di cogliere nella situazione elementi nuovi e
nuove relazioni tra gli elementi del problema, relazioni nuove e differenti rispetto a quelle prese in
considerazione precedentemente.
La soluzione creativa (ristrutturazione del campo cognitivo) è opposta alla solzione per “prove ed
errori”.
La soluzione dei problemi per insight si basa su questo tipo di approccio: la soluzione corretta si
comprende all’improvviso come conclusione un processo di pensiero produttivo, senza ricorrere a
strategie già sperimentate in passato e che si sono dimostrate inadatte per la situazione attuale.
Lo studioso Wertheimer della Gestalt, propose che la soluzione produttiva emerge nel momento in cui
l’individuo coglie delle relazioni nuove tra i costituenti della situazione problemica, relazioni che in
origine non risultavano evidenti.
L’insight si manifesta come conseguenza di una ristrutturazione cognitivo-percettiva della situazione
problemica alla quale si determina una riorganizzazione profonda e unitaria dei costituenti.
È stato provato che i problemi che richiedono soluzioni creative vengono risolti all’improvviso, mentre
nei problemi in cui si applicano strategie di tipo riproduttivo la strategia viene raggiunta gradualmente.
Metcalfe e Wiebe hanno dimostrato sperimentalmente l’esistenza di questa differenza,
documentando come i problemi che richiedono una soluzione creativa vengano risolti all’improvviso.
Hanno valutato che i soggetti quando affrontano problemi che possono essere risolti in maniera
graduale, sono in grado di valutare i progressi che stanno svolgendo verso la soluzione del compito.
Altrettanto non riescono a fare quando sono posti di fronte a problemi che potranno essere risolti solo
117
con insight.
Gli autori hanno inoltre studiato l’abilità degli individui a valutare le loro capacità di soluzione dei
problemi sulla base della stima delle conoscenze che ritengono di possedere per affrontare con
successo i problemi. Misurano cioè la sensazione di conoscenza. Osservarono che i partecipanti erano
molto accurati nel fornire stime in riferimento a problemi risolvibili senza insight, mentre erano
imprecisi nella valutazione di problemi per insight. Gli individui essendo consapevoli delle procedure
che possono essere utilizzate nei problemi che richiedono un processo di avvicinamento alla
soluzione, possono prevedere accuratamente se sono capaci o meno di risolvere i problemi sulla base
delle conoscenze possedute. Ciò non è possibile nei problemi la cui soluzione si manifesta
all’improvviso.

Gli ostacoli nelle soluzioni creative


La soluzione di problemi creativa mediante insight, può essere ostacolata dall’azione di fattori
tipicamente cognitivi.
Due tra i più importanti sono:
a) Impostazione soggettiva (einstellung), i cui effetti derivano dal fatto che la ripetizione di un
particolare processo di soluzione impedisce agli individui di considerare percorsi alternativi.
Luchins&Luchins identificano che l’esperienza precedente limita l’abilità degli individui a sviluppare
procedure di soluzione generali, in grado cioè di comprendere situazioni problemiche fra loro simili.
Einstellung, dicono, crea uno stato mentale attivo in maniera meccanica, un atteggiamento cieco nei
confronti dei problemi; non si analizza il problema in base alle sue caratteristiche ma si è guidati
dall’applicazione meccanica di un metodo sperimentale. Es: esperimento di Bartlet del famoso
problema di “donald+gerald=robert”. In questo caso, il “transfer negativo” ossia l’abitudine ad
applicare i tipici algoritmi aritmetici nel calcolo delle addizioni e sottrazioni determina l’insuccesso.
b) Fissità funzionale che impedisce agli individui di adottare una strategia produttiva.
Duncker spiega che questi ostacoli impediscono di impiegare soluzioni produttive perché gli individui
restano fissati alle funzioni degli oggetti normalmente e naturalmente sperimentate. Sono, quindi,
incapaci di vedere funzioni alterative negli elementi costitutivi della situazione problemica. Es: La
candela, la puntina e la scatola, dove i soggetti sono incapaci di vedere la scatola come supporto
invece che come contenitore. Vincoli retorici nella soluzione di un problema: una delle difficoltà
consiste nei vincoli interpretativi imposti dalla microstruttura del discorso, ovvero dall’interpretazione
del problema suggerita dalla presenza di singoli termini verbali o espressioni oppure sotto il profilo
della macrostruttura, ossia l’ordine del discorso al punto di vista psicoretorico.

L’uso dell’analogia nella soluzione


Uno dei modi per risolvere i problemi è quello di usare una fonte nota come guida per sviluppare una
soluzione per la situazione problemica nuova, analoga alla situazione nota. Affinché ciò si possa
realizzare, l’analogia deve essere riconosciuta come rilevante per il problema che si sta considerando e
deve essere poi modificata per la situazione particolare. Il ricorso all’analogia come procedura di
risoluzione, richiede che il solutore individui una corrispondenza strutturale tra due situazioni
problemiche, anche differenti sul piano del contenuto, per poter effettuare un transfer positivo della
procedura di soluzione dalla situazione in cui è stata applicata con successo alla nuova situazione
problemica. Il solutore deve poter effettuare una comparazione tra due informazioni strutturali
estratte dalle due situazioni problemiche.
L'analogia e soluzione dei problemi è basata sul trasferimento positivo: soluzioni già apprese possono
essere applicate a problemi nuovi. E’ necessario che:
1) Le soluzioni già apprese devono essere oggettivamente applicabili alla nuova situazione
118
2) L’analogia deve essere riconosciuta come rilevante per il problema che si sta considerando
3) Deve essere modificata per la situazione paticolare

Risorse: raggi sufficientemente potenti


Vincoli: impossibilità di somministrare raggi ad alta intensità da una sola direzione Possibilità di
soluzione: somministrare raggi a bassa intensità da più direzioni Esito: il tumore è distrutto dai raggi
convergenti sulla massa

Solutori esperti
Le ragioni che differenziano individui esperti, ovviamente più abili, da quelli meno abili non si
esauriscono nelle abilità innate. Probabilmente un fattore caratterizzante risiede nella capacità di
selezionare sulla base dell’esperienza le strategie più efficaci sia nella rappresentazione del compito,
sia nell’organizzazione degli elementi costitutivi del problema. Gli esperti possiedono un ricco
repertorio di configurazioni organizzate.

Creatività e innovazione
La nozione di creatività è difficile da definire, possiamo distingue:
a) Creatività come attitudine del tutto particolare che si concretizza in un prodotto o un esito di
una condotta caratterizzati dall’essere inusuali e appropriati. In questo senso la creatività è una qualità
che caratterizza in grado differente gli umani.
b) Creatività come processo cognitivo volto a risolvere un problema in maniera inusuale ma
appropriata. Il pensiero creativo è un processo scandito da diversi stadi e cioè l’identificazione del
problema, la capacità di selezionare ciò che è rilevante per il problema e trovare il modo per risolverlo.
c) La creatività si può manifestare come capacità di porre nuovi problemi (capacità di inventare
qualcosa di nuovo) o di innovare oggetti o comportamenti per rispondere a esigenze
nuove(modificare alcuni aspetti di prodotti già esistenti per migliorarne l’efficienza).
La creatività caratterizza in diversa misura gli individui ed è pertanto misurabile.
Torrance per misurarla propone un test dove gli individui devono risolvere problemi in modi differenti,
analizzandoli da diversi punti di vista. Le risposte vengono valutate da un punto di vista quantitativo
(numero di risposte), originalità (quanto sono comuni quelle risposte), importanza (registrando il
grado di utilità).
Mednick&Mednick invece propongono il test delle associazioni remote, ossia quanto più un individuo
è creativo quanto più riesce a formare associazioni tra tre aspetti apparentemente diversi tra loro: per
esempio tra fiume nota sangue. Il tasso di creatività in questo caso è inversamente proporzionale alla
facilità e velocità con cui le associazioni remote vengono prodotte. La velocità di associazione infatti
dipende dal numero di associazioni disponibili, pertanto indica il numero di associazioni fra le quali
selezionare una risposta. I problemi possono essere risolti “per prove ed errori”; con l’insight e le
strategie euristiche, ricorrendo all’uso della analogia (che consente di trasferire a un nuovo problema
la soluzione sperimentata in una situazione strutturalmente simile)

PROBLEM SOLVING
Il problem solving (locuzione inglese che può essere tradotta in italiano come risoluzione di un
problema) è un'attività del pensiero messa in atto per raggiungere una condizione desiderata a partire
da una condizione data.
Il problem solving indica, più propriamente, l'insieme dei processi atti ad analizzare, affrontare e
risolvere positivamente situazioni problematiche.
Va precisato che il problem solving è solo una parte di quello che è l'intero processo di risoluzione di
119
un problema vero e proprio: quest'ultimo comprende anche i processi cosiddetti di problem finding e
problem shaping.
Il termine problem finding, che letteralmente significa “scoperta di un problema”, indica una parte del
processo mentale che porta alla risoluzione di un problema. Il problem finding è quella fase che
comprende l’individuazione e la definizione di una situazione problematica a partire proprio dalla
decisione di fermarsi a pensare. Nell'ambito delle ricerche cognitive sulla risoluzione dei problemi, si
teorizza che la capacità di scoprire un problema richieda sia apertura intellettuale ed intuizione, che
pensiero critico.
Nel contesto dei processi formali di soluzione dei problemi, le espressioni inglesi problem shaping o
problem framing (letteralmente dare forma al problema e inquadrare il problema) si riferiscono a una
componente dell'attività di risoluzione dei problemi il cui scopo è quello di delineare e meglio definire
un problema, formulato in termini troppo vaghi per poter essere efficacemente affrontato e risolto.
Il problem shaping, come per il problem finding, richiede l'applicazione del pensiero critico.
Definire un problema in funzione del disagio sperimentato non aiuta molto a capire in che cosa
consiste e come lo si possa affrontare. Per capire la natura del problema dobbiamo scoprire cosa c’è
dietro al disagio, quali sono la struttura ed il significato della difficoltà che stiamo incontrando.
UN PROBLEMA ESISTE QUANDO C’E’ UN OSTACOLO AL RAGGIUNGIMENTO DI UN OBIETTIVO.
Ma dobbiamo distinguere il concetto di problema da quello di ostacolo.
Per PROBLEMA si intende il riconoscimento di un’impasse, di una interruzione del nostro cammino,
con la conseguenza di dover pensare a fare qualcosa di nuovo, di generare delle soluzioni che ci
consentano di continuare il nostro percorso verso i nostri obiettivi.
Quando ci rendiamo conto di avere un problema ci stiamo trovando di fronte alla necessità di
cambiare qualcosa nel nostro modo di vedere e nel nostro comportamento, se vogliamo raggiungere I
nostri obiettivi.
Quando abbiamo un problema, la prima cosa da fare è definire con cura i nostri obiettivi.
OBIETTIVO = stato al quale consapevolmente aspiriamo, a partire dal nostro stato attuale.
PROBLEMA = condizione in cui ciò che stiamo facendo, le nostre azioni abituali, o le nostre conoscenze
non sono sufficienti per raggiungere i nostri obiettivi; da ciò risulta uno stato di disagio e
l’identificazione di ostacoli nel nostro cammino.
OSTACOLO = insieme degli impedimenti a procedere come di consueto o secondo le nostre
conoscenze ed esperienze, in direzione di un obiettivo.
SOLUZIONE = insieme dei cambiamenti nel nostro stato mentale e nei nostri comportamenti che ci
consentono di raggiungere il nostro obiettivo.

IL PROBLEM SOLVING
Possiamo suddividerlo in 4 FASI:
1) IDENTIFICARE IL PROBLEMA / OBIETTIVO
2) GENERARE SOLUZIONI
3) VALUTARE / SCEGLIERE / PIANIFICARE
4) METTERE IN PRATICA
Vi sono delle situazioni in cui è necessario procedere all’inverso, una sorta di problem solving invertito:
in tal caso esistono esistono solo poche soluzioni possibili ad un problema (es. Crisi coniugale in cui
bisogna decidere solo se separarsi o rimanere insieme. In tal caso partendo dalle uniche soluzioni
possibili e analizzando gli sviluppi conseguenti sarà possibile esplorare i propri sentimenti e prevedere
le conseguenze delle proprie decisioni). Si risale dalle soluzioni agli obiettivi attraverso il decision
making.
Il problem solving è circolare nel senso che termina con una verifica del piano e, quindi, con un
120
confronto tra obiettivi e risultati.
Ciò che è interessante è che la circolarità del Problem Solving non solo comporta la verifica dei
risultati, ma, eventualmente anche la possibilità di modificare gli obiettivi e, quindi, di trovare nuove
soluzioni, in un processo di affinamento progressivo.

Il pensiero laterale
È l’abilità di tenere acceso il nostro canale creativo e di saperlo utilizzare al momento opportuno.
Capacità di guardare agli aspetti logici di un problema e contemporaneamente di affrontarli in modo
creativo e dinamico.
Non sempre la creatività si realizza al momento opportuno.
Il Brain Storming è il mezzo più efficace per stimolare l’atteggiamento creativo.
Il Problem Solving è un processo ramificato. Ogni problema corrisponde ad un obiettivo ed ogni
obiettivo può essere scomposto in una serie di sotto-obiettivi di vario ordine e grado.
La ramificazione del problem solving è, talvolta, un modo per uscire da situazioni difficili imparando a
spezzettare il problema principale in problemi quanto più semplici possibili. In questo modo, lontano
dall’essere una complicazione, la ramificazione può costituire una soluzione.
(Esempio):
NOSTRO OBIETTIVO: fondare un’associazione per cani abbandonati.
PROBLEMA: non sapere se questo tipo di attività sia compatibile con le leggi del nostro Paese.
NUOVO PROBLEM SOLVING il cui obiettivo è di informarsi su alcuni aspetti legali relativi al nostro
obiettivo principale.
SOLUZIONE: chiedere informazioni ad un avvocato competente.
Giunti a questa fase ci accorgiamo che non sappiamo come trovare un bravo avvocato. Il piano
d’azione di questo sotto-problema ci obbliga a sua volta ad un nuovo problem solving il cui obiettivo è
trovare un buon avvocato.
La ramificazione è talvolta un modo per uscire da situazioni situazioni difficili imparando a spezzettare
il problema principale in problemi quanto più semplici possibili.

Le fasi del problem solving:


FASE I – IDENTIFICARE IL PROBLEMA / OBIETTIVO (fase osservativa), nella quale dobbiamo:
a) Definire l’obiettivo
b) Analizzare gli ostacoli
Tale fase presuppone un atteggiamento osservativo o conoscitivo. Non si tratta di conoscenza logico-
scientifica, ma di avere accesso alla nostra vita più profonda: si tratta di riconoscere ed accettare i
nostri bisogni più autentici, le nostre esigenze, le nostre paure.

FASE II – TROVARE LE SOLUZIONI (fase creativa). E’ composta da 2 sottofasi:


a) Generare le idee (Brain Storming)
b) Trasformare le idee
Tale fase presuppone un atteggiamento di piena libertà di pensiero, di abbandono delle proprie
intuizioni, visioni, sensazioni ed emozioni. In questa fase è importante lasciare la mente libera di
collegare elementi apparentemente tra loro lontani, avere accesso alle nostre risorse e formulare
quelle ipotesi apparentemente poco realistiche.

FASE III – VALUTARE E PIANIFICARE (fase critico-realistica):


a) Valutare efficacia, fattibilità e conseguenze
b) Scegliere la soluzione
121
c) Pianificare (chi, che cosa, quando, come e con quali risorse)
Tale fase ha lo scopo di produrre dei veri e propri piano d’azione dettagliati. Quando le idee diventano
progetti è importante valutare il loro grado di realismo.

FASE IV – METTERE IN PRATICA (fase esecutiva):


a) Eseguire il Piano
b) Valutare i risultati
Tale fase ha lo scopo di rendere effettivo il piano. Presuppone un atteggiamento mentale operativo,
pratico, esecutivo.

La FASE I del problem solving - IDENTIFICARE IL PROBLEMA / OBIETTIVO (fase osservativa)

Caratteristiche degli obiettivi ben formati:


1- OBIETTIVI POSITIVI
Spesso formuliamo i nostri obiettivi in questo modo: “non voglio stressarmi al lavoro".
Dire di non volere una cosa può essere un buon modo di cominciare, ma non aiuta molto a definire
cosa vogliamo ottenere al posto di ciò che non vogliamo.
Inoltre, concentrarsi esclusivamente sugli aspetti negativi di un problema, induce a bloccarsi e a non
trovare le soluzioni.

2- OBIETTIVI BEN SPECIFICATI E VERIFICABILI


Come facciamo a sapere se abbiamo raggiunto il nostro obiettivo?
Obiettivi come “voglio migliorare la mia autostima”, pur essendo positivi, non ci aiutano molto a
capire se abbiamo raggiunto o meno il nostro obiettivo.
Sarebbe meglio dire “voglio sentirmi a mio agio quando parlo in assemblea e voglio esprimere
tranquillamente la mia opinione” (SPECIFICARE GLI OBIETTIVI IN MODO DA RENDERLI VERIFICABILI).

3- OBIETTIVI PERSEGUIBILI DIRETTAMENTE


Quando ci poniamo un obiettivo è importante tenere presente che non possiamo disporre delle altre
persone nello stesso modo in cui disponiamo di noi stessi.
Il comportamento di una persona dipende dalle sue convinzioni, dai suoi valori.
Quello che noi possiamo fare è, al massimo, favorire le sue decisioni per aiutarla a perseguire
l’obiettivo.
È per questo che un obiettivo ben formato deve poter essere perseguibile direttamente da noi stessi.
Se invece desideriamo che siano altre persone a cambiare, dobbiamo chiederci cosa possiamo fare noi
per favorire quel comportamento, oppure se possiamo individuare degli obiettivi condivisi che
implichino il nostro obiettivo.

4- OBIETTIVI ECOLOGICI
Quando ci si pongono degli obiettivi bisogna sempre chiedersi: “Chi o che cosa potrebbe essere
influenzato dal raggiungimento di questo obiettivo?” “Quali conseguenze possono derivare da queste
influenze"?

IDENTIFICAZIONE DEGLI OSTACOLI - AFFRONTARE GLI OSTACOLI


Una definizione troppo generica dell’ostacolo non consente di valutare appieno il suo impatto nella
genesi del problema. Al contrario, una definizione dettagliata consente di effettuare una valutazione
molto più accurata del problema e delle possibili soluzioni.
122
Es. non è sufficiente dire: “se parlo in pubblico divento ansioso”… ma “Quando divento ansioso? Poco
prima di parlare? Mentre parlo? Cosa sento esattamente? A che cosa penso prima, durante e
dopo?...”
Esistono diverse tipologie di ostacoli che generano diverse azioni:
RIMUOVERE UN OSTACOLO. Quando l’ostacolo è considerato un inutile fardello occorre rimuoverlo
(un pelo nell’occhio va rimosso senza indugio).
AGGIRARE UN OSTACOLO. Ci sono tipi di ostacoli che vanno semplicemente ignorati, in quanto la
soluzione è altrove (se il nostro lavoro non ci fa guadagnare abbastanza, è inutile pensare di affrontare
la situazione eliminandolo. Piuttosto, dobbiamo trovare un altro lavoro in alternativa o in aggiunta al
primo).
UTILIZZARE UN OSTACOLO. L’ostacolo può diventare una risorsa da utilizzare. Una certa condizione
può rappresentare un ostacolo da un certo punto di vista, ma un vantaggio rispetto ad altri punti di
vista (una piccola azienda è svantaggiata sul piano delle risorse economiche da dedicare a investimenti
e promozione, ma è avvantaggiata sul piano della rapidità delle decisioni).

La FASE 2 del problem solving: Trovare soluzioni (fase creativa)


È il cuore del Problem Solving. In essa sono inclusi aspetti fortemente creativi ed intuitivi, ma anche
una buona capacità di organizzare le idee.

GENERARE IDEE
In questa fase è importante liberarsi, anche momentaneamente, da vincoli, preconcetti, convinzioni
del tipo “non ce la farò mai”.
Occorre disporsi in una condizione d’animo efficace per ricercare la soluzione.

GENERARE IDEE – IL BRAIN STORMING


Consiste in sedute strutturate in cui si favorisce, per tutti i partecipanti, la possibilità di lasciare il
cervello libero di creare idee, immagini, collegamenti. La generazione di idee da parte di alcuni stimola
la generazione di idee da parte di altri.
È opportuno iniziare la ricerca di soluzioni con il Brain Storming in quanto, prima di tutto, è necessario
creare idee; a tale processo può seguire l’analisi delle soluzioni , quindi, un atteggiamento critico.

LE REGOLE DEL BRAIN STORMING


TUTTO È POSSIBILE. Durante il Brain Storming è importante assumere l’atteggiamento mentale di
assenza di limiti.
NON VALUTARE, NON GIUDICARE, NON CRITICARE, NON ANALIZZARE. Si deve imporre il divieto ai
partecipanti alla riunione di esprimere qualsiasi giudizio
NON ESCLUDERE NIENTE. Nel Brain Storming non bisogna eliminare nessuna idea in quanto a volte
anche gli spunti più strampalati possono suggerire idee risolutive.
TUTTI SONO UGUALI. Chi partecipa al Brain Storming è uguale agli altri indipendentemente dal suo
ruolo, dal suo status sociale, etc.
IL PROCESSO DEL BRAIN STORMING
1) Creare una prima mappa libera
Procurarsi una lavagna o un grande foglio che possa essere visto da tutti. Scrivere al centro l’obiettivo
e circoscriverlo; a questo punto far partire dal centro alcuni rami su cui scrivere le idee.
2) Creare delle mappe personali.
È importante che i membri del gruppo possano non solo influenzare o lasciarsi influenzare, ma anche
seguire i loro propri pensieri.
123
È utile quindi lavorare sia sulla mappa mentale comune che su tante mappe personali.
3) Costruire una mappa comune integrata
Questa seconda mappa è una revisione della prima. In questa fase le idee sono organizzate secondo i
seguenti principi:
- DELL’ALTERNATIVA. Si operano delle scelte tra idee incompatibili.
- DELLA RAMIFICAZIONE. Le idee si sviluppano in altre idee e sottoidee.
- DELL’INTEGRAZIONE. Le idee si combinano e si rinforzano tra loro.
- DEI COLLEGAMENTI. Le idee sono collegate tra loro da una sequenza o da altri fattori.
4) Trasformare le idee in soluzioni
La differenza tra idee e soluzioni è che le prime sono visioni molto generali, le seconde invece sono dei
veri e propri abbozzi di progetti. Il Brain Storming non consiste soltanto nella generazione di idee, ma
anche nella loro organizzazione e sviluppo. Le idee non sono tutte uguali; alcune sono alternative alle
altre, altre sono più generali, altre ancora sono collegate tra loro da alcuni parametri, ecc.;
l’evidenziazione dei rapporti tra le idee comporta organizzazione delle idee.
Una buona organizzazione delle idee comporta sviluppo delle idee. Scopo dello sviluppo delle idee è
generazione delle soluzioni possibili..

La FASE 3 del problem solving: VALUTARE E PIANIFICARE (fase critico-realistica)


A questo punto del Problem Solving abbiamo un certo numero di soluzioni organizzate ed integrate.
Ora bisogna scegliere.
La scelta della soluzione è uno degli aspetti più delicati del Problem Solving.
Quando si lavora in gruppo, infatti, è opportuno evitare che alcune persone difendano per partito
preso alcune soluzioni, solo perché sono state da loro proposte.
Inoltre, alcuni preconcetti, problemi relazionali, etc., possono interferire con il lavoro del Problem
Solving.
La prima regola per evitare questo tipo di interferenze consiste nel valutare le idee e non le persone
che le hanno espresse.

VALUTAZIONE DI EFFICACIA
La domanda fondamentale è: “se mettiamo in pratica la soluzione, quante possibilità vi sono che
l’obiettivo venga raggiunto?"
Per effettuare una buona valutazione di efficacia bisogna essere molto critici.
Alcune domande che ci possono aiutare sono:
“Quali sono i punti deboli delle soluzioni?”
“Ci sono esempi precedenti di efficacia delle soluzioni, a cui fare riferimento?”
"Quali sono gli effetti di un eventuale insuccesso?”

VALUTAZIONE DI FATTIBILITA’
È l’esame critico delle possibilità di mettere effettivamente in pratica delle idee o soluzioni. Essa
implica la domanda “È possibile mettere in pratica questa soluzione?”.
Bisogna chiedersi se esistono le risorse necessarie per applicare la soluzione.
Alcune domande che ci possono aiutare sono:
“C’è il tempo sufficiente?”
“Ci sono le persone capaci di fare questo?”
“Abbiamo il denaro?”
“Conosciamo le persone giuste?”

124
VALUTAZIONE DELLE CONSEGUENZE ECOLOGICHE
Riguarda gli effetti delle soluzioni sull’intero sistema in cui ci troviamo immersi.
Essa riguarda la domanda “Cosa accadrebbe a noi e a tutto ciò che ci circonda se mettessimo in
pratica questa soluzione?”

SCEGLIERE LA SOLUZIONE
La scelta di una soluzione richiede un processo decisionale.
In realtà non esiste una “tecnica” per prendere decisioni. Tuttavia possiamo aiutare la nostra naturale
capacità decisionale con alcuni strumenti molto semplici.
-possiamo dare un punteggio da 1 a 100 a ciascuna soluzione relativamente a ciascuna area di
valutazione (efficacia, fattibilità, conseguenze ecologiche);
-oppure, semplicemente, dobbiamo ricorrere al nostro istinto, alla nostra “pancia”.

PIANIFICARE
Un piano d’azione è una serie di compiti che devono essere svolti da qualcuno.
Una buona pianificazione deve rispondere a queste domande:
-Chi?
-Che cosa?
-Quando?
-Con che mezzi?
Bisogna quindi identificare: compiti, risorse, processi

PIANIFICARE COMPITI
I compiti sono gli obiettivi parziali di cui si compone la strategia solutiva adottata in uno specifico
Problem Solving (es. ottenere un prestito, realizzare delle brochure, ecc.).
I compiti devono essere stabiliti con precisione.

PIANIFICARE RISORSE
Le risorse sono i mezzi necessari per la realizzazione dei compiti (es. denaro, strumenti, persone, ecc.)
Per identificare le risorse occorre fare una lista, dalla quale si evidenzieranno sia quelle in nostro
possesso, sia quelle da acquisire.
Per quanto riguarda le risorse umane, è importante stabilire con precisione chi dovrà eseguire i diversi
compiti.

PIANIFICARE PROCESSI
I processi, quindi I compiti di cui si compongono le soluzioni, sono degli eventi che si realizzano nel
tempo. Nello stabilire i compiti è importante tener conto di eventuali scadenze e, quindi, è necessario
definire i tempi di esecuzione previsti.
Inoltre, il tempo è importante anche in termini di concatenazione relativa di compiti e azioni.

Alcuni compiti o azioni devono essere svolti necessariamente prima o dopo; altri possono essere svolti
contemporaneamente; altri ancora solo se si verificano determinate condizioni.

La FASE 4 del problem solving: METTERE IN PRATICA (fase esecutiva):


Mettere in pratica significa agire e, quindi, confrontarsi con la realtà che ci circonda (un piano d’azione
non può tenere conto di tutte le piccole e grandi variabili, coincidenze, di tutti i cambiamenti che sono
sopravvenuti nel momento in cui effettivamente agiremo).
125
Inoltre, mettere in pratica significa confrontarsi anche con la “propria realtà” (chi esegue il piano
potrebbe stancarsi, sentirsi annoiato, sopraffatto).
Le nostre reazioni all’esecuzione del piano costituiscono una variabile tanto più importante quanto più
grande è il nostro impegno nel piano d’azione.
Mettere in pratica un piano non è soltanto un processo esecutivo.

DAL PIANO ALL’AGENDA


In questa fase siamo proiettati nell’azione. Lo stato mentale più adatto è quello pratico,
La fase dell’azione è il regno del dettaglio.
In un piano può essere sufficiente dire “Tizio va a Roma ad incontrare Caio”.
Nell’azione invece, Tizio deve prendere appuntamento con Caio, scegliere un treno o un aereo con
orari adeguati, comprare il biglietto, preparare le valigie e così via.
Inoltre, un piano di gruppo coinvolge molte persone nell’esecuzione dei compiti. Dunque, un piano
generale si dispiega in tante pianificazioni dettagliate per ciascuna persona coinvolta.
La pianificazione dettagliata di ciascun componente del gruppo d’azione è la sua agenda.
Un es. di come compilare un’agenda personale.
-dividere un foglio in 3 colonne
-nella prima colonna annotare i compiti
-nella seconda colonna, a fianco di ciascun compito, annotare le azioni che devono essere compiute
-nella terza colonna annotare i referenti di ciascuna azione
-notare se vi sono altre azioni che abbiano lo stesso luogo o lo stesso referente
-provare a stabilire il tempo per ciascuna azione, avendo cura di accostare gli orari.

VERIFICA DEL PIANO


Una volta che tutti i membri del gruppo hanno eseguito le azioni e svolto i compiti, occorre verificare
che si realizzi l’obiettivo.
La verifica è un passaggio molto delicato in quanto costituisce un’occasione per aggiustare il tiro.

LE INSIDIE NEL PROBLEM SOLVING


Le insidie principali che possono influire sulla nostra capacità di risolvere i problemi sono:
- Mancanza di tempo
- Essere di fronte ad un problema che peggiora velocemente
- Incapacità di gestire le proprie emozioni

Decision Making
Edwards definisce la presa di decisione o decision making come un processo complesso che coinvolge
diverse strutture cognitive in cui l’individuo deve valutare ed interpretare gli eventi, al fine di scegliere
tra corsi di azione tra loro alternativi.
Quando si prende una decisione, la persona deve considerare diverse visioni e apportare delle
valutazioni, quindi deve scartare diverse opzioniprima di giungere a quella considerata la migliore e la
più valida.
Decidere significa, quindi, effettuare una scalta tra due o più alternative, in vista di un obiettivo.
Le decisioni vengono prese in base alle necessità e ai bisogni del soggetto, considerati fondamentali
per una equilibrata condizione sociale e psicologica.
Con decision making intendiamo le funzioni esecutive connesse alla capacità decisionale e all’abilità
nel modulare la percezione della ricomprensa e della punizione, al fine di effettuare scelte
vantaggiose.
126
INTELLIGENZA ARTIFICIALE E SOLUZIONE DI PROBLEMI
Se un calcolatore viene programmato in modo tale che il suo operato non sia distinguibile da quello di
un soggetto umano, allora il programma del calcolatore costituisce un modello adeguato delle
prestazioni umane. Questi programmi costituiscono degli esempi di Intelligenza Artificiale.
Polya, nel libro How to solve it, ha descritto il metodo euristico nei seguenti termini: le euristiche sono
delle utili procedure di soluzione; sono degli espedienti che consentono di arrivare rapidamente alla
soluzione nel seguente modo:
Capire il problema; Formulare un piano; Eseguire il piano;
Esaminare la soluzione ottenuta.
Lo sviluppo delle procedure euristiche è anche lo scopo di coloro che si occupano di intelligenza
artificiale.

ESEMPIO DI INTELLIGENZA ARTIFICIALE (AI)


GO-Moku è un gioco simile al tris, dove è necessario allineare cinque X oppure cinque O.
Se volessimo scrivere un programma che ci permettesse di giocare GO-Moku, dovrebbe avere alcune
caratteristiche:
-Una struttura di dati che Polya definisce anche comprensione del problema;

-Una funzione di valutazione che formula un piano, esegue il piano, esamina la soluzione ottenuta. Lo
spazio problemico è la rappresentazione di tutti gli stati potenzialmente raggiungibili in una data
situazione problemica e include lo stato iniziale del problema, lo stato meta e le operazioni per
passare da uno stato all’altro.
Lo spazio di ricerca è l’insieme di tutte le mosse che effettivamente vengono prese in esame durante il
processo di ricerca della soluzione. L’aumento vertiginoso delle alternative che devono essere prese in
considerazione nello spazio di ricerca viene definito esplosione combinatoria.
Invece di valutare tutte le alternative possibili, è necessario trovare un metodo euristico che consenta
di scoprire la via migliore attraverso lo spazio problemico.

GPS: GENERAL PROBLEM SOLVER


GPS, di Newell e Simon, è uno dei programmi per calcolatore meglio conosciuti per compiere ricerca
euristica.
Rompicapo della torre di Hanoi: tre anelli (uno grande, uno medio, uno piccolo) devono essere
sistemati su due pioli. Può essere spostato un solo anello per volta e un anello non può essere
sistemato su un anello più piccolo.
Il GPS fa uso di regole di produzione, ossia di regole costituite da una condizione e da un’azione.
Affinché il processo di soluzione possa procedere è necessario individuare una serie di sottoscopi. Le
coppie di condizioni-azioni vengono usate per risolvere il rompicapo di Hanoi, ma non consentono di
giungere direttamente alla soluzione, ma di formulare dei sottoscopi.

Protocolli verbali nello studio della soluzione dei problemi


Parlando di bisogni, non si può non nominare la piramide dei bisogni di Abraham Maslow, psicologo
statunitense. Nel 1954 pubblica il suo libro “Motivazione e personalità”, da cui nasce la sua teoria dei
bisogni.
La specialità della teoria sta nel fatto che risiede in una piramide chiamata “Piramide dei bisogni”:
Nell’individuo esistono tendenze diverse, traenti origine da bisogni di differente natura, che si è pronti
a soddisfare. Tali bisogni non sono isolati e a sé stanti, ma si dispongono in una gerarchia di dominanza
e di importanza, che prende il nome di piramide.
127
Alla base, ci sono tutti i bisogni fisiologici, essenziali per la nostra sopravvivenza fisica nell’ambiente
circostante: il respiro, l’alimentazione, il sesso, il sonno, l’omeostasi (la tendenza naturale al
raggiungimento di una relativa stabilità).
Prima di soddisfare i bisogni più alti nella scala, l’individuo tende a soddisfare quelli più bassi, ovvero
quelli più importanti per la sua sopravvivenza.
Per quello che riguarda i bisogni più alti degli individui essi tendono a variare molto nel tempo. Ogni
persona compie un suo percorso di maturazione e sviluppo motivazionale all’interno del quale le mete
e gli obiettivi di livello alto possono subire grandi modificazioni.
Inoltre, un successo tende spesso a essere dimenticato e, il vecchio obiettivo, tende a essere sostituito
da uno più grande e ambizioso.
Mentre i bisogni fondamentali per la sopravvivenza una volta soddisfatti tendono a non ripresentarsi,
almeno per un periodo di tempo, i bisogni sociali e relazionali tendono a innescare nuove e più
ambiziose mete da raggiungere.
I bisogni nella piramide si dispongono e differenziano come segue:
– I bisogni fisiologici: sono i tipici bisogni di sopravvivenza (fame, sete, desiderio sessuale…). Secondo
Maslow ogni bisogno primario serve da canale e da stimolatore per qualsiasi altro bisogno.
Nella scala delle priorità i bisogni fisiologici sono i primi a dovere essere soddisfatti in quanto alla base
di tali bisogni vi è l’istinto di autoconservazione, il più potente e universale drive dei comportamenti sia
negli uomini che negli animali.
Se in un individuo non trova soddisfazione di nessun bisogno, sentirà la pressione dei bisogni fisiologici
come unica e prioritaria. Solo nel momento in cui i bisogni fisiologici sono soddisfatti con regolarità,
allora ci sarà lo spazio per prendere in considerazione le altre necessità, quelle di livello più alto.
- I bisogni di sicurezza: i bisogni di appartenenza, stabilità, protezione e dipendenza, che giocano un
ruolo fondamentale soprattutto nel periodo evolutivo, insorgono nel momento in cui i bisogni primari
sono stati soddisfatti (sicurezza fisica, di occupazione, morale, familiare, di salute, di propietà)
Anche questi bisogni danno forma ad alcuni comportamenti tipici, soprattutto di carattere sociale. La
stessa organizzazione sociale che ogni comunità si dà a seconda della propria cultura, è un modo di
rendere stabile e sicuro il percorso di crescita dell’individuo.
- I bisogni di affetto / appartenenza: questa categoria di bisogni è fondamentalmente di natura sociale
e rappresenta l’aspirazione di ognuno di noi a essere un elemento della comunità sociale apprezzato e
benvoluto (amicizia, affetto familiare, intimità sessuale). Più in generale, il bisogno d’affetto riguarda
l’aspirazione ad avere amici, ad avere una vita affettiva e relazionale soddisfacente, ad avere dei
colleghi dai quali essere accettato e con i quali avere scambi e confronti.
– Il bisogno di stima: anche questa categoria di aspirazioni è essenzialmente rivolta alla sfera sociale e
ha come obiettivo quello di essere percepito dalla comunità sociale come un membro valido, affidabile
e degno di considerazione (autostima, autocontrollo, realizzazione, rispetto reciproco). Spesso le
autovalutazioni o la percezione delle valutazioni possono differire grandemente rispetto al loro reale
valore. Molte persone possono sentirsi molto valide al di là dei loro meriti e riconoscimenti reali,
mentre altre possono soffrire di forti sentimenti di inferiorità e disistima anche se l’ambiente sociale
ha un atteggiamento globalmente positivo nei loro confronti.
- Il bisogno di autorealizzazione: si tratta di un’aspirazione individuale a essere ciò che si vuole essere, a
diventare ciò che si vuole diventare, a sfruttare a pieno le nostre facoltà mentali, intellettive e fisiche
in modo da percepire che le proprie aspirazioni sono congruenti e consone con i propri pensieri e con
le proprie azioni (Moralità, creatività, spontaneità, problem solving, accettazione, assenza di
pregiudizi). Non tutte le persone nelle nostre società riescono a soddisfare tutte e a pieno le loro
potenzialità, infatti l’insoddisfazione sia sul lavoro che nei rapporti sociali e di coppia è un fenomeno
molto diffuso.
128
L’autorealizzazione richiede caratteristiche di personalità, oltre che competenze sociali e capacità
tecniche, molto particolari e raffinate.
Secondo Maslow le caratteristiche di personalità che una persona deve avere per raggiungere questo
importante obiettivo sono: realismo, accettazione di sé, spontaneità, inclinazione a concentrarsi sui
problemi piuttosto che su di sé, autonomia e indipendenza, capacità di intimità, apprezzamento delle
cose e delle persone, capacità di avere esperienze profonde, capacità di avere rapporti umani positivi,
democrazia, identificazione con l’essere umano come totalità, capacità di tenere distinti i mezzi dagli
scopi, senso dell’ironia, creatività, originalità.
I lobi frontali sono fondamentali nei processi decisionali.
Un esempio è quello di un avvenimento accatudo allo zoo di Chicago. Gbinti Jua, una gorilla femmina e
madre, vede improvvisamente piovere dal cielo uno strano “gorillino”: è un bambino di 3 anni che si è
sporto dal parapetto dei visitatori ed è precipitato giù. Binti Jua non esita. Da madre, raccoglie il
cucciolo umano ferito, lo culla, lo sorregge, difendendolo dagli altri gorilla. Quando essi cercano di
avvicinarsi minacciosi, Binti Jua non esita: in quattro balzi sulle rocce finte della sua gabbia, raggiunge
la porta di ferro dalla quale entrano gli inservienti e consegna il bambino ferito ai soccorritori.

Circuiti fronto – subcorticali


E’ il sistema preposto all’organizzazione dei rapporti cervello – comportamento.
La corteccia frontale funziona da sistema esecutivo esperto del cervello ed attraverso l’assimilazione e
la fusione dei processi percettivi, volitivi, cognitivi ed emotivi, modula e forma personalità e
comportamento.
Quando la corteccia è danneggiat, il risultato può essere:
- Deficit decisionale
- Disorganizzazione della personalità e funzionamento emotivo
- Anomalie nell’attenzione e concentrazione
- Difficoltà nella pianificazione e nell’inizializzazione delle azioni
- Apatia o euforia
- Disinibizione comportamentale
- Riduzione delle abilità motorie e del controllo dei pensieri, parole e azioni

Funzioni della corteccia orbitofrontale


- Regolazione degli affetti: la corteccia orbitofrontale sembra regolare gli affetti negativi,
soprattutto la paura
- Comportamento morale: lesioni nella corteccia orbitofrontale disgregano il comportamento
morale e di giudizio
- Processi cognitivi: quando la corteccia orbitofrontale è compromessa, l’inizializzazione delle
risposte alternative è danneggiata probabilmente perché l’associazione tra una risposta
corretta ed il suo valore di ricompensa è alterata.
- Meccanismi di ricompensa: la funzione della corteccia orbitofrontale è creare un’associazione
tra comportamento e ricompensa
- Impulsi motivazionali ed emotivi: attraverso il sistema limbico la corteccia orbitofrontale rende
possibile che le emozioni vengano rappresentate come idee e che le idee stimolino le emozioni

Il modello sperimentale per lo studio delle funzioni esecutive, in particolare del decision making,
fornisce i presupposti per l’ipotesi localizzatoria del deficit di questa funzione, rappresentata
dall’indagine neuropsicologica dei pazienti neurologici, con specifiche lesioni ventro mediali della
corteccia orbitofrontale.
129
Soggetti con lesioni bilaterali della corteccia prefrontale, ventro – mediale, sviluppano uno scadimento
importante della loro capacità decisionale in ambito sociale e personale, nonostante le funzioni
intellettive, normalmente, siano preservate. Questi soggetti mostrano una sorta di miopia per il
futuro, nel senso che sembrano incuranti delle conseguenze future delle loro azioni, perché quidati
solamente dalle prospettive immediate delle loro decisioni.

Decidere vuol dire scegliere tyra le alternative individuate dal soggetto in una determinata situazione;
momento culminante di un complesso processo di analisi dei problemi e delle possibili soluzioni.
Vuol dire anche decidere l’abilità di sapersi orientare nelle situazioni di incertezza, attuando schemi di
comportamento che diano una risposta soddisfacente ai propri bisogni.
Il saper decidere è una competenza fondamentale per l’individuo, base del successo personale e
professionale, e strumento fondamentale di crescita e realizzazione.
Possiamo distinguere le decisioni calde, che l’individuo rende in maniera più istintiva, dove le emozioni
la fanno da padrone (decisioni prese in un momento di rabbia, o di affetto positivo).
Per quanto riguarda, invece, il decision making nel comportamento patologico, nel disturbo di attacchi
di panico, il soggetto è un soggetto che tende a fare una scelta che lo porti ad evitare una situazione
ansiogena (come ad esempio scegliere di prendere un aereo, riferito al volo; oppure decision making
nel disturbo ossessivo compulsivo, dove è necessario resistere nel mettere in atto quel tipo di
comportamento ossessivo, ad esempio lavarsi le mani coninuamente.
Il decision making può subentrare nel GAP, cioè disturbo da gioco patologico, dove il soggetto deve
scegliere se rischiare o meno.
E’ importante ipotizzare il ruolo specifico giocato dalla componente emotiva, nei contesti ricchi di
ambiguità, ad esempio nei pazienti con disturbo ossessivo compulsivo dove la presenza di deficit è in
relazione con l’attivazione somatica e la compromissione delle abilità decisionali nelle situazioni in cui
vincite e perdite e loro percentuali non sono esplicitate.

Teorie sul decision making


Lo studio della decisione umana, per quanto possa sembrare un ambito di interesse prettamente
psicologico, è stato per anni l’oggetto di altre discipline, ancor prima che la psicologia contemporanea,
con gli strumenti del metodo scientifico che solo negli ultimi decenni sono stati messi a punto, potesse
occuparsene. La scienza della decisione affonda infatti le sue radici nelle discipline economico-
matematiche degli anni ’50, che avevano l’obiettivo di proporre modelli di scelta ottimali da seguire,
per rispondere ad un’esigenza di massima razionalità ed efficienza nel calcolo dei costi e dei benefici.
Questo corpus di teorie e studi, a cui si da il nome di teoria della scelta razionale (Blume ed Easley,
2008), ha costituito il principale punto di riferimento fino agli anni ’70. Esso si fondava sull’idea che
ogni individuo fosse capace di ordinare razionalmente le sue preferenze, di essere perfettamente
informato sullo stato del mondo attuale, e su tutti i futuri possibili stati, di agire seguendo
rigorosamente obiettivi di massimizzazione dei benefici e/o di minimizzazione dei costi.
La teoria dell’utilità attesa, o Expected Utility theory ( Neumann e Morgenstern, 1944) individuava alla
base della scelta umana razionale due fondamentali principi: coerenza e massimizzazione.
Il primo riguarda il sistema di preferenza del soggetto, che può dirsi coerente se adeguato ad una serie
di norme che costituiscono gli assiomi della razionalità strumentale.
Il secondo riguarda invece le strategie del decisore, che sono razionali in quanto volte ad ottenere il
miglior risultato possibile.
Come ordinare le proprie preferenze o stabilire qual è il miglior risultato?
Esiste una «immaginaria unità di misura» a cui la teoria della scelta dà il nome di utilità.
L’ordine delle preferenze del soggetto dovrebbe quindi descrivere questa «funzione di utilità», che è di
130
tipo lineare nella misura in cui prevede che un aumento del valore oggettivo positivo dell’esito
prospettato corrisponda un incremento proporzionale della sua utilità.
Intorno agli anni ’70 la psicologia cognitiva, che si occupa di indagare i processi di pensiero razionale in
soggetti normali, ha dimostrato che gli individui giudicano, ragionano, stimano la probabilità di
occorrenza di un individuo commettendo sistematicamente errori in virtù di un risparmio di risorse
attentive e di memoria.
La fiducia nella razionalità dell’economia neoclassica è stata così messa in crisi dall’osservazione del
comportamento quotidiano dei decisori che nella realtà devono costantemente far fronte ad una serie
di vincoli ambientali, ma anche connaturati al sistema cognitivo umano e alle sue capacità di
elaborazione, vanificando così quanto prescritto dai principi di coerenza e massimizzazione (Shafir e
LaBoeuf, 2002).
Secondo Herbert Simon il decisore non ha a disposizione la gamma completa delle azioni possibili per
realizzare un fine, ma un ventaglio ristretto di comportamenti ai quali ricorrere, che gli deriva
dall’esperienza, da convinzioni radicate e valori. La teoria della scelta razionale è rimasta per decenni il
paradigma dominante e continua a costituire oggi il criterio di riferimento per molti studi.
La persistenza del modello razionale è principalmente dovuta alla semplicità della logica che lo
sostiene (Fischoff, 1988).
L’indagine psicologica ha dato una base empirica alle formulazioni teoriche di Simon, mettendo in
evidenza quelle che potremmo definire le basi psicologiche della razionalità limitata (Rumiati e Bonini,
2001).
Gli psicologi cognitivi oggi sono concordi nell’assumere i seguenti «limiti computazionali»: nella prima
fase di raccolta di informazioni, l’acquisizione di queste dall’ambiente è selettiva (Broadbent, 1958),
per cui è inevitabile che il soggetto filtri solo l’informazione che considera rilevante; inoltre, l’individuo
non è in grado di elaborare simultaneamente più informazioni (Craik, 1947).
L’informazione acquisita sosta nel registro mnestico per un tempo limitato e in un numero di unità di
informazione anch’esso limitato (Miller, 1956); limitata è anche la capacità di recupero degli eventi
dalla memoria a lungo termine, tanto che spesso il soggetto ricostruisce, invece di ricordare (Bartlett,
1932).
Gigerenzer parla di «razionalità ecologica», intendendo che la mente, nell’effettuare stime e giudici,
non si affida a mere formule matematiche, ma dà importanza preminente ai dati dell’ambiente. Per
Gigerenzer una buona decisione richiede un’analisi del contenuto, oltre che l’applicazione di
procedure, leggi e assiomi, In questo movimento di adattamento all’ambiente egli considera le
emozioni come uno strumento fondamentale (Gigerenzer e Todd, 1999). Nell’opinione dello studioso
le emozioni sono una forma particolare di euristica, che teniamo nella nostra «scatola di attrezzi per
l’adattamento», e che ci aiuta a far fronte a tutti i livelli di complessità, accelerando il nostro
movimento verso la soluzione di un problema: la paura ci dice che dobbiamo scappare, la rabbia che
dobbiamo aggredire il nemico ecc.
Il dibattito sulla razionalità viene così esteso oltre quest’idea del limite e della fallacia della mente. Altri
autori stanno pure elaborando una nuova definizione di razionalità, partendo dal presupposto che
strategie euristiche e processa mento sistematico dell’informazione non siano due processi
contrapposti, ma sottostanti a una comune logica, che è quella dell’adattamento all’ambiente (Hastie,
2001). Intanto, inizia sempre più a farsi strada l’idea che processa mento euristico e processa mento
sistematico vadano integrati in una prospettiva che veda il ragionamento come un «processo duale»
(Shafir e LaBoeuf, 2002) tanto che si sono messe a punto diverse teorie di tipo dual process (Epstein,
1994; Sloman, 1996; Evans e Over, 1996).
Epstein distingue due fondamentali sistemi attraverso cui l’esser umano valuta l’ambiente: il sistema
razionale e il sistema esperienziale.
131
Questi due sistemi si compensano ed interagiscono tra di loro in ogni situazione, tuttavia il sistema
esperienziale, per la sua stessa natura è portato a precedere quello razionale nell'elaborazione
dell'informazione.
Il primo agisce in maniera rapida, automatica e senza sforzo ma sacrifica l'accuratezza delle percezioni
a cui ci conduce in favore della velocità con cui opera.
Il secondo è invece più lento, comporta il dispendio di molte risorse cognitive ma allo stesso tempo è
capace di un altissimo livello di astrazione in un’ottica progettuale anche di lungo termine.
Questi due processi di elaborazione dell'informazione coinvolgono anche meccanismi neurali
differenti. II sistema esperienziale coinvolge maggiormente il talamo e l'amigdala, due delle strutture
più antiche del cervello, mentre quello razionale coinvolge maggiormente la corteccia, che è l'area più
evoluta e giovane dell'encefalo.
Altri autori, riprendendo il suo modello, preferiscono rinominare il primo sistema come analitico
invece che razionale, in quanto ritrovano elementi di razionalità anche in quello esperienziale (Slovic
et al, 2004).
Del resto, è stato quello esperienziale che ha consentito agli esseri umani di sopravvivere nel corso
della loro storia evolutiva ed una delle sue principali caratteristiche sarebbe proprio la sua base
emozionale: per quanto l’analisi sia importante, l’affidarsi all’emozione è considerato come una
modalità più veloce, più facile, e quindi, in certe circostanze, più efficiente, di navigare in un mondo
complesso e incerto.
Zajonc (1968, 1980), è stato tra i primi a dimostrare la supremazia dell'emozione sulla cognizione. I
suoi studi sulla mera esposizione hanno mostrato, inoltre, come le reazioni affettive possano
influenzare la nostra preferenza per uno stimolo piuttosto che per un altro.
Cosa ancor più sorprendente, non è necessario che l'emozione raggiunga la soglia della
consapevolezza perché influenzi il nostro pensiero.
Queste scoperte hanno portato molti teorici a parlare di un vero e proprio inconscio cognitivo
(Epstein, 1994), ovvero un sistema fondamentalmente adattivo che organizza l'esperienza senza
sforzo, in modo automatico ed intuitivo e così facendo indirizza il nostro comportamento.
Naturalmente, questo modalità di organizzare l'esperienza gioca un ruolo determinante anche nei
processi di presa di decisione.
La ricerca psicologica, al pari dell’esperienza quotidiana, ci lascia pochi dubbi sul fatto che le nostre
emozioni possono influenzarci nella scelta, così come sul fatto che gli esiti prospettati possono
procurarci emozioni particolari.
Un’ indagine circa questi argomenti vede da un lato gli studi sulle emozioni anticipate, in associazioni
con un particolare esito, e dall’altro quelli che indagano l’influenza degli stati d’animo preesistenti al
momento della decisione; si parla anche si emozioni esperite ed emozioni anticipate.
Loewenstein e Lerner (2003) ascrivono le emozioni a due grandi categorie, a seconda del ruolo che
rivestono nel processo decisionale: le emozioni attese e le emozioni immediate.
Essi articolano ulteriormente quest’ultima categoria in emozioni anticipatorie ed emozioni incidentali. Il
primo sottogruppo è costituito dalle emozioni elicitate dal dilemma decisionale, come l’ansia generata
dal conflitto, dalla difficoltà, e dall’importanza del dilemma in sé.
Il filone di ricerca delle emozioni incidentali indaga, invece, gli effetti che possono avere sulla decisione
lo stato d’animo persistente e la disposizione emotiva cronica del soggetto.

Ipotesi del marcatore somatico


Damasio (1994) sulla base di osservazioni fatte su pazienti con lesioni della corteccia ventromediale
frontale ha proposto che le nostre scelte siano normalmente guidate da marcatori somatici. Questi
corrispondono a sensazioni viscerali e non viscerali che anticipano l’esito al quale può condurre una
132
data azione spingendoci ad evitarla o ad approcciarla. In altre parole, quando un marcatore somatico è
negativo funziona come un campanello d’allarme che ci avverte che è meglio evitare quella decisione,
quando è positivo invece rappresenta un incentivo verso quella determinata azione. Bechara, H.
Damasio, Traner, A. Damasio, (1997) chiedevano a pazienti neurologici con lesioni della corteccia
prefrontale e a persone sane di partecipare ad un gioco d’azzardo il cui obiettivo era quello di vincere
la maggior somma di denaro possibile. A tutti i partecipanti veniva affidata una somma iniziale di
2000$ fittizi e veniva chiesto di pescare una carta da quattro diversi mazzi. Ogni carta comportava una
vincita o perdita di denaro. Tuttavia, due mazzi portavano ad alte perdite ed alte vincite e alla lunga
risultavano svantaggiosi, mentre gli altri due che mostravano un equilibrio maggiore tra vincite e
perdite alla lunga portavano ad un guadagno.
Coerentemente con l’ipotesi del marcatore somatico, man mano che le persone sane procedevano nel
gioco imparavano a diffidare dei mazzi svantaggiosi, e si concentravano su quelli che portavano a
vincite e perdite più contenute. Contrariamente, i pazienti, la cui lesione comportava un grave deficit
nell’elaborazione dell’emozione e nella pianificazione, continuavano a scegliere i mazzi svantaggiosi
anche dopo che avevano subito ampie perdite. Inoltre, subito prima di effettuare la scelta i pazienti
mostravano anche un’attivazione della conduttanza cutanea significativamente inferiore rispetto alle
persone sane.
Questo studio non solo da una valida dimostrazione di come le emozioni anticipatorie possano guidare
le nostre decisioni ma dimostra anche che possono avere un valore adattivo.
Tuttavia, le stesse reazioni viscerali che si rivelano utili in un compito come quello realizzato in questo
esperimento possono rivelarsi fortemente maladattive in altri contesti decisionali.
Damasio postula l’esistenza di interazioni funzionali fra stati corporei e processi cognitivi di alto livello,
mediate dai marcatori somatici.
Emozioni come reazioni corporee agli stimoli ambientali
Queste reazioni sono catalogate come piacevoli o spiacevoli
Sono inviate alla corteccia orbitofrontale dove vengono associate con altre rappresentazoni che
veicolano informazioni sul contesto ambientale
In questo modo le reazioni emotive divetano dei marcatori somatici per gli stimoli esperiti in
precedenza dai quali sono state elicitate.
Una volta formati I marcatori somatici possono venire riattivati qualora l’organismo si trovi di fronte a
situazioni simili a quelle che hanno provocato la loro formazione.

La corteccia prefrontale è coinvolta nell’accoppiare stimoli complessi proveienti dal mondo esterno
con lo stato somatico e/o emotivo interiore, solitamente esperito in associazione con le medesime
esperienze.
Quando una situazione che coinvolge questi stimoli complessi si ripresenta, la corteccia prefrontale
ventromediale riattiva lo stato somatico precedentemente associato con quella esperienza.
Nel contesto dei processi decisionali, l’attivazione dello stato somatico produce segnali preferenziali
che attribuiscono valori differenti alle diverse opzioni possibili, guidando verso la corretta decisione tra
le varie alternative possibili.
Privato di questo marcatore somatico, la decisione diventa dipendente da una lenta analisi del costo
beneficio delle numerose e conflittuali possibilità decisionali. Tali opzioni possono risultare troppo
numerose o l’analisi può essere troppo lenta, da non consentire un’appropriata e rapida decisione.

Benartzi e Thaler (1995) hanno mostrato come le emozioni anticipatorie possano spingerci ad
investire in obbligazioni sicure piuttosto che in titoli azionari che mediamente offrono un maggior
ritorno nel lungo termine.
133
Oltre alle emozioni anticipatorie, anche le emozioni non strettamente legate alla decisione che
dobbiamo prendere giocano un ruolo chiave nell’influenzare le nostre scelte. Isen e Mean (1983)
hanno mostrato, ad esempio, che gli affetti positivi ci portano a prendere decisioni in modo più
accurato e veloce rispetto agli affetti negativi. I partecipanti di un loro esperimento dovevano valutare
sei automobili come se le dovessero comprare. In particolare nella decisione di acquisto dovevano
prendere in considerazione nove dimensioni diverse. Tra i partecipanti coloro che subito prima del
compito erano stati indotti a provare un’emozione positiva mostravano una minore ridondanza nel
processo di ricerca ed erano più propensi ad eliminare gli aspetti inutili al fine della decisione. Di
conseguenza, questi soggetti giungevano ad una decisione più velocemente rispetto a quelli della
condizione di controllo. Isen e Patrick (1983) hanno dimostrato anche che gli affetti positivi
influenzano la propensione a rischiare dell’attore decisionale. In un loro esperimento, ad esempio, le
persone cui era stato indotto uno stato d’animo positivo nel gioco della roulette erano più propense a
affrontare scommesse ma solo se queste comportavano un basso rischio di perdita. Quando la
probabilità di perdere la scommessa era alta invece mostravano un’avversione al rischio più alta
rispetto alla condizione in cui l’affetto non era stato manipolato in alcun modo. Per spiegare questi
risultati Isen, Nygren e Ashby (1988) hanno proposto che le persone quando sono di buon umore
siano meno propense a correre rischi che potrebbero minacciare il loro stato d’animo.
Ulteriori evidenze di come l’umore possa influenzare la decisione sono state fornite da Forgas (1989) il
quale ha preso in considerazione affetti positivi e negativi. In uno studio chiedeva ai soggetti che
prendevano parte al suo esperimento di prendere una decisione in merito ad 8 potenziali partner. In
una condizione la scelta li riguardava personalmente, mentre nell’altra riguardava un'altra persona.
Come Forgas si aspettava i partecipanti che erano stati indotti a provare tristezza erano propensi a
considerare variabili interpersonali, mentre coloro che erano stati indotti a provare gioia o piuttosto
uno stato emotivo neutrale, facevano più caso alle variabili inerenti il compito. Inoltre, nella
condizione di tristezza i partecipanti tendevano ad usare strategie decisionali meno efficaci rispetto
agli altri. In particolare, erano più lenti e propensi a considerare aspetti meno importanti ai fini della
scelta.
Nella condizione di felicità invece erano più veloci, ma in contrasto con quanto dimostrato da Isen et
al. (1983), solo se la scelta li interessava personalmente.
Altri ricercatori hanno dedicato i loro studi all’emozione legata all’anticipazione dell’esito della
decisione. Loomes e Sudgen (1982), ad esempio, nella loro Teoria del Regret, suggeriscono che il fatto
di anticipare la delusione (regret) legata all’esito indesiderato di un alternativa condiziona la scelta.
In un’ampliamento di questa teoria Loomes e Sudgen (1986) hanno proposto che oltre al regret, altre
due emozioni possono influenzare il comportamento dall’attore decisionale: il disappunto e
l’entusiasmo.
Ad esempio, Ritov e Baron (1990) hanno mostrato che le persone che sono meno propense a
vaccinare un figlio anticipano il regret che deriverebbe in seguito agli effetti collaterali del vaccino.
Mellers, Schwartz e Ritov (1999) hanno proposto una teoria della decisione che mette in relazione
emozione anticipata ed emozione esperita. Questa teoria sostiene che l'attore decisionale quando
valuta delle scommesse soppesa il dolore anticipato ed il piacere anticipato. Più precisamente, in un
primo momento, il decisore valuta il piacere medio legato ad ogni scommessa e successivamente
sceglie l'alternativa che massimizza il piacere atteso soggettivo.
Mellers et al. (1999), per testare questa teoria hanno messo a punto degli esperimenti piuttosto
elaborati in cui i partecipanti dovevano effettuare una scelta tra più alternative. In una condizione,
detta di feedback parziale, i partecipanti una volta effettuata la scelta vedevano solo il risultato della
propria decisione, in un’ altra condizione, detta di feedback completo, i partecipanti vedevano anche
l'esito che sarebbe uscito nel caso avessero scelto una scommessa differente.
134
I risultati hanno mostrato che i partecipanti si sentivano meglio sia se sapevano di aver evitato perdita
più maggiore di quella ottenuta (effetto disappunto), sia se sapevano di aver scelto l’opzione migliore
(effetto regret).
In aggiunta, i partecipanti erano soggetti ad un effetto sorpresa: il piacere di vincere o di perdere era
più intenso quando era inatteso.
Mellers e colleghi (1999), dunque, hanno dimostrato che l’attore decisionale preferisce la scommessa
che gli consente di minimizzare il massimo dispiacere possibile e di massimizzare il massimo piacere
possibile.
Gli sviluppi più recenti hanno portato i teorici a suggerire che il decisore usi i sentimenti che
percepisce come informazioni (Loewenstein et al. 2001). Quest’ipotesi è coerente sia con il fatto che
l’affetto precede la cognizione (Zajonc, 1968; 1980) sia con il fatto che le persone codifichino
affettivamente le conseguenze di alternative come linee d’azione (Damasio, 1994; Bechara et. al
1997). Slovic, Finucane, Peters e Mc Gregor (2002) hanno proposto addirittura che l’affetto possa
essere rappresentato come una vera e propria euristica di giudizio: l’euristica dell’affetto o affect
heruristic. L’affetto, infatti, proprio come un’euristica, ci conduce in una direzione piuttosto che
un'altra in modo automatico ed inconsapevole. Quest’euristica è fortemente collegata alla percezione
del rischio e quindi anche al processo decisionale. Secondo Slovic e collaboratori (2004), le risposte
affettive che diventano salienti e determinanti nella presa di decisione dipendono dalle caratteristiche
del compito decisionale e dalle caratteristiche individuali, così come dall’interazione di queste due
variabili. Gli individui, infatti, differiscono per il modo in cui reagiscono affettivamente alle situazioni e
per la loro tendenza a basarsi o meno sul loro sistema affettivo (e.g., Peters & Slovic, 2000). Gli autori,
a partire dall’ipotesi dei marcatori somatici, hanno teorizzato che le differenze individuali siano
riconducibili alle qualità affettive della rappresentazione di uno stimolo che può essere “mappato” o
interpretato in diversi modi. In altre parole, le persone sono caratterizzate da un “insieme di
valutazioni affettive” o “pool affettivo” che contiene tutti i marcatori positivi o negativi associati, in
maniera più o meno conscia, alle rappresentazioni mentali degli stimoli ambientali. L’intensità del
marcatore varia a seconda della rappresentazione. Nei processi di presa di decisone le persone
consultano il loro “pool affettivo”, che funziona come àncora per i giudizi e le scelte. Pertanto, spesso,
specialmente quando le decisioni sono complesse e le risorse limitate, le persone basano le proprie
decisioni sulle reazioni emotive, più semplici ed efficienti rispetto all’elaborazione di ragionamenti o al
recupero di ricordi rilevanti. In tal senso, si può affermare che il sistema affettivo detiene, spesso, il
primato sul sistema cognitivo. Tale processo è stato chiamato da Finucane e collaboratori (2000)
euristica dell’affetto. Ad esempio, quando ci troviamo di fronte ad una situazione che abbiamo già
sperimentato essere rischiosa, il sistema affettivo crea delle associazioni fra tale situazione e la
rappresentazione astratta di eventi che producono emozioni negative, tali da poter essere comunicate
al nostro cervello al pari di un rischio reale ed imminente. E’ così che possiamo crearci degli scenari ed
immaginarci a che cosa andremmo incontro se compissimo una determinata azione. Le emozioni
provate dipendono dal tipo di rappresentazione che è “esplosa” involontariamente nella nostra mente
quando siamo stati stimolati da una parola o da un evento. Questo fenomeno è stato denominato
illusione di focalizzazione perché le persone si focalizzano su alcune rappresentazioni e non su altre
(Savadori & Rumiati, 2005). A titolo esemplificativo, alla parola “estate” si associano solitamente
immagini positive, anche se potrebbero essere associare delle immagini negative se ci soffermassimo
ad esplorare meglio la memoria che sicuramente contiene anche rappresentazioni di danni legati alla
siccità. Il sistema affettivo si basa, dunque, su queste rappresentazioni “focalizzate” e sembra essere il
principale responsabile delle nostre scelte in molteplici situazioni per noi familiari. D’altra parte il
sistema cognitivo ci permette di ragionare e fare previsioni ed è responsabile della nostra capacità di
fare fronte a tutte le situazioni nuove
135
Alhakeacami e Slovic (1994) hanno dimostrato che il piacere che proviamo in una certa attività è
correlato negativamente con la rischiosità che le attribuiamo.
Per esempio giovani fumatori che iniziano a fumare sono più propensi a farsi prendere dall’impulso del
momento e a sottovalutare i rischi legati al fumo.
In un esperimento, Finucane, Alhakeacami, Slovic e Johnson (2000) chiedevano ai partecipanti di
valutare i benefici ed i rischi associati a diverse attività (ad es.: alcolici, energia nucleare, cellulari,
conservanti, motociclette).
In una condizione per rendere più difficile l’accesso al sistema razionale (da loro chiamato analitico)
davano un limite di tempo per ogni risposta. Come si aspettavano, le attività ritenute più piacevoli
erano anche quelle ritenute meno rischiose.
In un altro esperimento, Slovic et al. (2002), hanno dimostrato come quest’euristica possa condurci ad
incoerenze nel processo decisionale.
Questi studiosi in un esperimento chiedevano ai partecipanti di valutare il grado di attrattività di una
scommessa. Per alcuni la scommessa implicava una probabilità elevata di vincere una somma di 9$
mentre non si perdeva niente. Ad altre persone, invece, veniva proposta una scommessa che offriva
un'elevata probabilità di vincere 9$ ma anche la possibilità di perdere 5 centesimi. Contro ogni regola
della logica coloro che avevano visto il secondo formato della scommessa la trovavano più attraente,
nonostante implicasse la possibilità di perdere.
Gli autori spiegano questo risultato sostenendo che quando la possibilità di vincere 9$ è affiancata
dalla possibilità di una piccola perdita è più facile da valutare e, quindi,anche più facile di da associare
ad un’emozione, rendendola così più invitante.
Coerentemente con questo risultato, Peters (2006) ha suggerito anche che le persone ricorrano a
sensazioni affettive quando non hanno abbastanza informazioni per valutare gli stimoli.
In contrasto con questo punto di vista, tuttavia, Rubaltelli, Rumiati e Slovic (2010) hanno dimostrato
che le persone sono più abili ad utilizzare le loro reazioni affettive quando due stimoli sono valutati in
modalità congiunta rispetto a quando queste sono valutate separatamente. In un esperimento questi
ricercatori hanno proposto ai loro partecipanti una replica del Paradosso di Ellsberg (1961). Questo
Paradosso mostra che le persone preferiscono scommesse dove la probabilità di vincita è nota
rispetto a scommesse vaghe, la cui probabilità non è conosciuta. Alcuni partecipanti vedevano
entrambe le scommesse appaiate, altri vedevano soltanto una delle due scommesse.
Quando la scommessa ambigua era valutata separatamente (separate evaluation) era valutata
significativamente più attraente rispetto a quando era valutata appaiata all’altra (joint evaluation). In
un’estensione di questo lavoro ho dimostrato (Righi, 2010) che la preferenza per un esito certo
rispetto ad uno incerto (effetto certezza; Allais, 1953, Kahneman e Tversky, 1979) si verifica solo nella
condizione di joint evaluation. Questi risultati sembrerebbero dimostrare che l’attore decisionale
ricorra a feedback affettivi sopratutto quando può operare un confronto tra alternative.
Un altro aspetto molto importante da considerare, è che le decisioni spesso avvengono in situazioni in
cui l’individuo si sente sotto pressione per diversi motivi. Si parla di “stress” in riferimento alla
dinamica di pressione ambientale e conseguente adattamento ad essa, che può assumere diverse
forme, più o meno funzionali (Selye, 1936). In situazioni di stress l’individuo mostra una certa difficoltà
nell’affrontare lucidamente la complessità del compito decisionale e nell’elaborare strategie efficienti
per la scelta. Janis e Mann (1977) hanno dimostrato che le performances decisionali risultano
degradate quando le decisioni sono prese in condizioni di stress elevato. Gli autori hanno identificato
tre condizioni direttamente collegate al livello di stress: attivazione dovuta al conflitto decisionale,
pessimismo rispetto al trovare l’alternativa migliore e credenza che non ci sia sufficiente tempo per
decidere. In tal senso, tre sono le principali fonti di stress e, a loro volta, gli elementi generati da tale
stato emotivo alterato. Innanzitutto, il conflitto decisionale si genera quando l’individuo percepisce le
136
alternative di scelta come simili tra loro: se le opzioni prese in esame dal decisore offrono sia vantaggi
che svantaggi molto significativi, allora si determinerà una situazione di conflitto e l’individuo avrà
difficoltà a decidere che alternativa scegliere e, per questo motivo, percepirà ansia e preoccupazione.
D’altra parte, se ci troviamo in una situazione stressante non abbiamo una chiara visione delle
alternative di scelta e tendiamo a percepire maggiormente una situazione di conflitto. Un ulteriore
importante elemento è costituito dall’atteggiamento che il decisore tenderà ad assumere nel corso
del processo decisionale: se assumerà un atteggiamento ottimistico sarà maggiormente in grado di
individuare un’alternativa migliore rispetto alla situazione vigente. Spesso, in situazioni stressanti,
l’atteggiamento del decisore è pessimistico. Infine, è noto che, senza il tempo sufficiente, i processi
decisionali rischiano di non essere svolti nel migliore dei modi: quando dobbiamo decidere in
circostanze di pressione temporale rischiamo di prendere decisioni affrettate senza ponderare le
diverse opzioni di scelta, d’altra parte se siamo in una situazione stressante percepiamo di avere poco
tempo per decidere. Janis e Mann (1977) hanno individuato diverse modalità di risposta utilizzate
dagli individui per far fronte a situazioni che variano per intensità dello stress. In 43 particolare, in
situazioni con un basso livello di stress, gli individui tendono a non decidere (inerzia non conflittuale)
oppure a cambiare l’opzione preferita nel corso del processo decisionale. In situazioni caratterizzate
da un moderato livello di stress, le persone sono attente e vigili e, quindi, in grado di valutare
accuratamente le alternative a loro disposizione. In condizioni di stress elevato, il decisore tende ad
adottare comportamenti volti a ritardare la scelta in attesa di nuove informazioni, o a delegare agli
altri la responsabilità della decisione, oppure a inventare spiegazioni che giustifichino l’aver scelto un
opzione rispetto ad un’altra. Infine, se il livello di stress è estremamente alto, gli individui tendono a
scegliere in maniera rapida ed impulsiva senza valutare accuratamente tutte le alternative a
disposizione. Diverse ricerche hanno confermato che all’aumentare del livello di stress si riscontra una
riduzione del numero di informazioni utilizzate per prendere una decisione. Ad esempio, Webster e
collaboratori (1996) hanno provato che soggetti affaticati forniscono risposte stereotipate ed
utilizzano, in maniera minore rispetto a persone riposate, le informazioni che hanno a disposizione.
Infine, Hockey (1997) ha evidenziato l’utilizzo di scorciatoie di pensiero nel processamento delle
informazioni soprattutto in condizioni di stress elevato. Sebbene sia chiaro, in letteratura, che
all’aumentare del livello di stress diminuisce l’accuratezza nella valutazione delle informazioni a
disposizione nel prendere una decisione, non è altrettanto chiaro il rapporto fra stress e presa di
decisione in condizioni di rischio. Tuttavia, ci sono evidenze del fatto che le persone tendono a
prendere decisioni più rischiose in condizioni di stanchezza e tale effetto è maggiore per decisioni
importanti (Hockey, 2000). Inoltre, Hockey (2000) ha dimostrato che gli effetti della stanchezza
interagiscono con quelli dell’ansia di stato: a moderati livelli di stanchezza i soggetti più ansiosi
mostrano una preferenza per le decisioni sicure, l’ansia dunque aumenta la tendenza ad evitare le
perdite; mentre, quando il livello di stanchezza è molto elevato, tale effetto scompare. In questo caso,
le scelte che gli individui compiono sono più rischiose sia con livelli bassi che elevati di ansia.
Un ampio numero di studi si è occupato anche di indagare l’effetto dell’umore sulle scelte decisionali.
L’umore è uno stato mentale interno, connotato affettivamente, che coinvolge l’intera persona e che
tende a permanere per un lungo periodo. A differenza dell’emozione, viene esperito in modo
scarsamente intenso, può avere cause indefinite e non ha un oggetto esterno (Isen, 1984). Secondo
Schwarz e Clore (1996), lo studio dell’influenza dell’umore sui processi cognitivi e decisionali si può
distinguere in due principali approcci teorici che enfatizzano, rispettivamente, i contenuti cognitivi ed i
contenuti esperienziali dell’umore e degli stati affettivi in generale. Secondo il primo approccio,
l’umore influenza il contenuto dei pensieri. È stato dimostrato, infatti, che persone con umore
positivo, legato ad esempio a soddisfazione rispetto alla propria vita, riportano valutazioni più positive
delle situazioni attuali e passate rispetto a persone con umore negativo (Clark & Teasdale, 1982;
137
Forgas, 1992). Tali risultati sono stati interpretati attraverso l’ipotesi secondo cui gli effetti dell’umore
sui giudizi e sulla presa di decisione sono mediati dagli stati emotivi che agiscono sulla reiterazione
delle informazioni in memoria. Sono state ipotizzate due diverse modalità con cui potrebbe avvenire
tale reiterazione: priming e associazioni. In particolare, Fiske e Taylor (1984) hanno ipotizzato che
ricordi di eventi con la stessa valenza emotiva tendono ad essere collegati in memoria attraverso
processi automatici di priming. Bower (1981; 1991), invece, ha proposto un modello associativo in rete
(network model) in cui lo stato emotivo è rappresentato da nodi centrali, associati a idee, eventi di
valenza corrispondente, attività autonoma, pattern muscolari ed espressivi. Quando viene appreso
nuovo materiale, tale materiale viene associato con i nodi emotivi attivati in quel determinato
momento. Indipendentemente dalla specifica modalità di reiterazione, si può affermare che l’umore
prevalente di un individuo può focalizzare l’attenzione su elementi situazionali congruenti con quello
stesso stato emotivo e orientare il recupero in memoria di conoscenze coerenti con esso, che saranno
poi utilizzate per formulare giudizi e prendere decisioni (Bower & Choen, 1982; Wright & Bower,
1992). Pertanto, se una persona è di umore positivo sarà più ottimista rispetto alle scelte che deve
compiere, si aspetterà quindi più guadagni rispetto ad una persona di umore negativo, che invece si
aspetterà maggiori perdite. È stato dimostrato, infatti, che persone con umore negativo mostrano un
significativo aumento della propria percezione di rischio rispetto ad eventi oggettivamente rischiosi
(Johnson & Tversky, 1983). Bisogna sottolineare però che l’umore positivo produce un
comportamento di avversione al rischio nel gioco d’azzardo e nella lotteria. In compiti a basso livello di
rischio, invece, l’umore positivo solitamente aumenta la disponibilità a rischiare (Isen & Geva, 1987).
Questi risultati sono stati interpretati dagli autori in base ad un modello di regolazione dell’umore,
secondo il quale gli individui, in generale, desiderano mantenere l’umore positivo e a modificare
quello negativo. Pertanto, persone con umore positivo evitano di prendere decisioni rischiose perché
una eventuale perdita ridurrebbe la valenza positiva del loro umore, invece il possibile guadagno
proveniente da decisioni a basso livello di rischio servirebbe ad accrescere o a mantenere l’umore
positivo; mentre persone con umore negativo tendono a scegliere maggiormente opzioni rischiose al
fine di ottenere un effetto positivo, derivante da un potenziale guadagno, che permetta di migliorare il
proprio stato emotivo. Ovviamente, esistono molte altre strategie di regolazione dell’umore, fra cui
strategie di ruminazione o distrazione tese a ridurre stati emotivi negativi (Rusting & Nolen-Hoeksema,
1998). Tuttavia, il modello di regolazione dell’umore sopra citato permette una maggiore
comprensione del rapporto fra umore e decisioni rischiose. Gli autori sono in disaccordo su quale sia il
tipo di umore (positivo o negativo) che richiede maggiori risorse cognitive: alcuni autori sostengono
che gli stati affettivi negativi sono quelli che riducono maggiormente il numero di risorse allocate per
un determinato compito (Howell & Conway, 1992), secondo altre ricerche, invece, stati affettivi
positivi possono limitare in larga misura le risorse attentive (Isen, 1987). Isen e Means (1983) hanno
infatti dimostrato che l’umore positivo porta gli individui ad adottare una strategia di scelta basata
sulla semplificazione del compito, sia elaborando un minor numero di informazioni che scartando
caratteristiche ritenute ininfluenti per la scelta. In ogni caso, il materiale congruente con l’umore si
impone alla coscienza, limita le risorse che erano state allocate per un determinato compito e, in tal
senso, può danneggiare la performance.
Dunque potremmo dire che le emozioni influenzano fortemente il comportamento dell’attore
decisionale, sia un livello conscio che ad un livello inconscio. A volte le reazioni affettive ci possono
indurre in errore, ma in un gran numero di situazioni giocano un ruolo estremamente adattivo nel
comportamento del decisore.

INTELLIGENZE
Uno dei più importanti studiosi fu Galton, che riteneva che l’intelligenza avesse una base ereditaria e
138
riteneva di aver dimostrato che vi erano maggiori probabilità di trovare individui con abilità eccezionali
in famiglie che avevano tra i loro ascendenti individui eccezionali.
I dati presentati sono di sicuro interesse, ma ciò non implica che l’intelligenza umana sia determinata
in massima parte da fattori ereditari.
Molti degli individui studiati da Galton oltre alle stesse famiglie condividevano il medesimo ambiente,
non è possibile, quindi, dedurre che questo non abbia determinato un’importante influenza.
Gli psicologi non hanno ancora trovato un accordo su una definizione univoca di “intelligenza”, anche
se concordano sul fatto che è determinata da numerose e diverse abilità.
Se l’intelligenza è frutto di tutte queste capacità, l’intelligenza è un’entità multifattoriale e quindi
necessita di una tecnica di analisi fattoriale, che consente di individuare come le prove utilizzate per
misurare l’intelligenza siano tra loro correlate e per determinare i fattori sottostanti alle differenze
individuali osservate su quelle prove. Si assume che gli individui siano in possesso di una serie di tratti
o fattori, gli individui si differenziano in base a questi tratti e tali differenze si riflettono differenze
osservate nell’esecuzione dei compiti intellettivi.
Non esiste una definizione univoca di intelligenza, ma quella che trova più accordo tra gli studiosi è la
capacità di produrre un comportamento adattivo e funzionale al raggiungimento di uno scopo, un
comportamento che affronti con successo le sfide dell’ambiente e che permetta di realizzare gli scopi
prefissati.
Nickerson, Perkins e Smith le riassumono in questo modo:
1) Classificare gli insiemi, ovvero assegnare stimoli non identici alle classi (es imparare a giocare a
carte dall’imitazione)
2) Modificare il comportamento adattivamente all’ambiente, cioè apprendere
3) Ragionare in maniera deduttiva, cioè trarre conclusioni logiche da date premesse
4) Ragionare in maniera induttiva, ossia generalizzare e ciò richiede scoprire regole e principi da
esempi particolari
5) Sviluppare e usare modelli concettuali, cioè formarsi un’impressione del modo con cui il mondo è
organizzato e come funziona e usare tale impressione per comprendere e prevedere gli eventi
6) Comprendere, abilità relata a quella di vedere relazioni esistenti nei problemi e di apprezzare il
significato di tali relazioni per risolvere i problemi.
Veniamo ora alle cosiddette “Teorie del Senso Comune” (implicite) si tratta di concezioni ingenue dei
non esperti: emergono negli scambi comunicativi quotidiani. Sono prodotte mediante processi di
ricostruzione sociale. Sono rappresentazioni sociali (S. Moscovici). Vanno distinte dalle teorie
scientifiche.
La gente comune include nel concetto di intelligenza la capacità di risolvere i problemi, la competenza
sociale e la capacità verbale.
Le teorie scientifiche dell’intelligenza sono dette teorie esplicite, al loro interno distinguiamo due
approcci allo studio del costrutto di intelligenza, un approccio unitario e un approccio multiplo.

Fanno parte dell’approccio unitario le teorie strutturaliste di tipo psicometrico e le teorie unitarie
globali maturative come la teoria Pigettiana e le teorie fattoriali di Spearman.
L’approccio multiplo invece comprende la Teoria delle Intelligenze Multiple di H. Gardner e la Teoria
Triarchica dell’intelligenza di R. Sternberg.

Andiamo a vedere le diverse teorie sul costrutto di intelligenza.


La teoria di Piaget identifica l’intelligenza come la capacità crescente che ha la mente di ragionare su
entità astratte e sull’adattamento.
Lo sviluppo dell’intelligenza secondo Piaget, corrisponde allo sviluppo della capacità di pensare
139
logicamente. La logica viene considerata da Piaget come un processo che libera il pensiero e che
consente agli individui di pensare alle cose più svariate.
Lo sviluppo dell’intelligenza procede da ciò che è concreto a ciò che è astratto. Piaget, nella sua teoria
sullo sviluppo dell’intelligenza, fa riferimento a differenti stadi o periodi:

Periodo sensomotorio (0-2 anni). L’intelligenza assume la forma di azioni motorie; utilizza i sensi e le
abilità motorie per esplorare e relazionarsi con ciò che lo circonda.
Periodo pre-operazionale (2-7 anni). L’intelligenza è intuitiva; egocentrismo intellettuale, ovvero il
punto di vista delle altre persone non è differenziato dal proprio; il bambino ancora non padroneggia
le nozioni di quantità, classe e relazione.
Periodo delle operazioni concrete (7-11 anni). La struttura cognitiva è logica ma dipende da contesti
concreti; ha la nozione di quantità e classe.
Periodo delle operazioni formali (11-15 anni). Il pensare implica astrazioni.

Secondo Spearman, l’intelligenza è costituita da un fattore generale o fattore G e da un insieme di


fattori specifici responsabili dell’esecuzione di una specifica abilità mentale che egli chiamò fattore X.
Quindi, Spearman ritiene che in qualsiasi prestazione cognitiva intervengono due fattori:
• un fattore G: generale, che interviene in tutte le più diverse prestazioni cognitive;
• un fattore S: specifico di una particolare abilità cognitiva.
La performance ad uno specifico test di intelligenza è data dall’intervento di una capacità mentale
generale (g) e di un’attitudine mentale specifica (s).
L’intelligenza è meglio caratterizzata da un solo fattore predominante rispetto agli altri. Il soggetto,
quindi, può avere un alto livello di abilità su uno o più fattori ma basso sugli altri.

L’intelligenza è considerata una capacità generale, detta fattore g trasversale e comune a diverse
abilità specifiche, le abilità specifiche costituiscono i fattori secondari, fattori s, come abilità linguistica,
spaziale, aritmetica.
Quanto maggiore è il valore di G tanto meglio l’individuo dovrebbe riuscire in un test di intelligenza. A
metà del XX secolo, l’attenzione si spostò proprio su quelle componenti separate specifiche
dell’intelligenza che Spearman sosteneva essere sottese da un fattore generale.

Thurstone nel 1938 propose una teoria secondo la quale l’intelligenza sarebbe caratterizzata da un
certo numero di fattori dominanti, detti abilità mentali primarie.
Esse sono:
a) Comprensione verbale
b) Fluenza verbale
c) Ragionamento induttivo
d) Visualizzazione spaziale
e) Abilità numerica
f) Memoria e velocità percettiva

Guilford (1967) propone una concezione costruttivista dell’abilità intellettiva, applicando l’analisi
fattoriale ad un’analisi logica dei fattori coinvolti nelle funzioni mentali. Ciò gli permise di costruire un
sistema chiamato struttura dell’intelletto, ovvero un’organizzazione complessa di componenti
intellettive coinvolte in compiti o risoluzione di problemi.
Tale struttura può essere rappresentata da un oggetto tridimensionale definito da 3 macrofattori:

140
1) “operazioni”, riassume cinque principali fasi i processi mentali, come i processi di pensiero, il
pensiero divergente o convergente, la memoria e il giudizio
2) “prodotti” riassume sei tipi di rappresentazione delle operazioni mentali, come unità classi relazioni
sistemi trasformazioni e implicazioni.
3) “contenuti”, riassume i contenuti specifici di un problema, i contenuti di tipo figurale, simbolico
semantici e comportamentali.
Le abilità riassunte sono 120, divenute poi 150 nel 1982 e corrispondono a tutte le possibili
combinazioni delle tre categorie etichettate dai tre fattori.
Il pensiero convergente viene attivato nelle situazioni che permettono un’unica risposta pertinente. Il
pensiero divergente (o creativo) è attivato nelle situazioni che permettono più vie di uscita. Esso si
caratterizza per i seguenti aspetti:
-Fluidità
-Flessibilità
-Originalità
-Elaborazione
-Valutazione

Gardner (1983) tentò di rispondere all’interrogativo riguardante l’insieme delle abilità che un individuo
doveva possedere per risolvere i problemi ritenuti importanti nelle proprie situazioni personali.
In tal modo identificò sette tipi di intelligenza:
• Linguistica
• Logico-matematica
• Spaziale
• Musicale
• Corporeo-cinestica
• Interpersonale
• Intrapersonale
Secondo la sua concezione l’intelligenza è caratterizzata dalla modularità; difatti le abilità sono legate a
processi che agiscono in modo indipendente uno dall’altro e fanno riferimento a diverse aree del
cervello.
A sostegno della sua tesi, Gardner ritiene che ogni area tende ad avere la sua propria modalità di
codifica o di rappresentazione, il proprio specifico insieme di operazioni cognitive ed un progressivo
affinamento delle abilità (più si diventa esperti).
Le 7 abilità di Gardner, negli studi successivi, arrivano ad essere 9.
Vengono aggiunte:
• Intelligenza naturalistica
• Intelligenza esistenziale

La concezione cognitivista dell’intelligenza


Secondo un punto di vista cognitivista, l’intelligenza si caratterizza come un sistema che include
l’insieme dei processi che presiedono l’elaborazione dell’informazione e riflette l’analogia tra
intelligenza umana e intelligenza artificiale.
Dal punto di vista del funzionamento della nostra mente, l’informazione viene acquisita dal mondo
esterno e immagazzinata in memoria e dopo essere stata trasformata viene utilizzata per svolgere un
dato compito.
La sequenza di tale operazioni è analoga al funzionamento del computer ma negli esseri umani le
141
funzioni intellettive includono anche l’intelligenza.
Sternberg (1985) propone, a tal proposito, il modello triarchico e affronta l’analisi dell’intelligenza non
da un punto di vista strutturale mediante l’individuazione di fattori, bensì da un punto di vista
procedurale attraverso l’individuazione e l’analisi dei comportamenti.
Il modello triarchico è costituito da 3 subteorie in grado di spiegare modelli specifici di comportamento
intelligente umano:
1) Comportamento esperienziale intelligente: un comportamento contestualmente appropriato non è
ugualmente intelligente in riferimento a tutti i punti sul continuum di esperienza con quel
comportamento o classe di comportamenti. L’intelligenza si manifesta molto meglio quando
l’individuo deve affrontare una nuova situazione problemica oppure quando sta procedendo
all’automatizzazione della prestazione in un determinato compito.
2) Comportamento contestuale intelligente: adattamento all’ambiente in cui attualmente si trova
l’individuo, la selezione di un ambiente più vicino a livello ottimale rispetto a quello in cui attualmente
vive e modificare l’ambiente attuale per renderlo più adatto alle proprie caratteristiche, interessi o
valori. Chi possiede questa capacità può facilmente adattarsi all’ambiente sia cambiando sé stesso che
modificato l’ambiente. Qualità intellettiva strumentale.
3) Comportamento componenziale intelligente: capacità di pianificare ciò che si deve fare, di come
farle ecc.; questa subteoria, quindi, specifica le strutture e i meccanismi sottostanti al comportamento
intelligente, ovvero agli specifici componenti della sequenza del processo di elaborazione
dell’informazione.
Si articola in tre differenti tipi di componenti:
a) metacomponenti, ovvero le capacità di controllo dell’esecuzione di altre componenti, come i
processi di pianificazione, di visione strategica, le capacità di anticipazione e di previsione.
b) componente esecutiva, cioè l’insieme dei processi coinvolti nell’esecuzione dei compiti, come la
capacità di eseguire i piani, di recuperare le informazioni ecc. Le componenti esecutive sono coinvolte
in tutti gli stati del processo di soluzione dei compiti
c) processi di acquisizione delle conoscenze, ovvero la capacità di apprendimento di nuove
informazioni e del loro immagazzinamento e trattamento nella memoria. Opera selezionando le
informazioni in modo tale da isolare esclusivamente quelle rilevanti per il compito e di favorire la
conservazione in maniera tale da renderne facile il recupero e l’utilizzo per compiti successivi.
Secondo la teoria triarchica, ciascuna delle componenti presenta tre aspetti misurabili:
I. durata, ossia il tempo richiesto per eseguire quella componente
II. difficoltà, ovvero la probabilità di commettere un qualche errore di esecuzione
III. probabilità di esecuzione, cioè la probabilità che in una data situazione quella componente
venga eseguita.

Correlati cognitivi dell’intelligenza


I sostenitori dell’idea che l’intelligenza abbia effettivamente come misura reale il fattore g, pongono
come punto di forza a favore della loro posizione il fatto che esistono delle correlazioni tra misure di
prestazioni ottenute in compiti cognitivi che non siano derivate dalle tradizionali prove dei test.
I correlati cognitivi del fattore g riguardano misure relative ai tempi di reazione, di scelta, di velocità
nell’esplorazione di pattern (si riferisce alla rapidità con cui gli individui possono recuperare dalla
memoria a lungo termine il significato in una parola o simbolo).
Alcuni studiosi, però, sostengono che il fattore g non sia relato alla velocità con cui il cervello elabora
l’informazione di elaborazione, ma alle risorse richieste per l’elaborazione dell’informazione e in
particolare alla memoria di lavoro.
Esiste una forte correlazione tra la capacità di memoria di lavoro e l’abilità di ragionamento.
142
Alcuni studi dimostrano che essere capaci di mantenere attiva in memoria molta informazione
coincide con la capacità di risolvere i problemi in maniera veloce e accurata.
QI (quoziente intellettivo tra eredità e ambiente).
Molti studi cercano di capire se il livello intellettivo è determinato per la maggior parte da un fattore
ereditario o ambientale. Gli studi sono molto difficili da condurre, soprattutto perché gli appartenenti
a una stessa famiglia condividono un background culturale e, inoltre, siamo incapaci di stabilire il
modo in cui le influenze genetiche si esprimono attraverso lo sviluppo dell’individuo.
In ogni caso sicuramente entrambi i fattori influenzano il livello intellettivo.
Generalmente si sostiene che le diversità osservate nei QI sono per il 50% determinate dall’ambiente e
per il 50% dal patrimonio genetico.
Cioè non significa che l’intelligenza di un individuo è per metà attribuibile ai fattori genetici e per l’atra
metà all’ambiente in cui è cresciuto.
Si può soltanto dire che all’interno di una popolazione metà delle differenze osservate nei QI sono
imputabili al patrimonio genetico e metà è imputabile all’influenza ambientale.
Si può affermare che gli studi correlazionali effettuati sui gemelli omozigoti e dizigoti mettono in luce
l’esistenza di una covariazione tra fattori genetici e ambientali nello sviluppo delle capacità intellettive
dell’individuo.

I cognitivisti vedono l’intelligenza come il sistema cognitivo nel suo insieme. La mente funziona come
un elaboratore di informazioni in cui lo stimolo (input) è elaborato e memorizzato dalla mente che
produce un risultato.

Intelligenza e creatività
Il Disegno
I disegni vanno distinti in disegni ingenui, cioè quelli eseguiti dai bambini, e i disegni eseguiti dagli
artisti.
Mentre il disegno di un’artista crea una illusione della realtà, quello di un bambino cerca di essere
realistico e, per questa ragione, finisce per apparire errato.
Lo stadio più interessante nello sviluppo dell’abilità del disegno è quello della cosiddetta età d’oro del
disegno che, tipicamente, ha inizio nel periodo prescolare e termina un po’ dopo l’inizio dell’età
scolare.
Winner (1982) ha elencato gli aspetti che caratterizzano l’età d’oro dei disegni dei bambini:
• l’uso di colori brillanti,
• la libertà dai vincoli di una rappresentazione realistica,
• l’assenza di forme stereotipiche
• una disponibilità nei confronti dell’esplorazione e della sperimentazione.
Solitamente questi disegni appaiono molto più piacevoli agli occhi dei critici d’arte, ma anche agli
occhi degli spettatori comuni, dei disegni prodotti a partire del cosiddetto periodo convenzionale.
Nel corso di questo secolo, molti artisti hanno ammirato i disegni dei bambini in età prescolare.
Nei lavori degli artisti maturi spesso si può notare quella capacità di allontanarsi dalle norme
convenzionali che può essere ritrovata anche all’interno dei disegni dei bambini. Gli artisti maturi
ottengono intenzionalmente ciò che i bambini ottengono senza pensare.
Le produzioni artistiche dei bambini in età prescolare sono caratterizzate da un alto grado di ciò che
potremmo chiamare gradevolezza estetica.
Mentre le produzioni artistiche dei bambini nella fase preconvenzionale vengono molto apprezzate
dagli artisti, quelle dei bambini nella successiva fase convenzionale appaiono meno gradevoli.

143
Gardner e Winner hanno sostenuto che la porzione più bassa dello sviluppo ad U sia dovuta, non tanto
alla diminuzione delle capacità espressive del bambino, quanto piuttosto ai tentativi del bambino di
apprendere le convenzioni necessarie a raggiungere un’autentica competenza nel disegno.
Infine se gli individui riescono a padroneggiare le regole di questa forma simbolica allora saranno
capaci di usarle in modo creativo.
Le corrispondenti produzioni artistiche possono essere chiamate postconvenzionali, dato che non
sono limitate dai tentativi di essere convenzionali e possono essere ammirate per la loro maestria e
vitalità.

La musica
Nel corso dei primi anni di vita, i bambini spontaneamente si impegnano in comportamenti di tipo
musicale. L’emergere delle attività musicali, come quella del canto, potrebbe essere dovuta al fatto
che i bambini imitano il comportamento degli adulti, che vengono presi come modelli.
Alcuni psicologi, in particolare Bernstein (1976), hanno fatto notare come i bambini nei primi anni di
vita producano in modo spontaneo un particolare pattern melodico e hanno sostenuto che questo
pattern sia dovuto ad una conoscenza musicale innata.
Nel corso del terzo anno di vita i bambini, spontaneamente, si impegnano in comportamenti di tipo
musicale.
L’emergere delle attività musicali, come quella del canto, potrebbe essere dovuta al fatto che I
bambini imitano il comportamento degli adulti, che vengono presi come modelli.
Nonostante anche Gardner (1982) credeva nella presenza di una simile melodia, da lui chiamata
ursong, ha notato che non vi sono molte evidenze a sostegno dell’esistenza di un tale pattern melodico
innato.
Verso la fine del terzo anno I bambini iniziano a produrre canzoni caratteristiche della loro cultura di
appartenenza
Gardner (1983) ha osservato che ci sono delle notevoli variazioni cross-culturali a questo proposito.
Nelle culture che attribuiscono un grande valore alla musica, l’intelligenza musicale si sviluppa meglio
che in altre culture.
Gli studi di Bramberger (1982 - 1986) che ha dedicato alla conoscenza musicale, indicano che lo
sviluppo di questa conoscenza varia lungo la dimensione tacito-esplicito (un individuo può sapere
qualcosa senza essere in grado di dire esplicitamente ciò che conosce).
Le osservazioni riportate da Bramberger a proposito dei bambini dotati di talento musicali indicano
che le conoscenze possedute da questi bambini sono probabilmente di questo tipo.
A proposito della natura tacita della conoscenza musicale dei bambini dei bambini, Bamberger (1986)
ha affermato che con l’adolescenza gli studenti diventano più riflessivi nei confronti delle loro
produzioni musicali, per cui vivono come una contraddizione la differenza tra l’acquisita comprensione
esplicita della musica e la precedente comprensione spontanea e non riflessiva.
Bamberger ha denominato questa fase come quella della crisi di mezza età del musicista, dato che i
musicisti di talento solitamente iniziano a studiare musica nei primi anni di vita e dato che,durante
l’adolescenza, la loro carriera musicale è già molto sviluppata.
Bamberger ha anche notato che, molto spesso, lo studio della musica viene interrotto a questo punto.

Prodigi
I prodigi sono in grado di diventare competenti in un determinato compito molto prima di quando ci si
aspetterebbe normalmente. Un ricercatore il cui lavoro ha esercitato una notevole influenza in
quest’area di studio è Feldam (1986).
Feldam ha fatto notare che non vi è alcuna garanzia che un individuo dotato di grande talento, sia
144
pure un prodigio, alla fine raggiunga il successo in una particolare area.
Esistono alcune variabili che influenzano il livello di sviluppo delle capacità di un bambino.
Il primo livello è quello del bambino.
Un prodigio è un bambino che si specializza in una particolare forma simbolica come, per esempio, la
matematica o la musica.
Al di là del livello rappresentato dall’individuo stesso ci sono altri tre livelli, o frames.
Questi frames hanno una durata temporale maggiore di quella della vita dell’individuo e
corrispondono al dominio in cui si manifesta il talento del prodigio, al contesto culturale e storico
all’interno del quale questo stesso dominio trova espressione, e al più ampio contesto evolutivo per
questa particolare capacità.
I potenziali prodigi devono incontrare e padroneggiare un corpo specifico di conoscenze in un
particolare dominio come la matematica o la musica, per esempio.
Un bambino può diventare un prodigio in un certo dominio solo se le conoscenze specifiche a quel
dominio possono essere acquisite da un bambino.
Il dominio della conoscenza si sviluppa all’interno del contesto più generale della cultura e della storia.
Un aspetto molto importante a questo proposito è rappresentato dal fatto che la cultura a cui il
bambino appartiene può valutare positivamente, oppure no, la competenza che il bambino esibisce.
Feldman ha sostenuto che una porzione critica del supporto culturale necessario ad un bambino
prodigio venga fornita dalla famiglia.
Un altro contesto all’interno del quale un bambino prodigio si sviluppa è quello dell’evoluzione.
Feldman ha suggerito che i bambini prodigio possono essere considerati come l’espressione di una
naturale variazione delle capacità umane. Alcune di queste variazioni spontanee vengono selezionate
e ulteriormente sviluppate dalla cultura in cui appaiono, mentre altre non trovano le condizioni che
permettono loro di svilupparsi.
Secondo Gardner, la possibilità di definire ciò che costituisce l’expertise in un’area è uno dei criteri
usati per stabilire l’esistenza di un’intelligenza separata.
Indipendentemente dalla teoria di Gardner, un grande interesse è stato rivolto al tentativo di
comprendere quali siano gli elementi che contribuiscono a fare di un individuo un esperto in una data
area.
Lo studio classico a questo proposito è quello di Chase e Simon (1973), i quali hanno confrontato le
capacità di rievocazione delle posizioni degli scacchi da parte di giocatori esperti e novizi.
Dopo aver osservato gli scacchi ai soggetti veniva richiesto di ricostruire le posizioni dei pezzi che
erano stati mostrati in precedenza. Questo esperimento ha mostrato che i maestri erano in grado di
ricordare la posizione dei pezzi molto meglio dei novizi se le posizioni da ricordare potevano verificarsi
nel corso di una partita. Nel caso delle configurazioni casuali, le prestazioni dei giocatori esperti non
erano superiori a quelle dei novizi.
Chase e Simon hanno suggerito che gli esperti percepiscono le posizioni dei pezzi sulla scacchiera che
si verificano nel corso del gioco in termini di unità più grandi, o chunks.
I novizi, invece, non sono in grado di distinguere le posizioni di gioco dalle configurazioni casuali.
Le limitate conoscenze di novizi non consentono loro di percepire il significato delle posizioni dei pezzi
che si verificano durante il gioco.
I novizi non sono in grado di raggruppare i pezzi e, dunque, devono ricordare separatamente la
posizione di ciascun pezzo.
In aree come la matematica l’inesperienza può essere vissuta con sofferenza e imbarazzo.
Adda (1982) ha studiato le difficoltà che gli studenti da matematica spesso incontrano all’inizio della
loro educazione. I simboli matematici sono spesso dotati di un significato tecnico molto diverso dal
significato posseduto comunemente dal medesimo simbolo.
145
Per il novizio, questa discrepanza è una fonte potenziale di malintesi.
Per esempio, spesso gli studenti interpretano il simbolo “=” non soltanto con il significato di “uguale”,
ma anche con il significato di “produce come risultato”.
Adda ha notato che “coloro che non possiedono un’educazione matematica tendono a considerare i
simbolismi matematici alla stregua dei codici usati dagli stregoni, i quali risultano del tutto
incomprensibili alle persone comuni”.
La transizione dallo stato del novizio a quello dell’esperto non è facile e molti individui non sono capaci
di effettuarla.
McCloskey (1983) ha studiato un altro aspetto dell’inesperienza. I risultati dei suoi esperimenti
implicano che l’expertise non dipende soltanto dall’acquisizione di nuove conoscenze. L’inesperienza
non corrisponde soltanto alla mancanza di conoscenze appropriate, ma anche alla presenza di
credenze sbagliate.
Per acquisire il punto di vista corretto è necessario innanzi tutto abbandonare il punto di vista
sbagliato. I novizi non devono soltanto acquisire nuove conoscenze ma anche essere consapevoli delle
false credenze che posseggono (McCloskey e Kargon, 1988).
Anche se solitamente gli esperti sono più anziani dei novizi, è anche vero che un bambino può
acquisire maggiori competenze di un adulto in un’area specifica.
Per studiare le differenze tra esperti e novizi da un nuovo punto di vista evolutivo è necessario che
soggetti di età diversa dispongano di livelli diversi di expertise. In altre parole, è necessario
confrontare soggetti esperti e novizi nei confronti della medesima capacità ed effettuare questi
confronti tra soggetti di età diversa.
Means e Voss sostengono che bambini in età diverse sono in grado di acquisire la conoscenza di un
esperto in un’area specifica. In contesto specifico i bambini possono essere considerati degli esperti.
Ciò nonostante, le prestazioni di un esperto adulto eccedono quelle di un esperto bambino dotato di
conoscenze simili.
Questa differenza tra bambini e adulti è particolarmente chiara in corrispondenza della conoscenza
degli scopi. La conoscenza degli scopi e del valore delle cose è sviluppata in una forma molto più
elaborata nei soggetti adulti.
Gli individui possono essere classificati sia in termini della loro età che nei termini del loro livello di
expertise. Entrambe queste variabili influenzano le conoscenze possedute dall’individuo. L’expertise
non può essere compresa senza tenere conto del livello di sviluppo dell’individuo, dal momento che
ciò che definisce un esperto e un novizio varia con l’età.
Isaacs e Clark (1987) hanno studiato il modo in cui esperti e novizi comunicano a dispetto delle grandi
differenze esistenti tra loro. Questi ricercatori hanno identificato tre processi per mezzo dei quali
vengono prodotti degli aggiustamenti nelle modalità di conversazione tra esperti e novizi.
• accertamento (assessing expertise);
• somministrazione (supplying expertise);
• acquisizione (acquisition of expertise).

Creatività
Secondo una definizione largamente accettata, la creatività ha a che fare con la “produzione di
prodotti nuovi e socialmente utili” (Mumford e Gustafson, 1988).
Una tale definizione riconosce il fatto che la creatività non ha a che fare soltanto con un
comportamento nuovo o originale.
Il significato più pieno del termine, infatti, include anche il riferimento ad un qualche criterio di
appropriatezza (Vinacke, 1974).
Un modo originale di comportarsi non si qualifica come creativo a meno che non rappresenti anche
146
una “soluzione a un significativo problema sociale” (Mumford e Gustafson, 1988).
Secondo la teoria associazionista l’apprendimento ha a che fare con l’acquisizione di associazioni tra le
cose. L’ipotesi che una cosa possa essere ricordata a partire da un’altra cosa implica la formazione di
un’associazione tra queste due cose.
Il punto importante è che noi stabiliamo associazioni tra la maggior parte degli oggetti che ci sono
familiari. Senza queste associazioni gli oggetti perderebbero gran parte del loro significato.
La quantità di associazioni possedute da un oggetto ci fornisce una indicazione del significato che
quell’oggetto possiede per noi.
Gli associazionisti credono che agli oggetti vengano associate molteplici risposte le quali sono
strutturate in maniera gerarchica. Queste risposte corrispondono alle azioni che noi riteniamo possibili
in relazione all’oggetto considerato.
Koestler (1964) ha proposto un altro meccanismo volto a spiegare il processo creativo, quello della
bisociazione. La maggior parte della nostra attività di pensiero si svolge come una routine e fa uso di
semplici associazioni.
La capacità di usare associazioni comuni è molto importante.
Queste associazioni, infatti, attribuiscono stabilità e organizzazione al pensiero e al comportamento.
Per pensare in modo creativo, però, è necessario andare al di là di questi modi consueti.
Ciò che spesso si dimostra necessario è una relazione che era stata trascurata precedentemente.
Il processo che ci porta a percepire la connessione tra idee in precedenza prive di rapporti reciproci è
stato chiamato da Koestler bisociazione.
Secondo alcuni studiosi, ed in particolare Maier, la creatività dipende dalla capacità dell’individuo di
interagire in maniera flessibile con l’ambiente. Se l’interazione è rigida, inflessibile, immutabile e
stereotipata, allora si può dire che l’individuo si comporta in maniera meno creativa di colui che
dimostra una maggiore flessibilità.
Gli individui hanno a loro disposizione una serie di capacità. Queste possono essere concepite come
un insieme di comportamenti specifici che corrispondono a tutto quello che gli individui sono capaci di
fare. Queste capacità costituiscono il repertorio comportamentale. Gli elementi che fanno parte di
tale repertorio possono essere relativamente innati oppure relativamente appresi.
Il compito dell’organismo è quello di selezionare i comportamenti appropriati forniti dal repertorio
comportamentale e di integrare i comportamenti prescelti in una configurazione che costituisca la
risposta adeguata alla situazione in cui l’organismo si trova. Gli individui devono sia selezionare i loro
comportamenti che organizzare le loro esperienze.
Gli psicologi interessati alla creatività e al pensiero originale hanno dedicato particolare attenzione al
processo di scoperta di problemi.
Mackworth (1965) è stato tra i primi a distinguere tra:
• capacità di risolvere un problema, la quale dipende dalla scelta tra programmi o regole mentali già
esistenti;
• capacità di scoprire un problema, la quale ha a che fare con il riconoscimento del bisogno di un
nuovo programma e dipende dalla scelta tra quelli che sono i programmi esistenti e quelli che ci si
aspetta siano i programmi futuri.
Il processo di soluzione di problemi conduce alla soluzione di problemi ben definiti; mentre il processo
di scoperta di problemi conduce alla formulazione di una serie di domande a partire da problemi mal
definiti.
Getzels (1975) ha osservato che la capacità di scoprire problemi non è utile soltanto nell’ambito della
ricerca scientifica.
Egli ha distinto tale capacità dalle altre capacità cognitive facendo riferimento ad una
rappresentazione in tre dimensioni;
147
• il modo in cui il problema viene formulato;
• il metodo usato per risolvere il problema;
• la soluzione stessa.
L’autentica scoperta di un problema non si verifica a mano che tutti e tre gi aspetti vengano generati da
un solo individuo il quale è in grado di formulare il problema, scoprire il metodo di soluzione e trovare
la soluzione.
La scala di valori di Allport, Vernon e Lindzey (1960) è stata uno dei test utilizzati per scoprire se gli
individui creativi sono o meno diversi.
Questo test misura come i valori dei soggetti si distribuiscono nelle seguenti sei categorie di valore:
• valore teoretico (pensiero astratto),
• valore economico (ricchezza materiale),
• valore estetico (arte e bellezza),
• valore sociale (relazioni interpersonali),
• valore politico (potere),
• valore religioso (vita dello spirito).
Secondo Getzels e collaboratori (1973) è possibile che gli individui che posseggono questo profilo di
valori tendano ad essere più creativi di coloro che posseggono un differente profilo di valori.
Questo significa, per esempio, che attribuire poca importanza ai valori economici e molta importanza
a quelli estetici costituisce un requisito necessario per essere creativi, nel senso che coloro che
posseggono un diverso profilo di valori non ottengono delle buone prestazioni in compiti che
richiedono un comportamento creativo.
È anche possibile, però, che questo atteggiamento nei confronti dei valori non sia una qualità
personale richiesta dal comportamento creativo ma, piuttosto che dipenda dal contesto in cui la
persona creativa viene a trovarsi.
L’approccio per mezzo del quale Simonton ha studiato il processo creativo rappresenta uno sviluppo
della teoria di Campbell (1960), secondo cui il processo evolutivo è caratterizzato da due aspetti
fondamentali.
Il primo è quello della variazione cieca, ovvero il processo per mezzo del quale le alternative vengono
esplorate senza sapere in anticipo quale alternativa produrrà l’effetto desiderato
Il secondo, invece, è rappresentato dal processo di ecolocazione. L’ecolocazione è una forma di
variazione cieca che permette all’organismo di acquisire informazioni senza dovere muoversi
all’interno dell’ambiente.
L’animale, per esempio, può produrre il comportamento appropriato facendo uso delle informazioni
fornite dal segnale che l’animale stesso emette. L’ecolocazione può essere appresa anche dagli esseri
umani.
Secondo Campbell, il pensiero creativo può essere inteso come una sorta di variazione cieca ad un
livello simbolico. L’individuo può immaginare i diversi esiti possibili di un’azione e anche il criterio di
selezione che consente di decidere quale sia l’azione appropriata.
Simonton nel riprendere la teoria di Campbell ha sottolineato tre punti chiave:
• Le soluzioni creative ai problemi richiedono un processo di variazione;
• Le variazioni sono selezionate sulla base di un insieme di criteri;
• Le variazioni che soddisfano i criteri vengono conservate.
Alcune combinazioni di elementi sono più stabili e meglio organizzate di altre. Queste combinazioni
vengono chiamate configurazioni.
Alcune configurazioni soddisfano i requisiti di uno specifico problema. Tali requisiti possono essere di
natura diversa, mentre i criteri possono essere di tipo convenzionale.

148
Affinché una configurazione possa entrare a far parte di una data cultura è necessario che sia
comunicabile.
Il processo di comunicazione rende necessaria un’alterazione della configurazione, dato che essa deve
essere trasformata in modo che gli altri la possano assimilare.
Una configurazione, infatti, può sopravvivere solo se gli altri ne percepiscono l’utilità.
Se essa soddisfa quelli che sono i criteri socialmente accettati, allora è possibile che entri a fare parte
delle nostre norme culturali.
Simonton ha discusso alcune evidenze aneddotiche a sostegno della sua teoria, ma ha anche
presentato evidenze sistematiche.
Secondo Simonton la distribuzione della produttività può essere compresa facendo riferimento al
processo di permutazione casuale.
Egli ha sostenuto che gli individui creativi hanno a loro disposizione un grande numero di elementi
mentali. Tanto più grande è il numero di elementi mentali, tanto maggiori sono le possibili
combinazioni tra essi.
Con la crescita del numero degli elementi mentali, il numero delle loro permutazioni aumenta molto
rapidamente.
In questo modo, pochi individui che hanno a disposizione un grande numero di elementi mentali
possono generare un numero di permutazioni enormemente più grande di quello che è possibile per
la maggior parte degli individui.
Questi pochi individui effettuano i maggiori contributi semplicemente perché si trovano nella
condizione di avere maggiori probabilità di generare una configurazione utile.
Potremmo dire che solo pochi individui siano dotati di un grande potenziale creativo.

La misurazione dell’intelligenza
Divenne un’esigenza concreta alla fine del ‘900, soprattutto in Francia, valutare il grado di sviluppo
intellettivo dei bambini in età scolare. L’obiettivo era individuare coloro che avevano un ritardo
mentale per avviarli ad attività didattiche speciali.
Binet predispose una serie di test di abilità scolastica che potevano essere eseguiti da bambini normali
appartenenti a una specifica età cronologica. Superare queste prove significa avere un’età mentale
corrispondente a quella cronologica. I bambini che avessero dimostrato di essere più bravi di quelli
della loro fascia d’età, avevano un’età mentale superiore; al contrario coloro che avessero ottenuto
una prestazione inferiore avrebbero dimostrato di avere un’età mentale minore rispetto a quella
cronologica.
L’approccio di Binet fu adattato da un gruppo di psicologi dell’università di Stenford, mettendo a
punto il test “Stenford-Binet” che poteva essere somministrato agli adulti, in particolare per
selezionare coloro che potevano essere arruolati come ufficiali nelle forze armate americane.
Il sistema di misura escogitato presentava un limite connesso con il concetto di età mentale.
Infatti la misura utilizzata da Binet era la semplice differenza tra l’età mentale del soggetto e la sua età
cronologica e questa misura non consentiva di valutare correttamente il ritardo mentale. Un ritardo di
2 anni a un’età di 5 anni è molto più grave di uno di 2 anni però a 12.
Risultava quindi necessario comparare la prestazione individuale con la prestazione media dell’intera
popolazione.
Stern voleva una misurazione dell’intelligenza che potesse essere usata per confrontare direttamente
le persone.
A tal proposito fu introdotto un nuovo concetto di misura, ossia il QI, Il “quoziente d’intelligenza”, si
calcola:
QI = EM/EC x 100
149
EM= età mentale, EC= età cronologica.
Per poter confrontare i punteggi dei soggetti occorre trasformare i punteggi in punteggi
standardizzati. Per fare ciò, si assume che l’intelligenza sia normalmente distribuita su tutta la
popolazione e ciò significa che più il punteggio è lontano dalla media, meno numerosi saranno gli
individui interessati. Il livello medio di QI è 100 con una deviazione standard di 15 punti.
Possiamo dire oggi che circa il 95% della popolazione ha un QI tra il 70 e il 130.
Si considerano normodotati i soggetti che hanno un QI tra il 90 e il 110.
Normali o ottusi i QI tra gli 80 e I 90.
Borderline i QI tra i 70 e gli 80.
Disabilità intellettiva i QI inferiori a 70
Le caratteristiche di un buon test, come sappiamo, sono:
Attendibilità: stabilità e replicabilità delle misure;
Validità: il test misura ciò che si propone di misurare;
Standardizzazione: la misura del singolo può essere confrontata con i risultati ottenuti da un campione
ampio e rappresentativo della popolazione.

Le scale Wechsler
Wechsler definisce l’intelligenza come: “La capacità generale di un soggetto di capire e far fronte al
mondo circostante”. Egli concepisce l’intelligenza come entità globale, un’entità multideterminata e
multisfaccettata. L’intelligenza viene dedotta dal modo in cui abilità come il ragionamento, la
memoria, la fluidità verbale si manifestano nelle diverse condizioni.
La pubblicazione nel 1939 della Scala d’Intelligenza Wechsler-Bellevue segnò una data cruciale nella
storia della valutazione dell’intelligenza dell’adulto.
Per la prima volta, infatti, veniva costruita una batteria di prove individuali ed eterogenee, che
apprezzava le varie espressioni del funzionamento intellettuale, ben accette dai soggetti adulti e,
soprattutto, che erano tarate in funzione dell’età cronologica.
Abbandonando il concetto di età mentale, Wechsler riprendeva invece quello di Quoziente Intellettivo
(QI) concependolo, però, come una scala standardizzata con media 100 e deviazione standard 15.
In tale modo venivano eliminati i limiti del metodo precedente e, invece, forniti degli indici statistici
concreti, funzionali a cogliere correttamente il potenziale intellettivo individuale.
Benché tale scala fosse stata concepita inizialmente per valutare il livello d’intelligenza globale del
soggetto, lo strumento fu rapidamente applicato con diversi altri scopi: quello di misurare l’eventuale
deterioramento mentale, di differenziare la tipologia di intelligenza, pratica o verbale, della persona e
di individuare le eventuali carenze in particolari funzioni cognitive.
Proprio per tali requisiti, lo strumento divenne, molto rapidamente, il più usato nell’ambito della
valutazione e della diagnosi dell’intelligenza, portando così ad una globale revisione del materiale, che
oggi viene suddiviso in tre scale:
WAIS (Wechsler Adult Intelligence Scale) dai 16 anni in poi
WPPSI (Pre-school and Primary Scale of Intelligence) 3-7 anni
WISC (Wechsler Intelligence Scale for Children) 7-16 anni.

LA SCALA WAIS
La scala d’intelligenza Wechsler per adulti è sicuramente la più diffusa, tra i test di livello.
Si tratta di un test di intelligenza generale, intendendo come tale “la capacita’ globale dell’individuo ad
agire con uno scopo, a pensare ragionevolmente, a gestire effettivamente il proprio ambiente”.
Wechsler (1939) considerava la sua definizione come una definizione operazionale, e non una risposta
definitiva all’annoso problema di che cosa sia quella che viene chiamata intelligenza.
150
L’autore cercò di ideare una sufficiente ampia varietà di questioni che riflettesse la sua definizione di
intelligenza, ma riconosceva che tutto non poteva essere incluso. Wechsler concluse che la scala
misura sufficienti proporzioni di intelligenza per renderci possibile usarla come un indice fedele della
capacità globale dell’individuo.
La somministrazione della WAIS, è lunga e complessa, ma proprio per questa sua articolazione è
possibile trarre informazioni dettagliate sul funzionamento cognitivo del paziente, come la personale
modalità che il paziente ha di organizzare le proprie strategie di risoluzione di problemi in base alle
nozioni acquisite e la capacità di accedere al proprio bagaglio mnemonico in cui tali informazioni sono
contenute, organizzandole secondo pattern di funzionamento legati alla comprensione del problema.
La scala WAIS è costituita da 11 sub-test differenti: 6 misurano le abilità cognitive di natura
prevalentemente verbale e gli altri 5 le abilità cognitive di natura principalmente visiva, spaziale e
manipolativa.
I risultati delle prime sei scale danno origine al Quoziente Intellettivo Verbale, i punteggi delle ultime
cinque confluiscono nel Quoziente Intellettivo di Performance. La media di questi due indici è il
Quoziente Intellettivo Totale.
Le differenze individuali nel Quoziente Intellettivo possono dipendere sia da differenze genetiche sia
da variabili ambientali-culturali.
Spesso sono coinvolti e contribuiscono entrambi i gruppi di fattori.
Sicuramente il patrimonio genetico individuale ha un’importanza fondamentale nel determinare le
basi e i meccanismi dello sviluppo, ma è anche vero che è necessaria una società ed un ambiente
adatto perché si possa sviluppare un’intelligenza normale. Il modo più semplice per studiare quanto i
geni determinino il QI è lo studio dei gemelli monozigoti (quindi con lo stesso DNA) che siano stati
separati dalla nascita (cresciuti quindi in ambienti differenti). L’interpretazione dei risultati di queste
ricerche è controversa. Tendenzialmente è possibile affermare che il corredo genetico influisce per il
50% nel determinare le basi dell’intelligenza. Sembra quindi che i geni e l’ambiente contribuiscano in
uguale misura alla formazione del QI. Particolarmente interessanti sono gli studi per individuare
eventuali differenze legate al sesso, alla classe sociale ed alla razza. Per quanto riguarda le eventuali
differenze tra i due sessi, nel livello di intelligenza media la risposta è certa e definitiva: non esistono
differenze significate tra uomini e donne. Vi sono invece differenze grandi e nette nel QI medio di
membri di classi sociali e professionali diverse. Chi svolge lavori intellettuali riporta valori più elevati
nei test di intelligenza, anche se ciò potrebbe essere dovuto a una maggiore familiarità di questi
lavoratori con i compiti richiesti nei test. Il fattore fondamentale sembra essere l’istruzione ricevuta. Il
contesto sociale di riferimento è essenziale: differenze legate alla classe sociale compaiono già prima
dei 5 anni di età. Ciò implica che i fattori ambientali rilevanti operino già prima che il bambino vada a
scuola. Anche da questo punto di vista viene sottolineato il fondamentale ruolo della famiglia
nell’influenzare tutto lo sviluppo intellettivo del soggetto. Il dibattito più acceso è nato intorno al ruolo
della razza nel determinare minori e maggiori punteggi nei test di intelligenza. Gli studi condotti negli
Stati Uniti rilevano infatti che la popolazione di colore riporta punteggi significativamente inferiori
rispetto alla popolazione bianca. Questo è un dato certo, ma l’interpretazione è controversa. Per
lungo tempo questi risultati vennero utilizzati a fini politici, per confermare l’inferiorità genetica dei
neri e per avvalorare certe scelte in tema di educazione ed immigrazione. Oggi gli psicologi, più attenti
alle ragioni della scienza e dell’analisi metodologica che alle considerazioni politiche, rilevano due fatti.
Innanzitutto i test misurano capacità che il mondo occidentale considera indici di intelligenza e gli
stessi test sono nati e sono stati standardizzati su popolazioni bianche. Come a dire che i test di
intelligenza sono dati per sottolineare certe differenze e non altre. In secondo luogo le osservazioni
sperimentali negli Stati Uniti implicano spesso una sovrapposizione tra razza e contesto sociale. Le
popolazioni nere negli USA appartengono (e appartenevano ancora di più all’epoca di questi studi) a
151
classi sociali disagiate, con l’ovvia impossibilità di determinare se i minori punteggi nei test di
intelligenza erano legati a fattori genetici di razza o alla povertà del contesto sociale di riferimento.

LA SCALA WAIS-R
Attualmente il più utilizzato test di intelligenza è la WAIS-R (Wechsler Adult Intelligence Scale Revised;
1981). Da molti anni ormai, la WAIS-R, è entrata a fare parte integrante della batteria di test che si
somministra durante un esame psicodiagnostico.
L’uso che se ne può fare, oltre che, come strumento atto a misurare il livello di efficienza intellettiva,
può essere anche quello di un importante fonte di informazioni sul funzionamento cognitivo ed
emotivo della persona, e può completare efficacemente le informazioni ottenute attraverso i test di
personalità, senza sostituirli, ma fornendo informazioni nuove e non ridondanti.
L’uso clinico del risultato della scala WAIS-R, permette di analizzare la struttura della prestazione,
confrontare i risultati ai vari sub test e tracciare un profilo delle diverse funzioni in gioco, considerando
anche l’aspetto emotivo definito dall’esame psicodiagnostico.
La scala WAIS-R amplia la linea di sviluppo sulla valutazione dell’intelligenza negli adulti, iniziata con la
Wechsler-Bellevue e continuata con la sua revisione, la scala WAIS.
Proprio in funzione delle numerose ricerche condotte utilizzando la scala WAIS e delle critiche e
obiezioni avanzate rispetto alla sua applicazione, l’obiettivo principale della WAIS-R è stato
l’aggiornamento dei contenuti della WAIS e la considerazione di nuove norme di riferimento, derivate
dalle risposte e dai punteggi di campioni attuali della popolazione.
Sebbene circa l’80% degli item della WAIS-R, intatti, o con lievi modifiche, appartenga alla WAIS, sono
stati rivisti o eliminati quegli item che sembravano obsoleti e ridondanti e sono stati aggiunti dei nuovi
quesiti.
È stato modificato l’ordine di somministrazione delle prove a causa dei cambiamenti nell’ordine di
difficoltà degli item, ed anche l’assegnazione dei punteggi ad alcune prove avviene in maniera diversa,
in accordo con i risultati dell’analisi dei nuovi dati.
Mentre nella WAIS le prove di performance seguivano quelle verbali, nell’ordine di presentazione dei
subtest della WAIS-R quelli verbali si alternano a quelli di performance. L’esperienza ha dimostrato che
variare i compiti in questo modo aiuta a mantenere vivo l’interesse dei soggetti che si sottopongono
alla prova.
Come la scala originaria, la WAIS-R consta di 11 subtest, di cui
6 compongono la Scala Verbale :Informazione, Comprensione, Ragionamento aritmetico, Analogie,
Memoria di cifre e Vocabolario.
5 la Scala di Performance: Associazione simboli a numeri, Completamento di figure, Disegno con i cubi,
Riordinamento di storie figurate e Ricostruzione di oggetti.
Insieme, gli 11 subtest costituiscono la Scala Totale.
I due gruppi, verbale e di performance, possono essere somministrati insieme o da soli permettendo,
ad esempio, di somministrare la prima a persone con deficit del linguaggio, oppure solo la seconda a
soggetti che hanno handicap visuomotori.
È preferibile, comunque, somministrare entrambe le sezioni per fornire ai soggetti esaminati un
maggior numero di prove per dimostrare le loro capacità e per consentire agli esaminatori maggiori
opportunità di valutazione delle abilità cognitive complessive.
Il QI, calcolato dai dati della Scala Verbale, di Performance o Totale, è ricavato dal confronto diretto
dei risultati ottenuti al test dal soggetto con quelli ottenuti dai soggetti appartenenti alla stessa classe
d’età; esso costituisce forse il più significativo elemento d’informazione circa le capacità mentali del
soggetto, in quanto è proprio il confronto con i coetanei che può essere assunto come la relazione più
significativa.
152
L’Intelligenza Emotiva
L’ampio successo del concetto di Intelligenza Emotiva e la grande diffusione anche ad un pubblico di
lettori non specialisti, è dovuta senza alcun dubbio agli scritti del professore Daniel Goleman, anche
collaboratore scientifico del “New York Times”.
Dalla fine degli anni Novanta, Goleman ha portato a conoscenza del grande pubblico “Intelligenza
Emotiva” il suo primo best-seller.
Sposando il pensiero di Sternberg e Salovey sulle potenzialità dell’intelligenza personale, egli supera il
tradizionale approccio all’intelligenza come QI, arricchendola con le intelligenze multiple descritte da
Gardner, in modo da ottenere la classificazione di 5 ambiti specifici che identificano l’I.E., il tutto allo
scopo di fornire un piano d’azione per autodefinire il proprio successo nella vita.
I cinque ambiti ricostruiti da Goleman sono:
1. La conoscenza delle proprie emozioni: la capacità di riconoscere un sentimento nel momento in cui
si presenta.
2. Il controllo delle emozioni: la capacità di controllare i sentimenti in modo che siano appropriati. Si
fonda sull’autoconsapevolezza, quindi capacità di calmarsi, di liberarsi dall’ansia, dalla ristezza e
dall’irritabilità. Diversamente ci si trova continuamente a dover combattere contro sentimenti
tormentosi
3. La motivazione di sé stessi: capacità di dominare le emozioni per raggiungere un obiettivo.
Permette di concentrare l’attenzione, trovare motivazione, controllo di se’ ed essere creativi. La
capacità di ritardare la gratificazione e di controllare gli impulsi è alla base di qualunque tipo di
realizzazione. Concentrazione e controllo non attraverso una scissione, ma una modulazione.
4. Il riconoscimento delle emozioni altrui è l’empatia, quindi provare dentro. La mancanza di empatia
ha un elevato costo sociale.
5. La gestione delle relazioni: capacità di dominare le emozioni altrui, capacità di pensare anche in
situazioni di turbolenza prodotta dalle emozioni degli altri.
Queste sono le abilità che aumentano la popolarità, la leadership e l’efficiacia interpersonale.
Ognuno possiede capacità diverse in ciascun ambito e tali abilità non sono innate; al contrario possono
essere apprese e possono essere sviluppate e/o potenziate.
Sostiene che QI e IE non sono competenze del tutto divergenti, al contrario sono separate ma spesso
correlate; in definitiva, però, sono le persone dotate di una buona intelligenza emotiva ad avere
maggiore successo nella vita, o meglio a godere di un’esistenza appagante.
I cinque ambiti descritti da Goleman sono concatenati tra di essi e per raggiungere un buon livello di
I.E. bisogna attraversarli tutti:
1. L’autoconsapevolezza è il prerequisito fondamentale per raggiungere l’appagamento di sé; è la
capacità di riconoscere un sentimento in modo contingente al suo presentarsi; è un’attenzione
riflessiva e introspettiva della propria esperienza, non solo emotiva.
L’autoconsapevolezza è una sorta d’integrazione tra la metacognizione e la metaemozione e consente
il monitoraggio costante dei propri sentimenti.
L’autoconsapevolezza è una capacità molto importante dell’IE e secondo Goleman, è in grado di
rafforzare altri aspetti della personalità rendendo, ad esempio, i soggetti maggiormente sicuri di sé
stessi; viceversa l’assenza di autoconsapevolezza rende gli individui schiavi delle proprie emozioni e
incapaci di controllarle.
2. Per avere un adeguato controllo dei propri sentimenti perciò è indispensabile passare per
l’autoconsapevolezza. Controllare gli eccessi emozionali (sia positivi che negativi) infatti, significa avere
una buona consapevolezza della situazione che si sta vivendo e, dunque, cercare di avere
comportamenti appropriati ad essa. L’obiettivo è imparare a vivere ed esprimere le proprie emozioni
153
calibrandone l’intensità, per non vivere una vita piatta da un lato, né per essere schiacciati dall’altro.
Controllo emotivo, perciò, vuol dire stare in equilibrio e significa riprendersi più rapidamente dalle
cadute.
3. La mancanza di controllo emotivo, dunque, porta all’alternanza di stati emozionali e al disequilibrio;
in una tale condizione difficilmente si potrà essere motivati al raggiungimento dei propri obiettivi,
sogni e desideri.
Il controllo delle emozioni perciò, aiuta a mantenere alta la concentrazione su di sé e su chi si vuole
essere, agevola l’automotivazione. Le emozioni, infatti, se non controllate minano la capacità di
pensare, anzi hanno il sopravvento sui pensieri e distolgono la concentrazione dagli obiettivi.
L’attenzione, viceversa, aiuta a focalizzare gli obiettivi, e se, a questo stato di concentrazione, si
aggiunge il piacere di svolgere l’azione, il compito viene eseguito con maggiore facilità raggiungendo,
quindi, la gratificazione, la quale a sua volta è fonte di rinnovata motivazione ed entusiasmo.
Se questo circolo virtuoso viene innestato è possibile giungere, dice Goleman, allo stato di “flusso”,
massima espressione dell’I.E.
Nello stato di flusso gli individui sono totalmente concentrati sulla risoluzione del compito, dimostrano
un controllo eccellente sulle loro azioni, senza preoccuparsi di farlo bene, senza pensare al tempo
impiegato e senza considerare cosa stiano pensando o facendo gli altri; semplicemente godono del
piacere di compiere quella prestazione.
In altre parole, nello stato di flusso le uniche emozioni che vengono lasciate esprimersi sono quelle
relative alla gratificazione e alla motivazione di fare bene il proprio compito.
Ci sono infine, due modi per raggiungere lo stato di flusso: svolgere un’attività nella quale si ha una
certa destrezza ad un livello stimolante (né troppo facile, né troppo difficile) oppure, tramite la
concentrazione esclusiva e profonda sul compito che si sta trattando.
In entrambi i casi, ma soprattutto nel secondo caso, è indispensabile la perseveranza, l’applicazione e
la capacità di ritardare la gratificazione senza essere dominati dall’ansia o dallo sconforto di non
riuscire.
4. Gli ultimi due ambiti hanno a che vedere con le relazioni interpersonali; in particolare il quarto
ambito introduce il concetto di empatia, che Goleman chiama sintonizzazione con l’altro.
Avere autoconsapevolezza e saper concentrarsi e controllare le proprie emozioni ci aiuta ad avere,
anche, relazioni emotivamente equilibrate con gli altri. Infatti, più le emozioni si vivono e si lasciano
esprimere consapevolmente, maggiore sarà la capacità di riconoscere e cogliere le emozioni negli altri.
L’empatia affonda le sue radici nella relazione madre-bambino, ma può essere coltivata anche nelle
relazioni adulte; infatti, sono le relazioni stesse a plasmare le modalità relazionali, a patto però che
queste vengano vissute con autoconsapevolezza e autocontrollo.
Le persone che nel corso della loro esistenza hanno sviluppato particolari capacità empatiche sono,
inoltre, individui capaci di gesti altruistici (disinteressati); viceversa la totale assenza di empatia può
portare a condotte criminali, mentre carenze e deficit di empatia rende le relazioni con l’altro
alquanto problematiche.
5. L’empatia è dunque, una buona base di partenza per una relazione interpersonale equilibrata, ma
per gestire le emozioni altrui è necessario padroneggiarla almeno quanto saper controllare le proprie
emozioni; serve cioè competenza emotiva.
In altre parole alla base di una matura abilità sociale, risiedono l’empatia e l’autocontrollo.
Goleman specifica che per avere una perfetta gestione delle relazioni sono indispensabili
capacità organizzative (coordinare gli sforzi tra gli individui),
capacità di negoziazione (prevenire e risolvere conflitti tra individui),
capacità di stabilire legami personali (entrare in connessione con gli altri)
capacità di analisi della situazione sociale (riconoscere e comprendere i sentimenti, le motivazioni e le
154
preoccupazioni altrui).
L’I.E. e la sua competenza emotiva fanno sì che si possa arrivare a dominare le emozioni altrui:
padroneggiare le proprie emozioni e modellarle per entrare in sintonia con l’altro. Questo conduce a
un sodalizio emotivo e una vera e propria orchestrazione dei movimenti durante la comunicazione
emozionale tra due individui.
Arrivati a questo livello interpersonale è facile, dunque, per l’individuo più competente emotivamente,
trascinare le emozioni dell’altro (più passivo).
Coloro i quali hanno un’eccellente competenza emotiva risultano affascinanti, a volte carismatici,
avranno successo sociale e potranno ricoprire ruoli di leadership. Viceversa la mancanza ci
competenza emotiva, l’incapacità di entrare in sintonia con l’altro e di padroneggiare le proprie
emozioni produrrà ansia e goffaggine nello scambio interpersonale, generando esclusione sociale.
L’approfondimento di queste tematiche condusse Goleman all’elaborazione di una nuova teoria, che
affonda le radici nell’I.E. (prerequisito indiscusso) ma che si orienta maggiormente alla dimensione
relazionale piuttosto che a quella intrapersonale, vale a dire l’Intelligenza Sociale.
È opportuno descrivere in che modo, secondo Goleman, sia possibile applicare l’I.E. nella quotidianità
e soprattutto come svilupparla e potenziarla.
L’autore spiega come può essere d’aiuto l’I.E. per far fronte agli stati emotivi più totalizzanti quali, la
rabbia, l’ansia e la tristezza.
1. Sedare la collera: gli scatti d’ira sono il culmine dello stato emotivo, sono cioè la punta
dell’iceberg, ciò che viene manifestato. Dietro a tali manifestazioni di rabbia si celano interminabili
monologhi interiori, fatti di rancore e risentimento, di frustrazione e umiliazione, in un’escalation che
porta all’aggressività. Per disinnescare la collera, usando l’I.E., bisogna dunque bloccare il flusso dei
pensieri negativi mettendoli in discussione, oppure spostare l’attenzione dai pensieri ostili aspettando
che l’ondata di adrenalina si spenga. Possono risultare di supporto (in entrambe i casi), le tecniche di
rilassamento come la respirazione profonda e il rilassamento muscolare, ma la pratica più efficace
sembra essere costituita dall’autoconsapevolezza dei propri pensieri. L’autoconsapevolezza va
esercitata scrivendo i pensieri cinici e ostili appena essi compaiono (la scrittura agevola l’esercizio nella
fase iniziale), per poterli fissare, mettere in discussione e rivalutare.
2. Alleviare l’ansia: come per la rabbia l’ansia si alimenta di pensieri ricorsivi sulle preoccupazioni.
Tali pensieri se cronicizzati e ripetitivi possono scaturire in disturbi ansiosi quali, fobie, ossessioni e
compulsioni, attacchi di panico. Anche in questo caso viene in soccorso l’autoconsapevolezza, agendo
in tre fasi.
La prima fase è di addestramento, essa porta a riconoscere gli episodi fonte di preoccupazione
attraverso il monitoraggio degli stimoli che inducono ansia, del flusso dei pensieri angosciosi, delle
immagini che evocano preoccupazioni e delle sensazioni fisiologiche associate all’ansia.
Nella seconda fase (anch’essa di addestramento) vengono applicate ed esercitate quotidianamente le
tecniche di rilassamento in modo che possano essere utilizzate all’occorrenza.
Nella terza fase, infine, si deve assumere un pensiero autocritico, cioè si devono mettere in discussione
attivamente, i pensieri che generano preoccupazione attraverso l’esame della realtà; in questo modo
si può bloccare la spirale dell’ansia.
2. Sollevare la tristezza: anche nel caso della tristezza i pensieri negativi inducono al ritiro
riflessivo e il rischio è la paralisi depressiva, e come per i precedenti stati emotivi, anche qui, è
necessario imparare a mettere in discussione i pensieri oggetto del rimuginare, esaminando la loro
validità e ricercando soluzioni propositive e alternative positive.
Siccome la depressione è caratterizzata da un basso grado di attivazione fisiologica, un utile metodo
per distogliere l’attenzione dai pensieri negativi è quello appunto, di attivare il corpo su qualcosa di
piacevole, ad esempio un’attività sportiva gradita (meglio se non solitaria); un altro metodo per
155
sollevare lo stato d’animo è svolgere un compito di facile risoluzione, ciò oltre ad essere piacevole e
gratificante, contribuisce a motivare la propria autostima; infine il metodo, forse meno utilizzato ma
con maggior possibilità di successo, è il reinquadramento cognitivo, cioè cercare di considerare la
situazione in modo diverso.

Un’ultima precisazione è comunque doverosa, per Goleman, tali tecniche e consigli pratici non devono
considerarsi sostitutivi di terapie psicoterapiche e/o farmacologiche, e con maggiore evidenza nel caso
di disturbi conclamati, bensì una forma di prevenzione o di sostegno valida per ogni individuo nel
corso della propria esistenza.

EMOZIONI
Che cosa sono le emozioni
Possiamo definire le emozioni come processi complessi e multifattoriali composti da:
• valutazione della situazione,
• attivazione dell’organismo,
• espressione e manifestazione delle risposte emotive,
• prontezza e preparazione all’azione.
Per la sua complessità è corretto parlare di esperienza emotiva.
Le emozioni costituiscono uno degli ambiti di studio classici della psicologia. William James, nel 1890,
sosteneva che le emozioni costituiscono la percezione degli stati corporei; come si può osservare che
esiste un numero illimitato di differenti tipi di percezioni, è altrettanto plausibile vi sia un numero
illimitato di differenti emozioni. L’importanza delle emozioni in ambito psicologico non riguarda
soltanto il fatto che possono essere utilizzate per spiegare a posteriori le risposte degli individui ai
compiti e all’ambiente, ma anche e soprattutto per capire il loro peso nel prevedere quelle risposte.
Un’idea diffusa relativa alla relazione tra emozioni, stati mentali e manifestazioni fisiologiche è quella
secondo la quale quando noi proviamo felicità o paura questi stati mentali provocano reazioni mentali
coerenti.
L’esperienza emotiva è stata da sempre studiata dall’uomo da filosofi e teologi, da artisti e letterati. In
psicologia le emozioni sono state affrontate in termini empirici e sperimentali.

Vediamo ora il quadro teorico delle emozioni così caratterizzato:


1. La teoria periferica
2. La teoria centrale
3. La teoria cognitivo-attivazionale
4. Le teorie dell’appraisal
5. Le teorie psico-evoluzionistiche
6. Le teorie costruttivistiche

1. La teoria di James-Lange, teoria periferica delle emozioni


Una delle teorie più influenti sulle emozioni che trae origine proprio da queste considerazioni, è
conosciuta come teoria di James-Lange.
L’aspetto centrale della teoria riguarda il fatto che gli individui per prima cosa manifestano reazioni
fisiche a eventi che si verificano nel mondo o nella mente, e soltanto successivamente, quando essi
acquistano consapevolezza dei cambiamenti avvenuti nel corpo, percepiscono un’emozione.
Soltanto quando si manifestano cambiamenti rilevanti nel corpo i pensieri appariranno emotivamente
carichi.

156
James propose per primo una definizione empirica e verificabile di emozione, definendola come
sentire le modificazioni periferiche dell’organismo (per questo è definita teoria periferica o teoria del
feedback).
Non tremiamo perché abbiamo paura, ma abbiamo paura perché tremiamo.
James parla di evento emotigeno, definendola una modificazione neurovegetativa del sistema nervoso
periferico.
Da evento semplicemente percepito ad evento emotivamente sentito, abbiamo la percezione di
modificazioni neurovegetative.
James propone, quindi, una radicazione biologica dell’emozione (attivazione fisiologica), soprattutto
nei visceri.
Ad ogni emozione corrisponde una distinta e specifica configurazione di attivazioni neurofisiologiche.
La teoria di James-Lange è stata molto dibattuta. Fu testata sperimentalmente da Sherrington e da
Cannon e fu ritenuta infondata, nei loro esperimenti verificarono che dei cani con midollo spinale e
nervo vago reciso manifestavano, comunque, reazioni emotive. I visceri hanno una sensibilità troppo
scarsa, una risposta troppo lenta e una motorità troppo indifferenziata.
Lo sviluppo del comportamentismo, alla metà del ‘900, sembrò confermare l’idea che i cambiamenti
fisiologici erano considerati risposte biologicamente appropriate apprese nei confronti di stimoli che
fossero stati associati a situazioni emotive. In conclusione, le emozioni si configurano come risposte
comportamentali come tutte le altre, possono essere incrementate o soppresse, ma sempre come
risultato dell’apprendimento.
Tuttavia dobbiamo ribadire che il punto di vista periferico è rimasto attivo con teorie più recenti e più
elaborate. Vediamo appunto quali sono.
L’ipotesi del feedback facciale sostiene che le espressioni facciali forniscono informazioni
propriocettive, motorie, cutanee e vascolari che influenzano il processo emotivo.
Esistono due versioni di questa ipotesi.
La versione forte che sostiene che le espressioni facciali da sole sono sufficienti a generare l’emozione;
la versione debole in cui si ribadisce che il feedback facciale aumenta soltanto l’intensità e la durata
dell’emozione.
Per verificare questa ipotesi sono stati impiegati due paradigmi:
- Esagerazione e inibizione: il soggetto deve modificare volontariamente le espressioni facciali
delle emozioni, andandole ad esagerare o andandole ad inibire. In un esperimento i soggetti
valutano stimoli di tipo avversivo, come shock elettrici, o scene di film, come meno dolorosi o
più piacevoli quando cercano di inibire le espressioni facciali
- Induzione muscolare: il soggetto deve contrarre volontariamente i muscoli facciali implicati in
una determinata emozione.
Esistono evidenze empiriche per la versione debole dell’ipotesi del feedback facciale; di contro la
versione forte è ancora da approfondire.
In questa linea di ricerca troviamo la teoria dell’autopercezione di Laird, secondo cui ci sono soggetti
più sensibili ai segnali da essi prodotti e, quindi, alle espressioni facciali. In base a questa prospettiva
gli effetti del feedback facciale sono riscontrati in modo più frequente negli individui che prestano più
attenzione focale ai segnali da essi stessi prodotti, rispetto a quelli che non hanno tale attenzione.
Altra teoria di James è la teoria vascolare dell’efferenza emotiva: a fronte del sistema vascolare del
volto, una certa modalità e ritmo della respirazione nasale assicurano il raffreddamento termico della
regione talamica, sotteso al mantenimento degli stati emotivi positivi (raffreddamento ipotalamico),
mentre un innalzamento del valore termico ipotalamico è associato a stati edonici negativi. La
regolazione respiratoria (attivazione periferica) induce regolazione emotiva come vediamo in antiche
pratiche orientali quali yoga, meditazione trascendentale, ecc.
157
Altra interpretazione della teoria di James da riportare è sicuramente quella di Damasio, il quale vede
la suddetta teoria come il superamento dell’errore di Cartesio, che proponeva un dualismo tra mente e
corpo. Damasio sottolinea una concezione unitaria dell’organismo secondo cui occorre prevedere la
“mentalizzazione” del corpo e la “somatizzazione della mente”. Le emozioni in questo contesto teorico
sono una convergenza sinergica tra mente e corpo, sono processi mentali (processi valutativi della
situazione) ma hanno come teatro il corpo (modificazioni somatiche concorrenti).
Il sentimento è diverso dall’emozione; rappresenta ciò che consente di sentire l’emozione in modo
consapevole.
Damasio opera una distinzione tra emozioni primarie e emozioni secondarie.
Le prime sono risposte spontanee, innate e precodificate dell’organismo a determinate condizioni
ambientali. Sono riconducibili a cinque famiglie: Gioia, Tristezza, Collera, Paura e Disgusto.
Le emozione secondarie, invece, sono connesse con l’apprendimento e con l’esperienza personale
(es.: Colpa, Vergogna, Orgoglio).

Le basi neurofisiologiche delle emozioni


Fin dai primi decenni di questo secolo il principale problema teorico è stato quello di descrivere e
spiegare il fenomeno emotivo nella sua complessità, e in particolare la compresenza e l’interazione tra
un particolare stato mentale e le modificazioni fisiologiche che accompagnano il vissuto emotivo.
Il Sistema Nervoso Centrale (SNC) gioca un ruolo fondamentale nelle teorie delle emozioni; si può
vedere come nel corso della storia si siano susseguite diverse correnti di pensiero circa le sue funzioni.
Di particolare rilevanza ed importanza sono state le teorie elaborate da Cannon- Bard all’inizio degli
anni ’30, subito seguite da quelle di Papez. Altra prospettiva interessante è quella di LeDoux collocata
nella seconda metà degli anni ’80.

2. La teoria di Cannon-Bard o Teoria centrale delle emozioni si pone in una posizione critica rispetto alle
precedenti teorie sviluppate in questo ambito proponendo un nuovo punto di vista che si basa su un
sistema a 3 livelli:
1. il livello corticale;
2. il sistema limbico: in particolare questo livello, intermedio rispetto ai due precedenti, risulta essere
fondamentale per la definizione delle emozioni;
3. Sistema Nervoso Autonomo
Le emozioni sono attivate a livello del sistema nervoso centrale e nello specifico a livello della regione
talamica, quindi non un’attivazione viscerale a carico del sistema nervoso periferico.
In particolare Cannon concentrò i suoi studi sulla reazione d’emergenza, ponendo in risalto le funzioni
dell’arousal simpatico e cioè una configurazione di risposte neurofisiologiche che covariano
simultaneamente alla comparsa dell’emozione: battito cardiaco, respirazione, sudorazione,
vasocostrizione gastroenterica e cutanea, incremento dei valori glicemici, diminuizione della
salivazione, dilatazione della pupilla e piloerezione. Osservato da Cannon nelle emozioni fondamentali
e nelle forme di eccitamento quali fame e sessualità.

In sintesi confrontando la teoria periferica di James e la teoria centrale di Cannon possiamo così
schematizzare:

Ipotesi di Cannon
tutte le emozioni presentano la stessa configurazione di risposte fisiologiche osservate nella reazione
di emergenza

158
Ipotesi di James
Pattern specifici: ogni emozione presenta una propria specifica configurazione di risposte fisiologiche

Ad oggi le due teorie non risultano empiricamente confermate, anche se diversi parametri fisiologici di
diverse emozioni, sono state considerate. Ad esempio nella collera sono state individuate maggiore
pressione sistolica, maggiore temperatura cutanea, maggiore tensione muscolare e vasodilatazione
periferica. Nella paura, maggiore pressione diastolica, minore temperatura cutanea e maggiore attività
gastro intestinale.
Direttamente dalla teoria di Cannon-Bard si sviluppa la teoria di Papez (1937), che cerca di dare una
definizione più specifica della struttura e della funzione del sistema limbico identificato come uno dei
livelli fondamentali.
In particolare Papez elabora una teoria detta “a due vie”:
1. Via Corticale: in particolare in questa via viene coinvolta in maniera intensa l’area visiva; si ha
dunque una percezione conscia dell’evento osservato.
2. Via Sub-Corticale: nella via sub-corticale avviene un’elaborazione emotiva dell’evento
osservato. In questa via vengono anche attuati dei meccanismi di feedback (dalla via sub- corticale a
quella corticale) che permettono una accurata regolazione delle emozioni.
Papez ha definito il cosidetto “Circuito di Papez”.
Si tratta di un asse formato da diverse aree del cervello che permettono di elaborare gli stimoli
emotivi ricorrendo anche a meccanismi di memoria.
All’interno di questo circuito individuiamo: talamo anteriore e ipotalamo, giro cingolato, corteccia e
ippocampo.
L’amigdala presenta una posizione strategica:
circuito subcorticale (proiezioni amigdala-talamiche): sistema di valutazione rapido e immediato,
pressoché automatico (= elaborazione precognitiva degli stimoli)
circuito corticale (proiezioni amigdala-talamo-corticali): processi cognitivi superiori di valutazione degli
eventi emotigeni).
Possiamo dire che la teoria centrale e la teoria periferica si sono limitate agli aspetti biologici
dell’emotività ignorando gli aspetti prettamente psichici.

Successivamente, MacLean integra il circuito di Papez con altre regioni: amigdala, nuclei del setto, ecc.
Costituenti il sistema limbico (sistema deputato a regolazione delle emozioni).
Le aree del sistema limbico importanti, in riferimento alle emozioni sono l’ipotalamo e l’amigdala.

Teorie Anno
Filosofia, letteratura, ecc. Prima del 1884
James (teoria periferica) 1884,
Cannon 1927
Papez e MacLean 1937 - 1949
Schachter e Singer 1962
Scherer Anni ‘80
Rivista “Emotion” 2000

La teoria di LeDoux (2000) rappresenta un rafforzamento della teoria basata sulle “2 vie” elaborata da
Papez. LeDoux ha mostrato particolare interesse nello studio della paura e della memoria (e i

159
collegamenti tra i due aspetti), facendo diversi esperimenti a livello neurofisiologico.
Grazie ai suoi studi esso ha individuato un’area del cervello che ricopre un ruolo centrale per quanto
riguarda l’elaborazione delle emozioni (della paura in modo particolare) che `e l’amigdala. L’amigdala
viene considerata la sede dell’elaborazione inconscia degli stimoli visivi che ci arrivano dall’esterno;
questa elaborazione viene fatta in maniera istantanea e gioca un ruolo fondamentale sui primi
processi decisionali delle qualità affettive dell’evento osservato. L’importanza dell’amigdala è data
anche dalla sua posizione centrale e dai numerosi collegamenti con le altre zone del cervello.

3. La teoria bifattoriale o cognitivo-attivazionale delle emozioni


Con la nascita del cognitivismo alla metà degli anni ’60 divenne del tutto accettabile lo studio degli
stati mentali come le emozioni quale risultato dei processi cognitivi piuttosto che come risposte
fisiologiche apprese. Le prime teorie sulle emozioni elaborate in base al nuovo orientamento si
rivelarono una revisione delle ipotesi proposte da James-Lang.
La teoria più significativa e conosciuta di questo periodo è quella elaborata da Schachter (1962)
sostiene una concezione psicologica delle emozioni attraverso la teoria cognitivo-attivazionale o teoria
dei due fattori.
L’emozione è la risultante di due componenti distinte:
1 componente di attivazione fisiologica dell’organismo (arousal)
2 componente cognitiva di percezione dello stato di attivazione fisiologica e sua spiegazione in
funzione di un evento emotigeno.
In questo processo particolare attenzione è dedicata all’attribuzione causale che stabilisce una
connessione fra queste due componenti, in modo da spiegare la propria attivazione corporea ad un
evento emotigeno.
Si tratta di una valutazione cognitiva della situazione ed etichettamento dell’esperienza emotiva.
Vengono individuate 2 modalità con cui un’emozione ha origine:
1) Tipica (rappresentata dalla vita quotidiana): processo rapido e quasi non consapevole:
valutazione della situazione, percezione attivazione e sua attribuzione causale
Es.: Sono consapevole del risultato:“mi sento arrabbiato”
2) Arousal non spiegato: processo maggiormente consapevole e deliberato di attribuzione causale
del proprio arousal a qualche situazione o evento.
Per esempio terapie farmacologiche farmaci, fluttuazioni ormonali, ecc. che possono modificare
l’arousal.
A cosa lo attribuisco?
A quale situazioni o evento?
In funzione di questa attribuzione avrò un certo tipo di maniferstazione emotiva.
Sulla base di questi assunti:
1) se un individuo è indotto ad attribuire erroneamente un’attivazione non spiegata ad una situazione
emotivamente pertinente, la sua risposta sarà emotiva ed avrò,quindi, un’attribuzione in funzione degli
indizi emotivi del contesto
2) se l’attivazione fisiologica viene ridotta, risulterà ridotta anche l’intensità dell’esperienza emotiva
3) se un soggetto è indotto ad attribuire erroneamente la propria attivazione fisiologica, in parte o
interamente, ad una situazione neutra (non emotiva), anche la sua risposta risulterà attenuata.

Attribuzione erronea dell’arousal a indizi emotivi


Schachter e Singer progettarono un esperimento, progettando la seguente ipotesi (1962): il modo in
cui l’attribuzione fisiologia viene etichettata, dipenderà dalla situazione. Inoltre, se la ragione che
giustifica quella attribuzione è conosciuta, non si cercheranno altre spiegazioni.
160
Se non vi è alcuna attivazione fisiologica, non sarà sperimentata alcuna emozione e la sua valutazione
sarà neutra.
La combinazione della attivazione fisiologica indotta attraverso i farmaci (epinefrina) e l’assenza di
informazioni o la presenza di informazioni erronee sulla causa dell’attivazione stessa avrebbe
aumentato la responsività del soggetto agli indizi contestuali pertinenti a livello emozionale.
Abbiamo, quindi, una manipolazione di:
-stato fisiologico
-informazioni sullo stato fisiologico
-aspetti cognitivi legati a indizi contestuali

Questa ipotesi confermata nell’ambito dei risultati dell’esperimento, ma non confermata dalle
ricerche successive.
Altri aspetti di questa teoria sono gli effetti della riduzione dell’arousal sull’emozione
Nessuna conferma sul piano empirico
Sono stati condotti
-studi sulle lesioni al midollo spinale
-Studi con farmaci betabloccanti (inibitori dei recettori adrenergici).

Il paradigma dell’attribuzione erronea


L’intensità dell’esperienza emotiva diminuisce se il soggetto è indotto ad attribuire erroneamente la
propria attivazione fisiologica a cause «neutre».
“attribuire erroneamente il proprio arousal aiuta a diminuire la paura?”

- in ambito sperimentale (in laboratorio): tollerano maggiormente la paura per gli shock elettrici se
attribuiscono erroneamente la loro attivazione ad un farmaco eccitante (che in realtà è un “placebo”)
- in ambito clinico (disturbo d’ansia) l’ attribuzione erronea difficile e inefficace. L’attribuzione erronea
funziona soltanto in situazioni nuove quando il soggetto non si è ancora dato una spiegazione della sua
condotta emotiva.

L’ipotesi dell’informazione preparatoria di Leventhal


In alternativa al paradigma dell’attribuzione erronea, l’autore riscontra che un’informazione corretta
sui sintomi da attendersi in una condizione di stress riduce l’incertezza e l’ambiguità, attenuando le
reazioni di ansia.
La concentrazione sulle caratteristiche nocive di uno stimolo doloroso favorisce una maggiore
tollerabilità al dolore (test pressorio del freddo, endoscopia, parto) rispetto alla distrazione dalle
stesse.
L’attivazione, cioè l’arousal di qualsiasi emozione non cessa repentinamente, ma si esaurisce in modo
lento. Un soggetto può attribuire il residuo per l’attivazione di un’emozione A, alla successiva
emozione B di un altro tipo.
I limiti di questa teoria sono l’interpretazione forte; le reazioni emotive non sono manipolabili
interamente mediante indizi situazionali. C’è una scissione dualistica tra fisiologico arousal e cognitivo
(processo di attribuzione).

4. Le teorie dell’Appraisal
Le emozioni dipendono dal modo con cui gli individui valutano e interpretano gli stimoli del loro
ambiente.
Questa concezione si contrappone a quella della psicologia ingenua, secondo cui le emozioni sono
161
passioni irrazionali, di breve durata, simili ad attività istintuali, che sorgono in modo involontario ed
automatico, senza che siano richieste dall’individuo.
Le teorie dell’appraisal sottolineano, invece, il legame fra gli aspetti emotivi e gli aspetti cognitivi,
poiché l’elaborazione cognitiva è sottesa all’esperienza emotiva.
Le emozioni dipendono dalla valutazione cognitiva (appraisal) degli stimoli/situzaioni; l’appraisal degli
antecendenti situazionali orienta e qualifica l’esperienza emotiva del soggetto.
Il termine “appraisal” indica un atto diretto e immediato di conoscenza che integra la percezione, del
quale si può diventare consapevoli solo a percorso concluso.
Si evidenzia il legame fra gli aspetti emotivi e gli aspetti cognitivi, poiché la valutazione cognitiva è
sottesa all’esperienza emotiva. Diverse esperienze emotive derivano da diversi modi con cui si
interpretano le situazioni.

Il significato situazionale
Le emozioni sono l’esito di come percepiamo e valutiamo le condizioni ambientali rispetto al nostro
benessere e al raggiungimento dei nostri scopi.
Le emozioni non compaiono in maniera gratuita e casuale, all’improvviso, ma sono la conseguenza di
un’attività di conoscenza e di valutazione della situazione in riferimento agli interessi dell’individuo
medesimo.
Le emozioni sorgono in risposta alla struttura di significato di una situazione.
Il significato situazionale contribuisce a spiegare le diverse emozioni, la loro intensità e la dimensione
soggettiva dell’esperienza emotiva (differenze individuali).
Le emozioni vengono definite come risposte soggettive con un elevato grado di flessibilità e maggiori
gradi di libertà dell’individuo; sono soggette a processi intenzionali di regolazione (parzialmente
controllabili dall’individuo anche mediante la valutazione cognitiva) - meccanismo di
decoupling/dissociazione tra S-R (stimolo e risposta).
I riflessi, invece, sono processi geneticamente determinati e prestabiliti, universalmente condivisi, con
svolgimento automatico e involontario, meccanismo di coupling/associazione S-R (stimolo e risposta)
La valutazione può differenziarsi sia per il livello di elaborazione che per il tipo di elaborazione.
Il livello di elaborazione delle informazioni si distingue in:
- processo iniziale: automatico, immediato, rapido, l’elaborazione della situazione è limitata agli aspetti
essenziali, schematica ed intuitiva (casi di emergenza e allerta)
- processo esteso: elaborazione più estesa, attenta e consapevole della situazione in relazione ai propri
scopi. Utilizzato abitualmente.
Il tipo di elaborazione dell’informazione (Lazarus, 1991) si distingue in:
- valutazione primaria: che riguarda la valutazione di quanto
a) la situazione sia pertinente con gli scopi dell’individuo (pertinenza)
b) La situazione faciliti il perseguimento di questi scopi (congruenza)
- valutazione secondaria: che riguarda la valutazione di
a) capacità del soggetto di far fronte all’evento emotigeno (problem-focused coping)
b) capacità del soggetto di gestire le sue condotte emotive (emotion-focused coping).

Scherer (anni ’80) ha elaborato una griglia di valutazione dello stimolo/della situazione (stimulus
evaluation check, SEC) un sistema di valutazione secondo una sequenza lineare progressiva distinta in
5 livelli:
1. novità dello stimolo
2. piacevolezza / spiacevolezza dello stimolo
3. rilevanza per gli scopi e bisogni dell’organismo
162
4. capacità di far fronte allo stimolo
5.compatibilità con norme sociali e immagini di sé
E’ un modello di tipo processuale costituito da fasi non rigide e fisse ma che prevedono salti e
rivalutazioni.

Vediamo dunque le dimensioni valutate da Scherer.


1 Novità dello stimolo: Valutazione della novità della situazione. Se c’è discrepanza tra ciò che si aspetta
l’individuo e la situazione (nuova, insolita) questo genera risposte di sorpresa, curiosità, risposte
esplorative ma anche paura e apprensione.
2 Piacevolezza / spiacevolezza intrinseca (valenza edonica): Valutazione della piacevolezza della
situazione, abbiamo qui risposte di avvicinamento o allontanamento.
3 Significatività dell’evento per gli scopi: l’individuo valuta:
a) Se la situazione è pertinente al raggiungimento dei propri scopi.
b) Se e quanto la situazione favorisce o ostacola il raggiungimento dei propri scopi.
4 Capacità di far fronte all’evento: Individuazione della causa dell’emozione
Valutazione del grado di controllo che si può esercitare sulla situazione
Valutazione delle risorse mentali necessarie per modificare la situazione
Esistono varie forme di coping:
- primario (far fronte direttamente all’evento)
- secondario (controllare le proprie risposte emotive)
- attivo (preparazione per entrare in azione)
- passivo (preparazione alla difesa-chiusura)
- intrapsichico (rivalutare la situazione iniziale).
5 compatibilita’ con le norme e con l’immagine di se’:
Il soggetto valuta se un evento (o un’azione) è conforme e coerente a:
a) standard esterni: norme sociali, valori e convenzioni culturali della società
b) standard interni: propri principi morali, immagine di sé, ideali.

Le teorie psicoevoluzionistiche
Tomkins (anni 60) riprende il pensiero di Darwin, una concezione psicoevoluzionistica delle emozioni.
Le emozioni sono strettamente associate alla realizzazione di scopi universali, connessi con la
sopravvivenza della specie e dell’individuo.
I suoi allievi, Ekman e Izard hanno dato particolare sviluppo a questa prospettiva teorica con la tesi
innatista dell’espressione facciale delle emozioni che rafforza l’ipotesi dell’esistenza di emozioni
primarie (gioia, collera, paura, disgusto, tristezza, sorpresa, disprezzo); le altre emozioni sono
considerate miste o secondarie o complesse (miscela di diverse emozioni primarie discrete come ci
ricorda la “teoria tavolozza”).

Le teorie psicoevoluzionistiche e la prospettiva categoriale


Per Paul Ekman che, con i suoi collaboratori, è il più autorevole e prolifico rappresentante di questa
impostazione, le emozioni fondamentali sarebbero 6 e precisamente: gioia, tristezza, rabbia, paura,
sorpresa e disgusto.
Secondo l’autore, queste emozioni hanno una base innata e di conseguenza un carattere universale,
sia riguardo alle modalità di espressione che alla possibilità di venire riconosciute anche in culture
diverse, anche se molte ricerche hanno dimostrato che vi sono differenze culturali anche rilevanti
nella manifestazione e nel riconoscimento delle emozioni.
Ekman propose l’esistenza di regole di esibizione per ciascuna emozione, le quali tengono conto dei
163
vari contesti culturali e sociali, e vengono apprese durante il processo di socializzazione individuale.
Fra le posizioni più recenti che seguono questo orientamento, possiamo menzionare quella di
Johnson-Laird e K. Oatley i quali concordano con Ekman sull’esistenza di un piccolo numero di
emozioni fondamentali innate e sulla funzione adattiva della risposta emozionale.
Ekman e Izard hanno una concezione categoriale delle emozioni.
Le emozioni sono divise in
- categorie discrete e distinte, sono totalità chiuse, non ulteriormente scomponibili
- invarianti fisse e universali (tesi innatista
- esito dell’adattamento filogenetico
- le espressioni facciali delle emozioni sono universali
- vi sono configurazioni neurofisiologiche distintive per ogni emozione
- c’è una continuità mimico espressiva dei primati e degli umani
- ci sono antecedenti emozionali universali e comuni
- c’è un’insorgenza rapida e di breve durata
- le emozioni sono accadimenti involontari che nn possono essere regolati
Per Johnson-Laird e Oatley le emozioni fondamentali sono solo cinque: felicità, tristezza, paura, rabbia
e disgusto.
A questi stati emotivi corrispondono (almeno in inglese) parole che si riferiscono a stati d’animo che
possono essere sperimentati anche in assenza di un contenuto proposizionale, cioè che descrivono
un’emozione allo stato puro.
A queste cinque corrispondono dei bisogni o delle reazioni fondamentali per la sopravvivenza
dell’individuo.
La teoria di Johnson-Laird e Oatley è, quindi, una teoria delle emozioni di tipo evoluzionista che si
basa sulla struttura semantica del linguaggio emotivo.
Izard propose la teoria delle emozioni differenziali o discrete, secondo la quale gli esseri umani
possiedono un repertorio pre-programmato di emozioni di base con alto valore adattivo e funzionale
alla sopravvivenza della specie, indipendentemente dall’attività cognitiva.
La teoria afferma che:
- le emozioni fondamentali rappresentano il principale sistema motivazionale;
- ogni emozione fondamentale ha aspetti motivazionali fenomenologici distinti;
- emozioni fondamentali come gioia, tristezza, rabbia e vergogna danno luogo a esperienze interne e
comportamenti diversi;
- le emozioni fondamentali interagiscono fra loro, attivandosi, amplificandosi e attenuandosi l’un
l’altra;
- i processi emotivi interagiscono e influenzano l’omeostasi, i meccanismi pulsionali e i processi
cognitivi e motori.
Dunque, la teoria che le espressioni emotive siano innate, universali e abbiano origine biologica
sembra, pertanto, fondarsi su un solido corpus di ricerche scientifiche.
Ciò però non significa che la cultura non giochi anch’essa un ruolo importante. Come largamente
dimostrato da Paul Ekman esistono una serie di “display rules”, regole di esibizione culturalmente
apprese che prescrivono come manifestare le espressioni emotive in base al contesto sociale:
intensificandole, attenuandole, inibendole o mascherandole.
A tal proposito, è passato alla storia l’esilarante studio condotto da Friesen (1972) in cui ad un gruppo
di Americani e ad un gruppo di Giapponesi furono mostrati dei filmati di raccapriccianti operazioni
chirurgiche. Se gli individui erano da soli, non vi erano differenze tra i gruppi circa l’espressione di
disgusto mostrata. Ma in presenza dello sperimentatore era tutto un altro discorso: i Giapponesi
mascheravano l’espressione di disgusto stampandosi un finto sorrisone sul volto, mentre sullo
164
schermo comparivano scene non adatte a stomaci sensibili. La spiegazione di questo comportamento
sembra risiedere nell’influenza che la cultura esercita sulla manifestazione delle emozioni: mostrare
emozioni negative in pubblico in Giappone è considerato disdicevole e viene mascherato tramite un
sorriso.
Dato un substrato biologico (per la gioia di Darwin) “praticamente tutti gli aspetti della comunicazione
delle emozioni, dall’accuratezza del riconoscimento delle emozioni universali fino alle differenze
nell’attribuzione di intensità delle espressioni emozionali o ai diversi significati associati a certe
emozioni, sono influenzati da aspetti culturali specifici” (Matsumoto & Crtini, 2001) che non possono
essere trascurati, anche solo per evitare gaffes o incidenti diplomatici.
Infatti, persino un sorriso può acquisire significati diversi a seconda del contesto culturale (Furo,
2009).

La teoria costruttivistica (Averill, Harrè, Mandler)


Contrapposizione alla posizione psicoevoluzionista
Le emozioni sono prodotti eminentemente sociali e culturali
• servono più a regolare interazioni che a salvaguardare sopravvivenza biologica
• derivano dalle pratiche sociali e dalla condivisione di specifici sistemi di credenze e valori: ogni
cultura ha sua configurazione emotiva.
Le emozioni sono sindromi socialmente costituite e ruoli sociali transitori, in quanto disposizioni
momentanee a comportarsi secondo date regole.
Emozioni come script (assimilazione di valori e credenze - apprendimento delle regole delle emozioni)
che orientano cognizione e condotta. Viene evidenziata la natura prescrittiva delle emozioni: insieme
culturalmente prescritto di risposte e condotte adottate in un dato contesto (determinismo culturale).
In risalto le funzioni socioculturali delle emozioni (significato funzionale di un’emozione in riferimento
al contesto socio-culturale).
Il limite è che le emozioni sono ridotte a semplici abitudini sociali, negando loro il valore soggettivo
nell’esperienza personale dell’individuo.

Le emozioni rappresentano processi complessi e multifattoriali, composti da:


- valutazione della situazione
- attivazione dell’organismo
- espressione e manifestazione delle risposte emotive
- prontezza e preparazione all’azione

Per la sua complessità è corretto parlare di esperienza emotiva.


Particolare importanza assume in questo ambito il processo di valutazione dell’evento: le emozioni
sorgono in relazione agli interessi dell’individuo in un processo di mediazione fra evento e interessi.

Le relazioni tra espressioni emotive ed elaborazione cognitiva


Negli anni ’80 si confrontarono due posizioni teoriche volte a spiegare le modalità con cui le risposte
emotive possono essere influenzate dall’elaborazione cognitiva.
La prima teoria, proposta da Zajonc, sostiene che l’espressione emotiva si manifesta come il risultato
di un processo complesso cui concorrono elaborazioni di aspetti percettivi e semantici che consentono
all’individuo di riconoscere ciò che gli sta accadendo e di recuperare dalla memoria la necessaria
informazione che gli consentirà di stabilire il tipo e il grado di esperienza emotiva che sta provando. Il
punto centrale riguardante gli effetti dell’esperienza emotiva è che le emozioni richiamano
l’attenzione degli individui su un pericolo incombente o su un’opportunità e orientano i processi
165
cognitivi proprio su questi aspetti segnalati. Secondo Zajonc il sistema cognitivo e quello emotivo
agiscono in parallelo e sono tra loro indipendenti. La posizione espressa da Zajonc fu oggetto di
diverse dispute. La posizione critica che trovò maggior consenso fu nei confronti dell’idea proposta da
Lazarus che prevedeva l’attivazione in una rigida sequenza dei sistemi cognitivi. Egli infatti mostra che
il sistema cognitivo si attiva appena è esposto a uno stimolo, cosicché stimoli molto salienti
potrebbero provocare delle risposte emotive di una qualche intensità molto rapidamente, prima che
questi siano completamente riconosciuti o identificati. Tanto più lungo è il tempo impiegato per
l’elaborazione, tanto più facilmente possono essere riconosciuti gli stimoli e più forte potrebbe
diventare l’emozione esperita.

Le basi neurobiologiche dell’emozione


Fin dai primi decenni di questo secolo il principale problema teorico è stato quello di descrivere e
spiegare il enomeno emotivo nella sua complessità, ed in particolare la compresenza di un particolare
stato mentale e le modificazioni fisiologiche che accompagnano tutto il vissuto emotivo.
Il sistema nervoso centrale gioca un ruolo fondamentale nelle teorie delle emozioni e nel corso della
storia si sono susseguite diverse correnti di pensiero circa le sue conclusioni.
Dunque, fin dal secolo scorso, molte ricerche sono state dedicate allo studio delle basi neurologiche
della competenza emozionale. Vi sono almeno due problemi nettamente distinti che bisogna porsi:
1. quali sono le strutture centralizzate del sistema nervoso corticale e sottocorticale è più
strettamente implicate nei comportamenti emotivi;
2. se c’è un emisfero «specializzato» nella produzione e nella comprensione dei comportamenti
emotivi, così come accade per l’emisfero sinistro riguarda il linguaggio. Riguardo il primo punto, le
strutture anatomiche che sono più strettamente implicate nella comprensione nella produzione dei
comportamenti emotivi sono situate in una zona dell'encefalo che è stata indicata con il termine di
sistema limbico, al centro del quale troviamo l'ipotalamo.
Viene evidenziato come centrale il ruolo del sistema limbico, e in particolare dell’ipotalamo, che è la
zona del cervello che coordina il sistema nervoso periferico, ma regola anche funzioni diverse
all’interno dell’organismo, come l’equilibrio della temperatura corporea, il metabolismo dei glucidi e
dei lipidi, le segreterie endogene.
Riguardo il secondo punto, il problema consiste nel determinare quali parti della corteccia cerebrale
siano più abili nel trattare le emozioni e se, in particolare, vi siano capacità emozionali diverse che
vengono elaborate in modo preferenziale da uno dei due emisferi. Spesso parlando di questo
problema si usa, oltre al termine di “lateralizzazione”, quello di “specializzazione emisferica”. In questo
ambito i neuropsicologi si sono occupati in modo approfondito della capacità di manifestare le
emozioni adeguate alle circostanze e della capacità di riconoscere gli stati emotivi negli altri. Gli stati
emotivi si possono manifestare con l’espressione del viso, con la voce, oltre che con l’insieme del
comportamento. Diversi ricercatori hanno da tempo osservato che, mentre cerebrolesi sinistri, che
hanno spesso dei gravi disturbi di linguaggio, presentano delle drammatiche reazioni emotive di
angoscia e disperazione, i cerebrolesi destri, nonostante disturbi motori, sono di umore del tutto
differente, quando non sono addirittura scherzosi.
Queste osservazioni fecero pensare che una lesione all’emisfero destro può danneggiare la capacità di
vivere e di manifestare emozioni adeguate alla situazione. Recentemente sono state elaborati diversi
studi a conferma di questa tesi. Sembra infatti che la metà sinistra del viso, quella controllata
dall’emisfero destro, sia in genere più espressiva della metà destra. Un’altra modalità di espressione
degli stati emotivi è il linguaggio. I neuropsicologi hanno studiato più che il contenuto di quello che si
dice l’intonazione e gli altri tratti prosodici del parlato, quali l'altezza del la voce, la velocità, il timbro,
le pause, in soggetti con lesioni cerebrali.
166
Almeno in linea generale, sembra quindi che nella manifestazione degli stati emotivi l’emisfero di
destra abbia un ruolo predominante.
Questi studi hanno evidenziato, più che il contenuto di quello che si dice, l’intonazione, e gli altri tratti
prosodici del parlato (altezza della voce, la velocità, il timbro, le pause) in soggetti con lesioni cerebrali.
L’emisfero destro sembra più adatto ad esprimere una prosodia di tipo emotivo, mentre l’emisfero
sinistro, quello tradizionalmente deputato alla comunicazione linguistica, sia più specializzato
nell’esprimere emozioni di carattere linguistico e semantico.
Esistono anche alcune ricerche, centrate su particolari emozioni, che hanno rivelato una superiorità
dell’emisfero sinistro nell’identificare emozioni e tonalità positiva, quali la gioia, la sorpresa, mentre
l’emisfero destro restava dominante per l’elaborazione di emozioni e tonalità negativa, quali la
tristezza e la paura.
Questa possibile relazione tra il tipo di emozione e l’emisfero specializzato nell'elaborarle è stata
recentemente interpretata facendo riferimento al diverso ruolo che le varie emozioni svolgono
nell’ambito dell’esperienza privata e nei rapporti di comunicazione interpersonale. In base alle regole
sociali di manifestazione delle emozioni, sembra che le emozioni e tonalità positiva siano più adatte ad
essere comunicate ed espresse pubblicamente, mentre molte di quelle negative in svariate occasioni
sono oggetto di repressione e vengono vissute piuttosto come private. Se questo è vero, è quindi
possibile spiegare come, nonostante l’emisfero destro sia generalmente più rapido ed efficace
nell’elaborare materiale connotato emotivamente, quello sinistro, che è l’emisfero dominante per la
comunicazione verbale, tenda ad integrare a sé le emozioni positive. Infatti le emozioni positive
sarebbero legate sia alla sfera della comunicazione verbale intenzionale sia a quella emotiva e
potrebbero essere, quindi, elaborate da entrambi gli emisferi mentre le emozioni negative, che hanno
minori occasioni di servire quali mezzi di comunicazione interpersonale, sarebbero elaborate
solamente dall’emisfero destro.
La tesi a favore dell’esistenza di un sistema per le emozioni nel cervello umano è, ancora oggi, oggetto
di molte discussioni. Al fine di illustrare ampiamente i correlati neurobiologici sottostanti le emozioni
si rende necessaria una descrizione delle principali strutture cerebrali che sono state studiate per la
comprensione delle stesse.
L’esperienza emozionale è quasi sempre accompagnata dalla mobilitazione del sistema nervoso
autonomo il quale regola le reazioni corporee involontarie attraverso le sue due parti: il sistema
simpatico e il sistema parasimpatico.
Il sistema simpatico ha il compito di attivare le risposte di sopravvivenza alle minacce che vengono
percepite: le ghiandole surrenali secernono gli ormoni dello stress, il battito cardiaco aumenta, i
muscoli si contraggono, le pupille si dilatano, e il respiro si fa più profondo e rapido. Una versione
estrema dell’attivazione del sistema nervoso simpatico è conosciuta come “risposta di attacco o fuga”,
che porta gli animali a fuggire e attaccare in caso di pericolo. Quando il pericolo è passato, il sistema
parasimpatico prende il sopravvento su quello simpatico e riporta il corpo ad uno stato di riposo.
Localizzato al di sotto della corteccia cerebrale troviamo, invece, il sistema limbico che comprende
l’amigdala, l’ippocampo e l’ipotalamo, sistema deputato alla regolazione delle emozioni.
Tradizionalmente si intende come sistema limbico un gruppo di strutture neurologiche situate tra il
tronco encefalico e la corteccia cerebrale.
Il tronco encefalico è la parte più primitiva del cervello che l’uomo ha in comune con tutte le specie
dotate di un sistema nervoso particolarmente sviluppato. Esso circonda l’estremità cefalica del midollo
spinale. Regola funzioni vegetative fondamentali ad assicurare la sopravvivenza e controlla reazioni e
movimenti stereotipati. Da questa struttura primitiva derivarono, poi, i cosiddetti centri emozionali.
Milioni di anni dopo, da questi centri emozionali si evolsero le aree del cervello pensante: la
neocorteccia.
167
Il fatto che il cervello pensante si sia evoluto da quello emozionale, ci dice molto sui rapporti tra
pensiero e sentimento: molto prima che esistesse un cervello razionale, esisteva già quello
emozionale.
Le radici più antiche della nostra vita emotiva affondano nel senso dell’olfatto, cioè nel lobo olfattivo o
rinencefalo. Nei rettili, uccelli, anfibi e pesci questo rappresenta la regione suprema del cervello.
Infatti l’olfatto era un senso di importanza fondamentale ai fini della sopravvivenza. Dal momento che
per noi gli stimoli olfattivi sono meno importanti, nel corso dell’evoluzione questo sistema ha assunto
altri ruoli.
Già con la comparsa dei primi mammiferi dal lobo olfattivo incominciarono ad evolversi gli antichi
centri emozionali, che ad un certo punto dell’evoluzione divennero abbastanza grandi da circondare
l’estremità cefalica del tronco cerebrale. Per questo questa parte del cervello venne chiamata sistema
limbico, dal latino “limbus” che vuol dire anello.
Questa nuova parte del cervello aggiunse al repertorio cerebrale le reazioni emotive che hanno più
specificamente a che fare con le quattro funzioni della sopravvivenza (nutrizione, lotta, fuga,
riproduzione) e le emozioni che gli sono proprie: ira, rabbia, paura, piacere, desiderio ecc.
Quando si evolse ulteriormente, il sistema limbico perfezionò altri due strumenti: l’apprendimento e la
memoria. Questo consentiva ad un animale di essere più intelligente nelle sue scelte per la
sopravvivenza. Poteva infatti modulare le proprie risposte in modo molto più consono ad esigenze e
situazioni mutevoli, senza dover più reagire in modo rigido ed automatico.
Il fatto che il sistema limbico abbia un ruolo chiave nel processo di memorizzazione di nostre
esperienze di vita, ne fa un esempio di evoluzione che “ristruttura vecchie stanze” perché possano
assolvere a nuove funzioni. Fu l’aggiunta della neocorteccia e delle sue connessioni con il sistema
limbico a permettere ad esempio il legame madre-figlio, cioè quel sentimento che rende possibile lo
sviluppo umano, rappresentando la base della dedizione a lungo termine necessaria per allevare i figli.
Infatti nelle specie prive di neocorteccia, come i rettili, manca l’affetto materno: quando i piccoli
escono dall’uovo, devono nascondersi per non essere divorati dai loro stessi genitori. La neocorteccia
rende possibili anche le finezze e la complessità della vita emozionale.
Nei primati le interconnessioni tra neocorteccia e sistema limbico sono infatti potenziate rispetto ad
altre specie, e lo sono immensamente negli esseri umani. Ciò conferisce ai centri emozionali
l’immenso potere di influenzare il funzionamento di tutte le altre zone del cervello, compresi i centri
del pensiero.
A sua volta senza l’influenza modulatrice della neocorteccia l’attività del sistema limbico può essere la
causa di crisi anormali e incontrollabili di rabbia o di paura. La normale espressione delle emozioni
richiede, quindi, anche il contributo delle aree più evolute del cervello.
Il sistema limbico è anche l’area del cervello che aiuta a mantenere l’omeostasi, ossia un ambiente
costante nel corpo. I meccanismi omeostatici localizzati nel sistema limbico regolano funzioni come:
• il mantenimento della temperatura corporea
• la pressione arteriosa
• il ritmo cardiaco
• il livello di zuccheri nel sangue.

In assenza di un sistema limbico noi saremmo a “sangue freddo” come i rettili. Non potremmo
regolare il nostro stato interno per mantenere la temperatura costante nonostante le condizioni
esterne di caldo e freddo.
La struttura che recentemente ha ricevuto maggiore attenzione è l’amigdala, che sembra essere un
elemento critico nei circuiti del cervello che elaborano la paura e aggressività. Questa è formata da
alcuni nuclei che si sono sepolti in profondità nel lobo temporale. Ha un ruolo specifico
168
nell'elaborazione delle emozioni, sia a livello anatomico che funzionale, e riceve un'ampia gamma di
input relativi a stimoli presenti, ricordati o semplicemente immaginati. Ognuno di questi input è
capace di mettere in atto dei meccanismi che integrano informazioni sia di tipo cognitivo che emotivo
in altre parti del sistema. Sebbene l'amigdala non è in grado di decodificare la qualità emozionale degli
stimoli, il suo ruolo consiste nell'alimentare ed attivare l'intero sistema emotivo.
Numerosi studi hanno esaminato l’effetto di lesioni all’amigdala; tali lesioni provocano danni sulle
abilità di riconoscere le espressioni emozionali del volto, riportando deficit associati a paura, rabbia,
tristezza e disgusto. La varietà di deficit probabilmente riflette, in parte, differenze nelle lesioni;
tuttavia, l’inabilità a riconoscere la paura nelle espressioni facciali sembra essere più frequente.
L’amigdala ha un ruolo nella valutazione emotiva delle situazioni. E’ vista come il computer delle
emozionalità.
L’ipotalamo è forse la parte più importante del sistema limbico. È la singola parte più complessa e
stupefacente del cervello stesso, per questo è anche detta “il cervello nel cervello”. Esso regola: fame,
sete, sonno, veglia, temperatura corporea, equilibri chimici, ritmo circadiano, ormoni, sesso, emozioni,
mantenendo l’omeostasi di tutte queste funzioni.
L’ipotalamo consta di diverse strutture situate al di sotto del talamo; le sue principali strutture sono: i
nuclei sopraottici, i nuclei paraventricolari e i corpi mammillari. Esso concorre indirettamente al
controllo del funzionamento di ogni cellula del corpo, governando attraverso una combinazione di
messaggi elettrici e chimici il funzionamento dell’ipofisi. Funziona, quindi, come un anello di
congiunzione tra il sistema nervoso e il sistema endocrino.
Dunque l’ipotalamo è la zona del cervello che coordina il sistema nervoso autonomo e regola, tramite
una complessa attività ormonale, funzioni diverse all'interno dell'organismo, molte delle quali sono
implicate nel vissuto nella manifestazione psicofisiologica delle emozioni.
La stimolazione di specifici siti dell’ipotalamo nella regione mediale, produce risposte affettive
complete, come la difesa affettiva, l’attacco predatorio e l’aggressione.
La stimolazione dell’ipotalamo mediale posteriore produce principalmente risposte simpatiche (arousal
ergotropico ad alta attivazione).
La stimolazione, invece, dell’ipotalamo anteriore e laterale, produce principalmente risposte
parasimpatiche (arousal trofotropico a bassa attivazione).
Esperimenti con le scimmie Rehsus, la lesione dell’amigdala provoca assenza di paura, diminuzione
dell’aggressività, ipersessualità
Nell’uomo studi su un disturbo neurologico raro (causato da encefalite erpetica, traumi, lesioni) ha
generato comportamenti quali bulimia, ipersessualità, diminuzione dell’aggressività e paura.
Altri elementi molto importanti che sono alla base non solo delle esperienze emozionali ma che
riguardano tutte le strutture del nostro corpo, sono i neurotrasmettitori, responsabili della
trasmissione sinaptica chimica. Questi rientrano in tre categorie chimiche: aminoacidi, amine e peptidi
e la loro funzione è quella di trasmettere l’informazione dalla membrana pre-sinaptica a quella post-
sinaptica.
Tra i neurotrasmettitori aminoacidi rientrano il glutammato (Glu), la glicina (Gly) e l’acido gamma-
aminobutirrico (GABA). Il glutammato è un neurotrasmettitore eccitatorio e consente allo stimolo
nervoso di propagarsi nel neurone post-sinaptico. Un’eccessiva presenza nelle sinapsi di glutammato
può indurre uno stato di ipereccitazione e insonnia con forti cefalee. Il neurotrasmettitore GABA,
invece, ha una funzione prevalentemente inibitoria, sopprimendo l’ attività del sistema nervoso
centrale. Il sistema limbico è particolarmente ricco di recettori per il GABA e si pensa che la sua
funzione sia quella di “calmare” il sistema limbico quando è sovraeccitato. Sui recettori per il GABA
agiscono le benzodiazepine (Valium, Lexotan, ecc.), i farmaci più utilizzati per ridurre l’ansia
patologica. Questi farmaci si legano ai recettori per il GABA e ne modificano la forma aumentandone
169
l’affinità con il neurotrasmettitore, determinando un potenziamento dell’azione del GABA.
La seconda categoria è rappresentata dai neurotrasmettitori aminici: serotonina, dopamina,
acetilcolina e noradrenalina svolgono un ruolo molto importante nelle manifestazioni
comportamentali, nei processi cognitivi e, soprattutto, nelle emozioni.
La serotonina è implicata nella regolazione dell’umore e del sonno, nella temperatura corporea e nella
coordinazione delle attività intestinali. La dopamina, invece, è il principale neurotrasmettitore del
cervello emozionale; svolge un ruolo importante nella regolazione di comportamenti quali il mangiare,
il bere, il riprodursi, avere successo nella lotta o nella competizione o il fuggire da un pericolo. Una
scarsa produzione di dopamina sembra sia correlata alla depressione, mentre una iperattività nella
produzione pare connessa alla sindrome maniacale e alla schizofrenia. La noradrenalina, infine,
coinvolge parti del cervello dove risiedono i controlli dell’attenzione e delle reazioni. Insieme
all’epinefrina, provoca la risposta di attacco o fuga (fight or flight), attivando il sistema nervoso
simpatico, per aumentare il battito cardiaco, rilasciare energia sotto forma di glucosio, aumentare il
tono muscolare.
I peptidi costituiscono la terza categoria chimica dei neurotrasmettitori; essi comprendono le
encefalite, le endorfine, la sostanza P, la neurotensina e molti altri. Si tratta di complesse catene
proteiche di lunghezza variabile la cui funzione è prevalentemente inibitoria; per esempio le endorfine
sono maggiormente concentrate nella parte del midollo spinale in cui arrivano le fibre nervose
sensitive che conducono gli stimoli dolorifici nelle varie parti del corpo o nelle zone del cervello che
hanno il compito di ricevere, integrare e trasmettere le informazioni dolorifiche nelle altre aree
cerebrali.
Un notevole contributo è stato dato dalla ricerca sui neuroni specchio, una popolazione di neuroni
visuo-motori scoperti nel cervello dei primati e dell’uomo che si attivano sia durante l’ esecuzione di
azioni sia durante l’osservazione delle stesse azioni compiute da altri. Concetti chiave come
comunicazione inconscia, empatia, identificazione proiettiva, che avevano avuto finora un carattere
eminentemente metapsicologico se non metaforico, stanno trovando un riscontro nelle evidenze
empiriche.
Le basi neurobiologiche della capacità di comprendere gli stati mentali ed emotivi altrui possono
essere ricondotte al sistema dei neuroni specchio (Mirror neuron system, MNS).
Si tratta di neuroni che si attivano sia quando si compie un’azione, sia quando si osserva la medesima
azione compiuta da altri.
Nell’uomo tre aree cerebrali formano un circuito chiave per le abilità di imitazione: da una parte la
corteccia frontale inferiore e il lobulo parietale inferiore, che costituiscono il MNS, e dall’altra il solco
temporale superiore che funge da input visivo al sistema.
Recentemente è stato approfondito lo studio della mimica facciale rapida (una risposta automatica
presente solo nei primati e nell’uomo che consente l’immediata imitazione della mimica facciale altrui)
confermando che i soggetti interessati non solo condividono la stessa espressione, ma anche le stesse
emozioni in una sorta di “contagio emotivo” come quello che caratterizza la relazione madre-bambino
(Mancini et al., 2013).
Recentemente, sono stati elaborati diversi studi al fine di indagare le relazioni che intercorrono tra le
emozioni e le funzioni cognitive superiori. Gli studi condotti con la Risonanza Magnetica funzionale nei
soggetti in età evolutiva hanno evidenziato in maniera chiara i cambiamenti che si manifestano nel
tempo, sia a livello dei pattern di attivazione che della connettività funzionale. In particolare, è stato
messo in risalto il passaggio da una risposta emotiva viscerale, mediata dall’amigdala e dalla corteccia
orbitofrontale, ad una razionale, che coinvolge in modo progressivo la corteccia prefrontale mediale
(Lindquist e Barrett, 2012). La regolazione delle emozioni implica il controllo top-down delle regioni
“fredde” della corteccia prefrontale sulle regioni “calde” del sistema limbico, quali l’amigdala (Ray e
170
Zald, 2012).
La maturazione delle relazioni funzionali tra regioni prefrontali e limbiche è caratterizzata
dal divario tra le loro traiettorie di sviluppo, in quanto le strutture limbiche sottocorticali maturano più
precocemente delle regioni prefrontali: questo squilibrio funzionale potrebbe spiegare le peculiari
caratteristiche degli adolescenti improntate a più frequenti comportamenti a rischio (Casey et al.,
2013). Le attuali conoscenze non consentono però di separare in modo così netto il cervello
“cognitivo” da quello “emotivo”: infatti, regioni cerebrali considerate come ‘affettive’ sono coinvolte
nei processi cognitivi e viceversa; inoltre i processi cognitivi ed emotivi sono chiaramente tra loro
integrati (Pessoa, 2008). L’amigdala, più di tutti, si presenta come un forte candidato per l’integrazione
dell’informazione cognitiva ed emozionale.

Emozioni, attivazione e soluzione di problemi


Le emozioni costituiscono una leva per favorire l’attivazione in vista dell’esecuzione di comportamenti
complessi e della soluzione di problemi: le emozioni possono svolgere, cioè, anche una funzione
motivazionale nel senso che costituiscono risposte adattive alle situazioni stimolo. L’idea centrale e
caratterizzante di questa teoria consiste nel prevedere che differenti livelli di attivazione conducano a
differenti gradi di performance; l’esatto livello di attivazione che si riflette nella migliore perfomance
dipende dalla situazione. Alcune situazioni possono richiedere un moderato livello di attivazione,
alcune un livello medio e altre ancora un livello elevato. Le emozioni, quindi, potrebbero essere un
modo per stabilire una corrispondenza tra il livello di attivazione e la situazione stimolo e per generare
il livello più elevato di performance.
Gli stati emotivi influenzano anche l’atteggiamento e la modalità con cui si risolvono i problemi. Una
consistente massa di risultati sperimentali mostra che stati affettivi positivi naturalmente favoriscono
la generazione di strategie creative di soluzione di problemi in differenti contesti.
È stato visto che gli individui che si trovano in condizioni emotive positive producono un maggior
numero di termini inusuali e differenti associati per primi allo stimolo rispetto a quelli forniti da
persone che si trovano in condizioni affettive neutre.

Emozioni, decisioni e benessere


Ci si è resi conto che la componente emotiva spesso condiziona non soltanto il processo decisionale
ma anche gli esiti della scelta. Gli aspetti emotivi si riflettono anche sulle valutazioni che le persone
esprimono circa le loro condizioni di vita e sulle decisioni che sono disposte a prendere per migliorarle.
A questo proposito un interesse particolare ha assunto lo studio della percezione del benessere.
L’errore di giudizio viene imputato all’illusione di focalizzazione, illusione in cui gli individui cadono
quando la loro attenzione è catturata dalla possibilità di un cambiamento in un aspetto particolare ma
significativo della propria esistenza, esagerando, di conseguenza, gli effetti di questo cambiamento sul
benessere generale.
Inizialmente si pensava che il buon decisore fosse caratterizzato da un temperamento freddo e, in
quest’ottica, le emozioni erano concettualizzate come un fattore di disturbo.
Con gli studi di Janis, questa impostazione viene messa in discussione. Spesso prendiamo delle
decisioni non perché abbiamo pianificato criticamente i costi e i benefici della nostra scelta, ma
perché motivati da un determinato stato emotivo.
Si riconosce alle emozioni una funzione costruttiva nelle forme più elevate dell’esperienza umana. I
fattori emotivi sono fondamentali in quanto rappresentano una sorta di barriera morale che
l’individuo non si sente di oltrepassare.
Grazie alle emozioni possiamo capire anticipatamente se la scelta che stiamo compiendo sarà motivo
di piacere oppure no.
171
Va anche visto in che modo lo stress emotivo possa influire nel processo decisionale, creando un
conflitto più o meno intenso all’interno dell’individuo.
La prima causa di stress è data, ad esempio, dalla mancanza di tempo disponibile, per prendere una
decisione adeguata a quella situazione in cui ci troviamo.
Janis e Mann hanno sviluppato una teoria secondo la quale gli individui adottano dei comportamenti
differenti a seconda del grado di stress al quale vengono sottoposti.
Quando il conflitto è basso si può reagire sia con inerzia, oppure con l’assenza di azione, poiché la
preoccupazione è una preoccupazione molto bassa, oppure si può agire con un mutamento senza
conflitto, che consiste in un repentino cambiamento di condotta causato dalla mancanza di esperienza
in tali circostanze.
Quando il conflitto è intenso, lo stress viene affrontato attraverso un evitamento difensivo, che
consiste nell’abbandonare il problema rimandandolo ad un momento successivo, oppure attraverso
uno stato di ipervigilanza e, quindi, sottrarsi il più velocemente possibile al processo decisionale che ci
sta generando stress.
Anche il nostro passato ha un’influenza nel processo decisionale; le azioni passate da una parte
rappresentano il bagaglio culturale dell’individuo, dall’altra costituiscono le caratteristiche della
condotta, che spinge l’individuo ad essere coerente per far fronte alle aspettative che gli altri hanno
nei suoi confronti.
In questi termini il passato diventa, quindi, esperienza quando l’individuo, riflettendo circa le proprie
scelte, costruisce e si appropria di nuovi elementi che utilizzerà in occasioni future simili.
Questo tipo di memoria esperienziale costituisce una sorta di guida del nostro agire, con lo scopo di
non farci ricadere in errori già commessi.
Ogni individuo, guardando al proprio passato e osservando l’andamento delle proprie vicende, può
pensare di essere più o meno favorito dalla fortuna. Ognuno di noi possiede una determinata
aspettativa rispetto alle cause che generano i propri successi o i propri fallimenti. Questo concetto è
definito “locus of control”.
Nei nostri processi di scelta decisionale, siamo soggetti ad errori.
In una situazione di incertezza ci dobbiamo confrontare con diversi elementi prima di poter operare
una decisione. Non solo dobbiamo considerare la situazione, ma anche dobbiamo far fronte alle
nostre emozioni e al nostro passato.
Per questo motivo, operiamo spesso delle previsioni, e immaginiamo i diversi esiti generati dalle scelte
possibili, anche se non siamo in possesso di tutte le informazioni necessarie. Possono anche essere
erronee e, quindi, condurci verso situazioni non attese. E, quindi, nella strutturazione di presa di
decisione, possiamo incorrere in una serie di errori.
L’ndividuo, nonostante compia continui sforzi per tenere sotto il suo controllo gli eventi e prevedere
gli esiti delle proprie scelte, è comunque soggetto a commettere degli errori. Questi errori sono
determinati da sovrastima e da grande fiducia (overconfidence) nelle proprie abilità decisionali.
Nella letteratura di matrice prevalentemente manageriale, per quanto riguarda il processo di
decisiono making, viene evideziato un processo di decisione in contesti organizzativi che si sviluppa
secondo un modello razionale molto preciso:
- individuazione del problema da risolvere o delle opportunità da cogliere
- formulazione delle linee di azione possibili
- valutazione dei vantaggi o degli svantaggi di ciascuna linea di azione
- selezione di un’alternativa preferita e sua applicazione
- valutazione dei risultati della decisione
- ripresa del processo in caso di insuccesso

172
Nella presa di decisione ricopre un ruolo anche l’influenza sociale.
L’appartenenza al gruppo influenza in modo inevitabile il comportamento del singolo.
Asch concluse che vi potevano essere 3 tipi di conformismo:
- uno dovuto a processi di deformazione percettiva, che si manifesta raramente.Le persone
sostenevano di aver risposto all’esperimento in relazione alla loro reale percezione, pur
riportando una sorta di confusione cognitiva
- un’altro dovuto a processi di deformazione del giudizio. Le persone dichiaravano di aver messo
in dubbio le loro capacità percettive e di aver risposto come il gruppo, fidandosi pù del giudizio
di questo che del proprio
- infine, dovuto a processi di deformazione dinamica. Le persone, pur avendo una valutazione
diversa, desideravano conformarsi al giudizio della maggioranza.

L’intelligenza emotiva
La nozione di intelligenza emotiva ha avuto un’ampia diffusione tra il grande pubblico grazie ai libri di
Goleman, il quale propone una struttura di competenze personali che deriva dal concetto di
intelligenza emotiva.
Goleman definisce l’intelligenza emotiva come la capacità di riconoscere i nostri sentimenti e quelli
degli altri, per motivare noi stessi e per gestire adeguatamente le emozioni in noi stessi e nelle
relazioni con gli altri.
Goleman sostiene che mentre l’intelligenza misurata dal QI è interamente basata sulla neocorteccia,
cioè la parte del cervello evolutasi più recentemente, l’intelligenza emotiva dipende molto di più dai
centri che controllano le emozioni nelle parti subcorticali più primitive del cervello.
L’intelligenza costituisce le capacità potenziali per apprendere qualcosa e le abilità tecniche apprese
dipendono dall’intelligenza accademica che si sperimenta per lo più nel periodo dell’istruzione.
Le competenze emotive, invece, scaturiscono dall’intelligenza emotiva di ciascun individuo, e si
manifestano nel modulare e nel manifestare le emozioni adeguate alle differenti situazioni in cui
l’individuo si troverà a operare.

Studio empirico e teorico sulle espressioni facciali


1) Prospettiva emotiva delle espressioni facciali: programma delle espressioni facciali
- il pensiero di darwin
- ipotesi standard espressioni facciali (Tomskin, Ekman)
- teoria neuroculturale (Ekman)
2) Prospettiva comunicativa delle espressioni facciali:
- ecologia comportamentale
- prospettiva situazionista

Il programma delle espressioni facciali


A) origine: il pensiero di Darwin,“l’espressione delle emozioni nell’uomo e negli animali” (1872).
Secondo Darwin la capacità di riconoscere le manifestazioni emotive è innata, in quanto viene
ereditata.
Vengono espressi 3 principi:
1) Principio dell’associazione delle abitudini utili: i movimenti che in origine svolgevano una certa funzione
nel corso di esperienze emotive (attacco, difesa) sono mantenuti come abitudini automatiche anche
se non sono più necessarie. Darwin sosteneva che “le espressioni emotive sono inutili vestigia di
abitudini ancestrali”
2) Prinicipio dell’ antitesi. Emozioni opposte sono espresse con comportamenti opposti
173
3) Principio dell’azione diretta del sistema nervoso: sottolinea l’importanza dell’attivazione nervosa
durante emozione a specifiche reazioni neurali psicofisiologiche indipendentemente dalla volontà

Il concetto di espressione per Darwin, indica “azioni di ogni genere che si accompagnano a uno stato
della mente”.
B) L’ipotesi standard delle espressioni facciali (prospettiva emotiva) - Tomskin, Ekman, Izard (anni ’60)
Le configurazioni espressive del volto per manifestare i diversi stati emotivi sono gestalt unitarie e
chiuse, universalmente condivise, sostanzialmente fisse, di natura discreta e specifiche per ogni
emozione; sono controllate da distinti programmi neuromotori innati.
All’interno dell’ipotesi standard troviamo la prospettiva emotiva delle espressioni facciali:
• Le espressioni facciali hanno un valore prevalentemente emotivo in quanto emergenza immediata,
spontanea e involontaria delle emozioni provate.
• Esistono emozioni primarie o di base: gioia, collera, paura, sopresa, tristezza, disgusto
• Le emozioni sono governate da programmi neuromotori specifici e definiti
• Isomorfismo fra emozione ed espressione facciale: a ogni emozione corrisponde una
determinata espressione facciale.

I corollari sono:
-invariabilità culturale delle espressioni facciali
-universalità della loro produzione e riconoscimento senza aver bisogno del contesto.

Le espressioni facciali manifestano un significato oggettivo e invariante, indipendentemente dal


contesto e universalmente intellegibile.

Si distinguono due diversi livelli di analisi nello studio scientifico dell’espressione facciale:
- un livello molecolare: rappresentato dai movimenti minimi e distinti dei numerosi muscoli che
consentono l’elevata mobilità ed espressività del volto.
- un livello molare: dato dalla configurazione finale risultante; si manifesta nell’assumere una
determinata espressione facciale come corrispondente a una data esperienza emotiva.

Facial Action Coding System (FACS, Ekman e Friesen, 1978): utilizza il livello molecolare come livello di
analisi
Si tratta di un sistema di osservazione e di classificazione di tutti i movimenti facciali visibili (in
riferimento alle loro componenti anatomo-fisiologiche corrispondenti)
Tale sistema prevede una segmentazione del continuum indifferenziato dei movimenti facciali in 44
unità di azione (AU).

C) la teoria neuro-culturale delle espressioni emotive (Ekman)


Si ha una declinazione dell’ipotesi standard, ogni specifica emozione attiva uno specifico “programma
facciale affettivo” attraverso uno specifico “programma nervoso”.
Esiste un collegamento biunivoco tra emozione ed espressione facciale.
- invarianti
- universali
Tuttavia la valutazione cognitiva può intervenire e modificare l’espressione facciale “naturale” in
funzione degli standard culturali.
Si individuano 4 regole di esibizione (display rules), sono culturalmente apprese e consentono al

174
soggetto di sentirsi adeguato nelle diverse situazioni.
1) Intensificazione
2) Attenuazione
3) Inibizione
4) Mascheramento
I limiti della teoria neuroculturale possono essere così riassunti:
• La teoria neuroculturale è una teoria bifattoriale (fattore biologico-genetico + fattore culturale), di
natura additiva, che si limita semplicemente ad accostare questi due fattori
• Il contesto è ignorato: le espressioni facciali trasmettono in maniera automatica uno specifico
significato emotivo
• Se la manifestazione di emozioni avviene mediante programmi facciali automatici invarianti in modo
immediato vuol dire che fornisce informazioni sulle emozioni del soggetto in modo involontario,
questo potrebbe essere un possibile danno per il soggetto.
• In realtà, contrariamente a quanto sostenuto da queste teorie è possibile la sconnessione tra
esperienza e espressione emotiva.

Ipotesi dell’universalità delle espressioni facciali delle emozioni


Le espressioni facciali delle emozioni sono universali sia sul piano della produzione che sul piano del
riconoscimento.
Possiamo distinguere 3 proposizioni:
1. universalità dei movimenti facciali: in tutti gli esseri umani si verificano i medesimi movimenti
facciali.
2. espressività dei movimenti facciali: determinate configurazioni di movimenti facciali sono la
manifestazione di medesime emozioni in tutti gli esseri umani.
3. universalità del processo di riconoscimento: soggetti di varie culture attribuiscono il medesimo
significato emotivo a determinate configurazioni.
Viene dato risalto all’universalità del processo di riconoscimento: soggetti di varie culture
attribuiscono il medesimo significato emotivo a determinate configurazioni, questa proposizione è
stata sistematicamente indagata presso le popolazioni alfabetizzate (occidentali e non) e non
alfabetizzate impiegando il metodo standard.
L’indagine ha previsto la partecipazione di studenti universitari come osservatori (coloro cui è chiesto
di riconoscere) impiegando delle fotografie di espressioni facciali posate delle sei emozioni di base, ai
partecipanti veniva chiesta una scelta forzata, dovevano scegliere tra una lista di risposte predefinite.
Dai dati dello studio sulle popolazioni alfabetizzate si è evinto che:
Soggetti appartenenti a culture diverse hanno presentato valori simili e concordanti nell’attribuire il
medesimo significato emotivo a determinate espressioni facciali (riconoscere le emozioni attraverso le
espressioni facciali).
La percentuale dei riconoscimenti corretti è superiore al caso.
Vediamo ora quali sono i limiti riscontrati nella tesi dell’universalità e nel metodo standard.
Nelle società alfabetizzate i partecipanti sono solo studenti con buon livello d’istruzione.
Il disegno sperimentale entro i soggetti che favorisce l’addestramento al compito prevede che allo
stesso soggetto venga chiesto di riconoscere 6 diverse emozioni (riconoscimento delle espressioni per
confronto).
Altro limite è dato dal fatto che ai soggetti viene chiesto di scegliere la loro risposta entro un elenco
limitato di etichette emotive (rappresenta una “scelta forzata”) che aumenta di molto la percentuale
delle risposte corrette rispetto alla tecnica della “scelta libera”.
Le fotografie erano esclusivamente di espressioni posate (non spontanee).
175
È probabile che i soggetti delle culture non alfabetizzate possono essere stati influenzati dai mediatori
culturali, dai problemi linguistici e dallo scarso controllo situazioni sperimentali.

Ipotesi dell’universalità minima – (Russel e Fernández-Dols)


Esiste un certo grado di somiglianza fra le culture nell’interpretazione delle espressioni facciali, senza
tuttavia prevedere un sistema innato di segnalazione delle emozioni.
Gli assunti di questa ipotesi sono i seguenti:
1) In tutti gli esseri umani si verificano i medesimi movimenti facciali.
2) I movimenti facciali sono connessi agli stati psicologici (cognitivi ed emotivi) ma non solo.
3) La maggior parte delle persone è in grado di fare inferenze sugli stati psicologici dell’altro a partire
dai suoi movimenti facciali.
4) In certe culture (es. occidentale) le persone sono convinte che certi movimenti facciali
corrispondano a certe emozioni; queste credenze possono non essere condivise in altre culture.
Le espressioni emotive facilmente riconosciute n tutte le culture sono: gioia, collera e disgusto.
La specificità riguarda, invece, espressioni emotive caratteristiche di una determinata cultura. Ad
esempio “mordersi la lingua” in senso di vergogna.

La prospettiva comunicativa delle espressioni facciali - L’Ecologia comportamentale (Fridlund, 1994).


Le espressioni facciali hanno un valore eminentemente comunicativo, poiché manifestano agli altri le
intenzioni del soggetto in base al contesto.
Possono avere un valore sociale intrinseco, consentono di comunicare agli altri in maniera flessibile i
propri obiettivi e interessi.
Le espressioni facciali hanno una socialità implicita, ovvero le persone producono espressioni sociali
anche quando sono da sole, seppur meno intense rispetto a quando sono con altre persone.
Le espressioni facciali possono presentare una dissociabilità fra interno (esperienza soggettiva) ed
esterno (manifestazione), un grado di separazione fra le espressioni facciali e gli stati psicologici
interni; non tutto ciò che appare sul volto indica necessariamente un’esperienza emotiva interna, e
viceversa; ciò genera importanti gradi di libertà nella comunicazione.
Scompare la distinzione fra espressione “autentica” (suscitata in modo automatico dal programma
nervoso corrispondente) ed espressione “falsa” (generata dall’intervento delle regole di esibizione per
motivi culturali); le espressioni facciali hanno un valore sociale, sono “messaggi” inviati agli altri e, in
quanto tali, svolgono una funzione comunicativa.

La prospettiva situazionista
Nella prospettiva comunicativa si da importanza fondamentale del contesto.
Le espressioni fuori contesto, considerate in modo isolato, sono assai difficili da interpretare e si
prestano a numerosi equivoci.
Per la prospettiva situazionista (Fernandez-Dols) un’espressione facciale è pianificata ed eseguita
secondo le condizioni del contesto di riferimento.
La produzione di un’espressione facciale dipende dalla capacità di gestione locale sia delle emozioni sia
delle condizioni contestuali.
La stessa emozione (es. gioia) può suscitare espressioni facciali diverse.
La genesi delle espressioni facciali è spiegata in base all’ipotesi dinamica che prevede un processo
sequenziale e cumulativo in ogni espressione facciale, in quanto risultato della progressiva
integrazione dinamica degli esiti delle singole fasi della valutazione della situazione interattiva ed
emotiva.
Le espressioni facciali costituiscono delle configurazioni motorie momentanee, dotate di un’elevata
176
flessibilità e variabilità, in grado di adattarsi attivamente alle condizioni della situazione.

PSICOLOGIA COGNITIVA APPLICATA


Nel corso degli anni la psicologia cognitiva ha accumulato un insieme di conoscenze così vasto e
differenziato da permettere di proporre soluzioni a problemi pratici, problemi cioè che si pongono in
contesti naturali al di fuori del laboratorio.
Risente ancora del conflitto tra:
1) Approccio basato sul metodo (utilizzato dalla psicologia cognitiva), che intende mettere al primo
posto il rigore e la correttezza metodologica adatti alla ricerca
2) Approccio basato sul problema, dove si intende considerare il problema il punto di partenza e, per
studiarlo, trovare e adattare la metodologia più idonea.
I fautori del primo approccio sostengono che occuparsi prioritariamente del problema può portare a
modificare una metodologia, rendendola non rigorosa e imperfetta.
Al contrario, i sostenitori del secondo sostengono che occuparsi in maniera troppo meticolosa
dell’aspetto metodologico può far passare in secondo piano i problemi stessi, limitandoli a
un’osservazione parziale.
Un buon punto di equilibrio tra i due approcci si ha nella psicologia cognitiva applicata, che da un lato
impiega metodologie di indagine corrette ed adeguate, dall’altro non perde di vista i problemi che
devono essere affrontati fuori dal laboratorio.
I suoi maggiori contenuti si sono riversati sull’ergonomia. L’ergonomia l’insieme delle leggi che legano
le relazioni tra l’uomo e il suo ambiente di lavoro. Studia il lavoro dell’uomo tenendo conto del
contesto ambientale, delle caratteristiche antropometriche dell’operatore e dei vincoli fisici e
funzionali delle macchine con le quali l’operatore interagisce.
L’ergonomia ha conosciuto due differenti fasi:
1) Ergonomia classica, che si occupa principalmente dell’interazione uomo-macchina, dove le variabili
prese in esame erano la postura dell’operatore e le sue caratteristiche antropometriche messe a
confronto con gli aspetti fisici della macchina e del lavoro svolto. Le soluzioni che questo tipo di
ergonomia offre sono nuovi standard per sedie, tavoli, spazio di lavoro, disposizione dei tasti,
illuminazione… Bagnara sottolinea che in questa fase l’ergonomia interveniva nel rapporto uomo-
macchina in maniera circoscritta, affrontando solo i problemi circa i parametri fisici dell’hardware
dell’interfaccia con l’operatore
2) Ergonomia cognitiva: circa dagli anni ’80 è cambiato in parte l’oggetto della ricerca, soprattutto in
conseguenza allo sviluppo della tecnologia. Inizia il periodo di studi sull’interazione uomo-calcolatore,
identificati come Human Computer Interaction (HCI). L’inizio di questa fase coincide con la diffusione di
personal computer nelle case e nel mondo del lavoro; si deve adattare allo sviluppo tecnologico.
Da qui la combinazione di psicologia cognitiva ed ergonomia impiegata al fine di comprendere
l’interfaccia dell’utente. Ha dato un forte impulso alla psicologia cognitiva applicata. I muscoli, la
misura, il raggio d’azione degli arti(..)vengono sostituiti dalla mente e dai processi cognitivi messi in
atto per interagire con una macchina o, più frequentemente, con un sistema computerizzato di
supervisione e controllo di un processo L’operatore deve controllare e comandare il sistema a
distanza, mediate il riconoscimento e utilizzo di segnali e simboli e risposte inviate tramite tastiera o
mouse.
Diviene indispensabile conoscere il funzionamento di processi cognitivi quali la percezione, la
categorizzazione, la codifica, l’attenzione, la memoria, il riconoscimento, il ragionamento e la presa di
decisione
L’operatore, in questa nuova fase, è costretto a interagire con una o più interfacce.
L’interfaccia può essere definita come il modo con cui si fa qualcosa con uno strumento, cioè le azioni
177
che dobbiamo eseguire e il modo con cui lo strumento risponde.
I principali ambiti di intervento e applicazione della psicologia cognitiva presi in esame sono:
1) Il design degli oggetti di uso quotidiano
2) L’ideazione e la produzione su larga scala del personal computer
3) La progettazione di interfacce

Design di oggetti d’uso quotidiano


Molti studiosi si sono occupati del rapporto che esiste fra gli oggetti che ci circondano e i processi
cognitivi che mettiamo in atto per consentirne l’uso e concordano che molti oggetti (tecnologici e
non) anziché soddisfare i nostri bisogni ci complicano l’interazione, perché sono progettati male.
I progettisti non hanno debitamente tenuto conto dell’utilizzo da parte dell’operatore, concentrandosi
su bellezza e eleganza e non tenendo conto di sforzi, costi, tempi che devono essere impiegati.
Per il riconoscimento e utilizzo dell’oggetto bisogna tenere conto:
a) Modalità del funzionamento dei processi mentali
b) L’informazione contenuta nell’aspetto che gli oggetti hanno
c) Abilità nel rendere chiaro il funzionamento degli oggetti

Con ‘affordance’ (lett. Operazioni permesse) si intendono le proprietà reali e percepite che un oggetto
ha, che si vedono e che ci indicano come si potrebbe usare l’oggetto in esame.
Fornisce suggerimenti per l’uso e il suo funzionamento.
Le caratteristiche che conferiscono un buon affordance sono ottenute attraverso un buon progetto e
un buon design e seguono alcuni principi:
a) Fornire un buon modello concettuale e rendere visibili le caratteristiche funzionali (caratteristiche
della usabilità). Massimizzare le caratteristiche di visibilità di un oggetto; fare in modo di fornire
all’utente un valido modello concettuale dell’oggetto, senza contraddizioni nel suggerire manovre e
costruire le aspettative di risultati attesi.
Se un oggetto (o sue determinate parti) è in grado di svolgere funzioni, tali parti e caratteristiche
funzionali devono essere visibili.
Altri indizi in relazione al funzionamento di un oggetto derivano dagli inviti e dai vincoli d’uso e dalle
relazioni spaziali tra le varie parti dell’oggetto
b) Seguire un buon mapping. Per mapping si intende una data relazione tra due oggetti o azioni e,
quando si parla di psicologia cognitiva applicata, si intende la relazione tra i comandi e la loro
esecuzione e gli effetti ottenuti. Seguire un buon mapping significa determinare in maniera chiara i
rapporti tra azioni e risultati, in particolar modo tra i comandi e i loro effetti. Significa cioè prevedere e
dare corrispondenza logico-spaziale tra quello che si vuole fare e ciò che appare fattibile ai nostri seni,
tra lo stato del sistema e ciò che è visibile
c) Applicare il principio del feedback, significa prevedere un messaggio visivo e/o acustico, attraverso il
quale l’utente riceve una continua e completa informazione retroattriva. L’informazione di ritorno dice
all’utente quale azione ha effettivamente eseguito e quale risultato è stato ottenuto. Il concetto di
feedback è molto noto nella teoria dell’informazione e è utile per tutti i processi comunicativi sia verso
un interlocutore sia verso una macchina. Per questo motivo la maggior parte dei dispositivi prevedono
una forma di informazione di ritorno che ci informa sull’azione che abbiamo appena compiuto.
Nel decalogo del buon design troviamo che, un oggetto per essere ottimale:
1) È innovativo
2) Dà utilità al prodotto
3) Rende il prodotto autoesplicativo
4) Non è intrusivo
178
5) È onesto
6) È di lunga vita
7) È design estetico
8) È consistente fino al minimo dettaglio
9) È rispettoso dell’ambiente
10) È il minimo design possibile

Il personal computer
Fino all’inizio degli anni ’80, tematiche quali la difficoltà di apprendimento, la facilità d’uso o la
trasparenza cognitiva delle funzioni svolte dal calcolatore erano problemi praticamente inesistenti
nella mente del progettista. Il calcolatore doveva semplicemente funzionare e svolgere le funzioni per
le quali era stato progettato.
In breve tempo la vecchia logica della progettazione separata dall’utilizzazione cominciò ad andare in
crisi, perché i tempi impiegati a studiare il funzionamento dei computer e dei relativi programmi
rappresentava un grande problema per i suoi utilizzatori.
Il punto di rottura definitivo ebbe luogo con l’avvento dei personal computer, con i quali le ditte
costruttrici cercarono di conquistare più utenti possibili.
Il campo di impiego ruppe i confini del mondo del lavoro per invadere gli ambiti di tempo libero,
studio, sport, giochi… la precondizione del successo era, ovviamente, la facilità d’uso.
I progettisti cominciarono ad avvalersi delle conoscenze dell’ergonomia non solo per ciò che
riguardava le distanze, misure, colori, tastiere, caratteri stampa (ergonomia classica) ma anche in
relazione alla nuova ergonomia cognitiva e si cominciò ad ammettere che per costruire strumenti che
interagissero con i processi mentali dell’utente occorreva conoscere le modalità di funzionamento
della mente umana.
La progettazione di computer e le relative interfacce devono tenere conto del funzionamento dei
processi cognitivi dell’operatore e del modello mentale attraverso il quale l’utente si rappresenta le
funzioni dello strumento da usare.

La progettazione delle interfacce


L’interfaccia è il modo con cui si fa qualcosa con uno strumento, in particolare le azioni che dobbiamo
seguire e il modo in cui lo strumento risponde.
Il primo passo per la progettazione ergonomica di un’interfaccia è che questa tenga conto delle
caratteristiche cognitive che gli utenti condividono.
Soltanto l’interfaccia che tenga conto delle caratteristiche e del funzionamento dei processi mentali
dell’utente può essere considerata un’interfaccia a misura d’uomo.
Non deve solo soddisfare la necessità dell’utente, ma anche tener conto delle sue criticità e dei suoi
punti di debolezza.
Secondo l’approccio della Human Computer Interaction (HCI), l’interfaccia deve essere non solo
fisicamente compatibile con le caratteristiche della percezione e dell’azione umana, ma anche essere
cognitivamente compatibile con le caratteristiche della comunicazione, dell’attenzione, della memoria,
della soluzione dei problemi e della presa di decisione umane.
Affrontare il problema dell’interfaccia significa occuparsi della modalità di presentazione dei dati e
delle informazioni utili all’ utente.
Se, per esempio, prendiamo in esame lo schermo di un computer si tratta di scegliere:
a) Quali informazioni devono essere rappresentate
b) Come devono essere organizzate spazialmente
c) Come devono essere rappresentate graficamente
179
Una buona icona deve, infatti, superare i confini nazionali e poter essere cognitivamente trasparente
per gruppi sociali culturalmente diversi tra loro.
Anche quando il simbolo non è autoesplicativo, l’unità grafica, la continuità temporale di utilizzo e la
diffusione dell’impiego possono trasformarlo in un simbolo in grado di indicare una funzione
facilmente interpretabile.
Nel caso di una pagina web, progettata e costruita per fini commerciali e, quindi, sensibile alla
soddisfazione dell’utente, contiene ancora un elevato margine di miglioramento in relazione alla web
usability.
In generale, le caratteristiche che determinano una buona interfaccia sono contenute nell’acronimo
HOME, ideato da Nielsen, che identifica le 4 ragioni secondo le quali un utente usa un’interfaccia
piuttosto che un’altra e rappresentano i 4 capisaldi su cui fondare una buona progettazione
HOME sta per
High quality: contenuti di alta qualità
Often: frequenti aggiornamenti
Minimal: brevi tempi di interazione
Ease: facilità d’uso
Perché gli utenti si limitano a scorrere le informazioni riportate sulle pagine web di internet e si
rifiutano di leggere?
In uno studio condotto da Nielsen, il contenuto web deve convincere gli utenti di un’immediata utilità
a rimanere dove si trovano, pena la chiusura della pagina.
Il 79% degli utenti da una scorsa al testo senza leggerlo perché:
a) Leggere sullo schermo è faticoso e richiede circa il 25% in più di tempo rispetto al cartaceo
b) Il web è diretto dall’utente che si sente attivo nel web solo se si muove
c) L’utente non sa quale sito è il migliore per il suo problema
d) Il modo in cui il mondo si muove è frenetico e il web non fa eccezione, se qualcosa non salta
all’occhio viene lasciato perdere. Non si ha tempo di leggere tutte le informazioni, sono troppe; per
essere afferrate al volo devono imporsi all’utente con una modalità di presentazione di tipo pop- out.

La Valutazione Neuropsicologica (video non presente – caricata erroneamente una doppia lezione)
La valutazione neuropsicologica consiste in un esame che fornisce informazioni sul comportamento, la
personalità, le capacità cognitive, le abilità apprese e il potenziale riabilitativo di persone che hanno
subito una lesione cerebrale.
L’obiettivo della valutazione neuropsicologica è di rilevare le manifestazioni comportamentali delle
funzioni cerebrali, siano esse compromesse o preservate.
- strumento diagnostico: Fornire quadro completo del paziente
- strumento prognostico
- pianificazione dell’assistenza
- progetto riabilitativo (monitoraggio)
- legale-assicurativa
La sua metodologia richiede l’utilizzo di tecniche specializzate nella relazione comportamento-
cervello.
L’esame neuropsicologico tiene conto di tre dimensioni del comportamento:
1. La Cognizione
2. Le Funzioni Esecutive
3. L’Emozione e la Motivazione
e di 1 attività mentale:
3. La Consapevolezza o Coscienza
180
Gli strumenti della VNP di base sono i seguenti:
1. L’intervista (raccolta di dati anamnestici cognitivo-comportamentali attraverso il colloquio con il
paziente ed eventualmente con i familiari)
2. L’osservazione
3. La valutazione clinica
4. La somministrazione di test standardizzati (somministrazione ed interpretazione di test
neuropsicologici di screening atti ad ottenere un profilo neuropsicologico)
L’esame neuropsicologico sarà preceduto da una preliminare consultazione di:
• Condizione medica generale e neurologica in particolare
• Relazioni cliniche
• Referti neuroradiologici strumentali

Accertamenti strumentali diagnostici neurologici Esami neurofisiologici


• Elettroencefalografia, potenziali evocati motori, potenziali evocati sensitivi
• Elettromiogrfia
• Elettroneurografia (velocità di conduzione sensitive e motorie)
• Esame del liquido cefalorachidiano (LCR)
• Esame fisico: colore, presenza di pus
• Esame chimico: sodio, cloro, glucosio, ricerca di proteine
• Ricerca di anticorpi prodotti localmente (bande oligoclonali) ricerca di anticorpi di provenienza
ematica
• Ricerca di genomi virali attraverso esame PCR, ricerca di cellule atipiche
• Esami neuroradiologici morfologici
• Rx cranio e midollo spinale,
• Pneumoencefalografia,
• Mielografia,
• Esame TC cranio,
• Esame RMN cranio
• Esami neuroradiologici funzionaliI
• Esame scintigrafico cerebrale ad emissione di singolo fotone (SPECT)
• Esame angiografico cerebrale
• Tomografia ad emissione di positroni (PET)
• Ecodoppler dei vasi del collo
• Angio-RMN
• RMN funzionale
• Esami bioptici
• Biopsia muscolare
• Biopsia cerebrale
• Biopsia di nervo

L’intervista neuropsicologica:
non può avere una forma rigida e fissa. E’strutturata per aree di approfondimento; se possibile va
effettuata attraverso il colloquio diretto con il paziente, se necessario va eseguito un secondo
colloquio (intervista in più tempi); va effettuata anche ad un familiare (tener conto anche di quello che
dicono i parenti) è un momento essenziale alla valutazione neuropsicologica.
Nel corso dell’intervista neuropsicologica bisogna mettere il paziente in condizioni confortevoli ed a
proprio agio, ridurre al minimo i dettagli irrilevanti; ottenere un resoconto dettagliato dei disturbi con
181
le parole stesse del paziente; scendere nei dettagli riguardo a fattori specifici che possono essere
significativi; cercare di capire quello che il paziente vuole dire con le sue parole, cercare di evitare
ambiguità; stare attenti a non suggerire al paziente sintomi o diagnosi (soprattutto se il paziente è
suggestionabile o ipocondriaco).
Lo scopo dell’intervista neuropsicologica è quello di rilevare:
le motivazioni della valutazione o la storia personale: educativa, familiare, occupazionale, cognitiva,
sociale, medica, psicologica, la descrizione soggettiva dei disturbi cognitivi: quali sono i disturbi
cognitivi lamentati e la loro epoca di insorgenza, la motivazione (e l’apatia), l’emozione (ed i disturbi
emotivi ), l’autocontrollo (e la disinibizione), l’esame di realtà (ed i disturbi tipo psicotico) la
personalità premorbosa, la modificazione della personalità, la consapevolezza dei disturbi, l’impatto
dei disturbi, le relazioni familiari e inoltre iniziare a costruire una collaborazione.

Raccolta dati anamnestici


-Anamnesi patologica remota: Inchiesta sulla storia passata del malato, valutazione delle malattie
pregresse, domande circa segni, sintomi e situazioni utili ad una diagnosi clinica, ricoveri precedenti
Interventi chirurgici precedenti
Anamnesi fisiologica e sociale: Sviluppo della personalità del malato, istruzione attività lavorativa
Anamnesi familiare: anamnesi sui genitori e sui consanguinei (età, sesso, stato di salute, eventuale
causa di decesso), presenza di fattori ereditari, presenza di familiarità per malattie neurologiche:
demenze, cefalea, epilessia, ipercnesie, nistagmo, atrofia, distrofia muscolare, disordini cerebellari,
atassie, neuropatie.
L’osservazione
• Indiretta: Comportamenti riferiti da familiari, medici, terapisti, Intervista e liste comportamentali.
Questionari.
• Diretta Informale: Comportamenti emersi durante l’intervista e i test.
• Diretta Strutturata: Scheda di osservazione di un comportamento, Test psicologici non
standardizzati.
• Diretta Standardizzata: Test psicologici standardizzati.
L’Osservazione diretta informale rilevare i comportamenti emersi durante l’intervista e i test.
Atteggiamento del paziente: Grado di collaborazione (buona, parziale, fluttuante, scarsa)

Comportamento del paziente (gesti, irrequietezza, ritardi, esitazioni)


Reazioni emotive (comparsa di pianto, riso, stato dell’umore) Carattere; Personalità; Stato psichico;
Stato cognitivo (disturbi attentivi, della concentrazione, di memoria) Intelligenza (capacità deduttive,
induttive, confusione mentale, coerenza) Espressione degli occhi; Presenza di pallore o rossore del
viso; Presenza di sudorazione; Presenza di chiazze di eritema sul collo; Corrugamento delle
sopracciglia; Stiramento delle labbra; Digrignamento dei denti Dilatazione o costrizione della pupilla;
Rigidità dei muscoli.
La valutazione clinica in neuropsicologia comincia da quando viene presentato il paziente, si
considerano i seguenti elementi: modo in cui deambula (presenza di eventuali turbe della marcia),
autonomia nella deambulazione, presenza di disturbi posturali, necessità di essere accompagnato,
facies, modo in cui stringe la mano, maniera di vestire, modo in cui si siede, comportamento generale,
modo di parlare.
L’Esame obiettivo Neuropsicologico consiste nell’esame del cranio e dei nervi cranici; Esame del
sistema motorio; Esame dei riflessi; Esame delle sensibilità; Ricerca di segni neurologici patologici. Le

Funzioni cognitive oggetto d’esame sono:


182
-stato mentale di base
-attenzione: vigilanza o arousal (attenzione sostenuta), allerta, attenzione selettiva (spaziale),
attenzione divisa, - controllo attentivo
-memoria: memoria semantica, episodica, anterograda e retrograda, verbale o spaziale, prospettica, di
lavoro
-funzioni esecutive: processi cognitivi di ordine superiore deputati all’organizzazione e al controllo di
altri processi in funzione del raggiungimento di uno scopo (Shallice, 1994). definire obiettivi del
comportamento, pianificare strategicamente le azioni necessarie, mettere in atto le azioni necessarie.
-controllarne gli esiti linguaggio: produzione, comprensione
-percezione: degli oggetti, dello spazio
-movimento

I Test Neuropsicologici
Prima di occuparci dei test neuropsiologici riportiamo una classificazione delle Demenze, distinguiamo
le demenze degenerative o primarie:
-Malattia di Alzheimer
-Demenza a corpi di Lewy (corticale e sottocorticale)
-Demenza Fronto-temporale
-Parkinson demenza (sottocorticale)
-Degenerazione cortico-basale.

Le demenze cosiddette secondarie sono invece la


-Demenza Vascolare (corticale e sottocorticale) e
-Idrocefalo normoteso.
Lesioni localizzate nelle regioni fronto-sottocorticali portano a Demenza Vascolare (sottocorticale),
Parkinson Demenza e Demenza con corpi di Lewy.
Il profilo caratterizzato da disturbi frontali, attentivi e disturbi del movimento è costituito da:
rallentamento psicomotorio, deficit attentivi compromissione delle funzioni esecutive, deficit
visuospaziali.

Le Funzioni Esecutive
Il sistema esecutivo è costituito da un insieme di processi e meccanismi che facilitano l’adattamento
alle situazioni nuove e inusuali.
Il sistema esecutivo ha la funzione di programmare, regolare e modulare il comportamento.
Permettono di prendere decisioni, di selezionare quali processi attivare al fine di mettere in atto
comportamenti coerenti diretti verso uno scopo specifico.
I deficit delle funzioni esecutive riguardano, per la maggior parte, pazienti con danno frontale. Tuttavia
si può riscontrare una compromissione delle funzioni esecutive anche secondariamente ad altri danni
di strutture cerebrali, ad es. lesioni sottocorticali.
Le funzioni esecutive comprendono i seguenti processi cognitivi: Attenzione, Memoria di lavoro,
Apprendimento/utilizzo di strategie, Organizzazione temporale eventi, Pianificazione/problem solving,
Flessibilità cognitiva,Pensiero astratto, Categorizzazione, Giudizio critico, Controllo inibitorio.

Pazienti con lezioni frontali-sottocorticali possono presentare:


- Distraibilità (attenzione focalizzata)
- Impulsività (controllo inibitorio ed attenzione selettiva)

183
- Difficoltà a mantenere una risposta consistente nel tempo, scarsa concentrazione, faticabilità
(attenzione sostenuta)
- Difficoltà a prestare attenzione a più compiti/informazioni simultaneamente (attenzione divisa)
- Difficoltà ad alternare (ridirezionare in modo flessibile) l’attenzione da un compito a un altro o da
una modalità di elaborazione ad un’altra (attenzione alternata).

Test che si occupano di effettuare una valutazione dell’efficienza cognitiva globale:


-Montreal Cognitive Assessment (MoCA)
-Frontal Assessment Battery (FAB)
-Clock drawing test (CDT)

I domini cognitivi che caratterizzano il MoCA sono:

Attenzione e concentrazione, Funzioni esecutive, Memoria, Linguaggio, Abilità visuocostruttive


Astrazione, Calcolo, Orientamento

Il tempo di somministrazione è di 10 minuti; Il punteggio massimo ottenibile è 30 punti.

Il MoCA è uno strumento raccomandato dalla Consensus Conference del National Institute of
Neurological Disorders and Stroke e Canadian Stroke Network sul Vascular Cognitive Impairment del
2006.

Test di secondo livello

Sono test neuropsicologici per le capacità attentive e le funzioni esecutive

Matrici attentive
• Symbol Digit Modalities Test
• Trail making test (A e B)
• Test di Stroop
• Wisconsin Card Sorting Test (WCST)
• Weigl Sorting Test
• Fluenza fonemica

Matrici attentive

Abilità valutata
Attenzione selettiva (ricerca visiva): abilità di selezionare informazioni
rilevanti (target) all’interno di un contesto distraente (distrattori). Il
materiale consta di tre matrici composte da una serie di numeri all’interno
delle quali devono essere rintracciati uno/due/tre numeri specifici.

La Consegna: Si mostra al soggetto la matrice dicendo “ora lei dovrà


sbarrare con una matita tutti i numeri corrispondenti a quelli indicati in cima
alla matrice, il più velocemente possibile”.

La Somministrazione: la prima riga (A) serve come esempio, è possibile intervenire per correggere il
184
soggetto. La seconda riga (B) ha funzione di run-in (pratica) e non va conteggiata nel punteggio finale.
A partire dalla riga 1 inizia il test vero e proprio.

La Registrazione: per ogni singola tavola va annotato il punto in cui il soggetto ha superato il tempo
limite (45 sec.), lasciando porti a termine la prova. Va registrato il tempo reale impiegato dal soggetto
per terminare la prova.
Calcolo del punteggio: Numero di elementi correttamente sbarrati nelle Tavole 2 e 3 entro 45 secondi.
Range (0-50).

La tabella di correzione

WCST: Wisconsin card sorting test

Originariamente sviluppato per valutare la capacità di ragionamento astratto e l’abilità di cambiare


strategie cognitive al mutare delle circostanze. Richiede un piano strategico, una ricerca organizzata,
attraverso l’utilizzazione di feedback ambientali per cambiare piani cognitivi.

Abilità valutata: Capacità di sviluppare e modificare in modo flessibile determinate strategie di


problem solving al mutare delle circostranze: • astrazione • flessibilità cognitiva.
È considerato il test per eccellenza nella valutazione del comportamento perseverativo:
comportamento rigido e non flessibile che induce ad insistere nell’utilizzo di strategie inadeguate alle
circostanze.

l Materiale: 4 carte-stimolo e 128 carte-risposta


(64+64).

La Consegna: “Questo test è un po’ insolito perché non


posso dirle molto su come farlo. Le verrà chiesto di
abbinare ognuna delle carte di questo mazzo ad una di
queste quattro carte-chiave. Deve sempre prendere la
prima carta del mazzo e metterla sotto la carta-chiave
con cui lei pensa si abbini. Io non posso dirle come
combinare le carte, ma le dirò ogni volta se ha fatto
bene o se ha sbagliato. Se ha sbagliato, semplicemente
lasci la carta dove l’ha messa e cerchi di abbinare correttamente la carta successiva. Non c’è limite di
185
tempo in questo test.”

Presenta tre categorie di classificazione: Colore • Forma • Numero

La prima categoria di classificazione è il colore. L’esaminatore risponde “corretto” ogni volta che il
soggetto abbina le carte secondo il colore, e “non corretto” ogni volta che l’abbinamento corrisponde
ad un parametro diverso.
Questo processo continua fino a quando il soggetto non raggiunge 10 risposte consecutive corrette in
base al colore.
Dopo di che, senza avvertire il soggetto, si cambia il criterio (soggetto deve capire il cambiamento di
criterio attraverso il feedback dell’esaminatore).
Tale procedimento si ripete per i criteri secondo un ordine pre-fissato: C-F-N-C- F-N. Il test termina
quando il soggetto ha completato con successo le sei categorie o quando sono esaurite le carte-
risposta.
Il tempo medio di somministrazione: 20-30 minuti.

Ogni risposta va classificata in base a tre parametri:

-Corretta-non corretta
-Ambigua-non ambigua
-Perseverative-non perseverative I Punteggi si suddividono in:
• Punteggio Globale: rappresenta un indice complessivo ed è dato dal numero di carte che il soggetto
utilizza in eccesso rispetto al minimo necessario a completare le sei categorie.

[n° of trials – (n° of achieved categories x 10)]


• Errori Perseverativi (range 0-128).
• Errori non Perseverativi
• Fallimenti nel mantenere la serie: numero di volte in cui a 4 risposte consecutive corrette
segue un abbinamento errato.
• Categorie Completate

L’Afasia
Prove utilizzate per valutare, ed effettuare un esame neuropsicologico, per l’afasia (deficit del
linguaggio).
Distinguiamo due tipi di afasia:
1. Afasia motoria o di Broca: deficit nella produzione del linguaggio.
Lesione: lobo frontale sinistro
-Linguaggio non fluente, diminuzione notevole dell’eloquio spontaneo, circonlocuzioni
-Parafrasie fonemiche e fonetiche, anomie, conduite d’approche
-Agrammatismo (linguaggio telegrafico)
-Compromessa la ripetizione di frasi
-Disturbo di lettura
-La comprensione delle parole è spesso ben conservata.

2. Afasia sensoriale o di Wernicke: disturbo della comprensione verbale. Lesione: parte posteriore lobo
temporale sinistro
-Eloquio fluente, ma incomprensibile
186
-Gravi problemi di comprensione
-Parafasie e problemi di denominazione/ripetizione
-Scrittura e lettura compromesse

Esame neuropsicologico per l’Afasia

-Prove di transcodificazione: Ripetizione Lettura,Scrittura su dettato


-Prove di denominazione: Nomi, Verbi, Colori
-Prove di comprensione: Parole, Frasi

Vediamo ora quali prove vengono utilizzate per la valutazione dell’afasia:

-Descrizione orale della figura complessa


-Generazione liste di parole
-Prove di numeri e calcolo: Ripetizione; Lettura; Dettato; Trasformazione parole-numero in numeri
arabi.
-Calcolo scritto: Addizioni, Sottrazioni, Moltiplicazioni.

La figura seguente presenta un quadro completo di tutti i test neuropsicologici esistenti.

Lo Stress
187
È una reazione aspecifica dell’organismo ad alcune sollecitazioni provenienti dall’esterno.
Definito Sindrome generale di adattamento, rappresenta la capacità dell’organismo di adeguarsi alle
pressioni ambientali con l’obiettivo di sopportarle e superarle.
È un termine inglese usato in ingegneria per indicare la tensione interna di un materiale.
Stressor: è la forza che agisce tentando di deformare il materiale.
Il termine stress è entrato nel linguaggio psicologico intorno agli anni ‘50 per indicare lo stato di
tensione interna provato da individui esposti a situazioni negative acute o prolungate.

Siamo organismi in continua evoluzione e cambiamento. Ogni forza/evento/situazione che induce un


cambiamento è uno stressor.
-eustress: Se il cambiamento è positivo/vantaggioso per il soggetto.
-distress: Se il cambiamento è negativo/svantaggioso per il soggetto.

È lecito domandarsi se lo stress sia un fenomeno “nuovo” legato all'evoluzione della società; in realtà
lo stress e sempre esistito e a seconda delle epoche, i nostri antenati hanno sempre e comunque
avuto a che fare con eventi stressanti.
Al giorno d'oggi lo stress e legato alla complessità del nostro modo di vivere:
- per le richieste di tenere a mente un alto numero di informazioni (numeri di telefono, carte di
credito, ecc.)
- per la complessità degli ambienti che ci circondano (lavoro, rumore, trasporto, ecc.)
- per l'impressione di riuscire sempre meno a controllare questi ambienti.
Descritto come una delle grandi malattie della nostra epoca, lo stress sarebbe all'origine delle malattie
coronariche e cardio-vascolari, delle ulcere allo stomaco, depressione nervosa ed altre patologie.
Non esiste una definizione chiara ed univoca di stress; è, comunque, un fenomeno molto complesso.
Il suo ruolo nella genesi ed evoluzione di molte malattie e ancora in discussione: per alcuni
consentirebbe l'insediamento della malattia, mentre, per altri, ne sarebbe il fattore scatenante.
Gli eventi della nostra vita vengono percepiti ed analizzati da tutto il nostro organismo per consentirci
un adattamento ad essi: quando percepiamo un evento pericoloso (agente stressante) l'organismo si
mette in stato di difesa mettendo in atto diverse modalità di risposta (reazioni di stress) per ristabilire
l'equilibrio.

Lavoro e stress
In alcuni paesi lo stress può essere addirittura mortale: in Giappone la sindrome da esaurimento
nervoso e definita Karoshi.
È una malattia temibile, provocata da esaurimento fisico e nervoso causato dal lavoro.
Colpisce i lavoratori modelli che lavorano 24 ore su 24, eccessivamente coinvolti nei loro compiti, e
che ad un certo punto sprofondano nell'apatia fino, in alcuni rari casi, alla morte.
Il neodiplomato inizialmente mostra molto entusiasmo ed energia, ma dopo un po' di tempo inizia ad
accusare segni di stanchezza, insonnia, eccessiva irritabilità e le capacita iniziali si affievoliscono. Infine
si ha un vero e proprio esaurimento fisico e nervoso che può sfociare in diverse patologie.
Si potrebbe accostare questo stato alla “sindrome degli yuppies”.
Il prezzo pagato a causa dello stress e molto alto: per le cure mediche, l'assenteismo sul lavoro e per il
calo della produttività.
In realtà le figure professionali più stancanti e stressanti non sono i manager o gli uomini d'affari come
si sente spesso dire, ma quelle inserite in un ambiente rumoroso (meccanica, acciaieria), ripetitivo ed
anche quei mestieri ad elevato coinvolgimento emotivo (infermieri, insegnanti, controllori, ecc.).
Un fenomeno emozionale: il concetto di stress prima di Selye
188
Prime teorie sul ruolo del cervello nell'espressione dell'emozione sono state fornite da Darwin e Freud
(inizio XIX secolo).
Psicologi William James e Carl Lange (1884) defnirono lo stress come la risposta fisiologica precede e
causa lo stato emotivo (siamo tristi perché piangiamo)….e non piangiamo perché siamo tristi.
I nostri organi di senso informano il cervello sullo stato del corpo, ed il cervello risponde modificando il
funzionamento degli organi. La reazione fisiologica degli organi trasduce una sensazione che
corrisponde all'emozione.
Fisiologo americano Cannon (1927): “teoria Cannon-Bard” per cui non vi e alcuna correlazione tra
esperienza emozionale e stato fisiologico: le emozioni possono essere sentite senza che si
percepiscano modificazioni fisiologiche (esperimento: animali con midollo spinale sezionato
continuavano ad avere reazioni emotive).
Ruolo del talamo e della corteccia nella percezione delle emozioni: non c'è bisogno di essere tristi, e
sufficiente l'attivazione del talamo come risposta alla situazione.
Le reazioni fisiologiche non sono specifiche delle emozioni.
Neurologo francese Paul Broca (1878): ruolo del lobo limbico nei comportamenti emotivi,
rappresentato dalla corteccia che circonda il corpo calloso (in particolare giro cingolato e corteccia
della superficie mediana del lobo temporale).
James Papez (1930): sistema dell'emozione detto “circuito di Papez” (parte mediana del cervello
che collega corteccia e ipotalamo).
John Harlow (1848- 1868): caso Phineas Gage, evidenzio un legame tra lesione di parte dei lobi frontali
con disturbi del comportamento, in particolare emozionali.
Kluver e Bucy: effetti della lobectomia sulle risposte di scimmie in un contesto stressante: turbe
emozionali, diminuzione della reazione di paura e delle reazioni emozionali.
Amigdalectomia → comporta una diminuzione e anche sparizione dell'espressione e del
riconoscimento della paura.

La concezione di Selye

Lo stress è una reazione di adattamento


normale di fronte ad una minaccia, ma se
questa perdura troppo a lungo, lo stress
diventa negativo e portare ad alcuni
disfunzionamenti.
Le ricerche sullo stress si sono sviluppate a
partire dal XX secolo con Walter Cannon e
Hans Selye (osservazione delle reazioni di
attacco fuga di gatti minacciati da un cane e
delle conseguenti manifestazioni fisiologiche).
Selye (1936) definì separatamente lo stress,
l'agente stressante e la reazione allo stress (in
seguito definita come una sindrome generale
di adattamento SGA).
Per Selye lo stress e una pressione esterna in grado di modificare il funzionamento dell'organismo, e
l'insieme di reazioni aspecifiche date dal confronto fra organismo e situazioni che deve affrontare.
Lo stressor attiva e rompe l’equilibrio:
- 1° fase - Reazione di allarme: si attivano sistema simpatico e midollo-surrenale (liberazione di
adrenalina e noradrenalina) ed il sistema ipotalamo-ipofisi-surrene (glucocorticoidi). Una loro
189
eccessiva risposta porta a sintomi per il sovraccarico della capacita di adattamento (fase di
esaurimento).
- 2° fase - Reazione di resistenza e di adattamento: insieme di reazioni non specifiche per la prolungata
esposizione dell'organismo agli stimoli nocivi ai quali si e adattato.
- 3° fase - Fase di esaurimento (patologica): insieme di reazioni non specifiche date dal fatto che
l'organismo non può più adattarsi allo stimolo. Si ha quindi un esaurimento che porta alla malattia e
possibilmente, alla morte.
Da qui deriverà o la creazione di un nuovo equilibrio o il ritorno all’equilibrio pregresso.

Lazarus considera lo stress una risposta


relativamente aspecifica.
L’innovazione del modello di Lazarus è
rappresentata da due tipi di valutazione:
• Valutazione primaria: ci fa valutare le
caratteristiche dello stressor (valutazione
persona / ambiente)
• Valutazione secondaria: guardo se ho risorse
sufficienti per fronteggiarlo. Viene introdotto
il conetto di coping
Si innesca lo stress solo dopo la doppia valutazione
e non tutti gli stressor la provocano.
Le persone tendono a dare risposte simili per
eventi simili.

Jean Delay (psichiatra francese, 1959) → introduce la nozione di stress in psicologia.


Propone un approccio comportamentalista: l'individuo può adattarsi ad uno stress e costruire
modalità adattive a delle costrizioni specifiche.
Le concezioni attuali
Critiche al concetto di stress:
- il termine stress indica allo stesso tempo l'agente aggressore e la reazione dell'organismo ad esso;
- i mediatori implicati nella risposta dell'organismo all'aggressore sono numerosi e poco conosciuti,
soprattutto sul piano funzionale.
Omeostasi → ogni organismo, per il buon funzionamento del suo stato biologico e fisiologico, deve
mantenere un equilibrio in cui i marcatori fisico-chimici, biologici e fisiologici hanno valori nella norma.
Di fronte ad un ambiente minaccioso dovra rispondere innalzando i livelli di questo equilibrio
(reazione di allarme), con una modificazione biologica e fisiologica che genera un livello energetico piu
elevato.
Stress positivo → reazione normale e naturale allo stress; al momento in cui l'ambiente minaccioso
scompare, l'organismo ritrova il suo livello normale di omeostasi.
Se lo stimolo stressante perdura, il nuovo livello di equilibrio omeostatico deve rimanere inalterato
finche esso e presente, generando un notevole dispendio energetico.
Negli animali non ci sono differenze interindividuali in questa fase.
Nell'uomo, invece, le strategie di adattamento (coping) non sono sempre le stesse: la durata di
resistenza dell'organismo, quindi, e molto variabile e dipende sia da fattori genetici, che cognitivi e
psicosociali.
L'organismo può raggiungere un livello di stress patologico se la fonte della minaccia (agente s.) e allo

190
stesso tempo:
- inevitabile;
- indesiderabile;
- ripetitiva (cronica).

Adattamento allo stress


Chapouthier (1997), Jouvent (1998) → hanno evidenziato il ruolo dei geni nell'ansia nel topo.
L'influenza dell'ambiente si manifesta già dalla gravidanza (piccoli di ratte stressate durante la
gestazione, sono predisposti allo stress nello stesso momento in cui ne hanno bisogno; ad es. sono piu
sensibili ed assuefatti alla nicotina).
L'ambiente influenza anche dopo la nascita: esempio del figlio di una portiera che cresce in un
ambiente rumoroso, sarà dipendente dagli stimoli e, una volta cresciuto, se avrà un lavoro monotono,
cadra probabilmente in depressione (privazione di stimoli → stress).
Stress → mancanza di adattamento fra la nostra natura e l'ambiente.

Gli aspetti neurofisiologici dello stress


Durante lo stress sono attivati numerosi meccanismi neurofisiologici che interessano sia le
componenti nervose, che quelle endocrine ed immunologiche.

Ruolo del sistema neuro-endocrino


Adrenalina: primo ormone ad essere stato ricollegato alle emozioni.
Sistemi nervoso ed endocrino: funzionano in sinergia per mantenere l'omeostasi.
Ipotalamo: è la principale regione coinvolta nella regolazione delle funzioni fisiologiche; regola la
secrezione di fattori chimici (ossitocina, ecc.) che regolano la sintesi dei corticoidi, coinvolti
nell'infiammazione. Sorregge anche le funzioni del sistema nervoso autonomo che regola la pressione
arteriosa, la frequenza cardiaca, la motilità del tubo digestivo all'origine della nausea e della diarrea.
In risposta allo stress l'ipotalamo libera la corticoliberina (CRF) che stimola la liberazione di ACTH
(corticotropina), che, a sua volta, stimola quella dei corticoidi da parte delle ghiandole surrenali
(cortisolo, corticosterone).
Ipotalamo:regola la secrezione di fattori chimici quali:
• ossitocina
• corticoliberina (CRF) stimolerà la corticotropina (ACTH) → corticoidi (cortisolo, corticosterone).
Questi meccanismi vanno direttamente a modificare la risposta infiammatoria.
CRF è la principale via di attivazione dell'asse corticotropo; liberata in alcune zone del cervello in
seguito a stress acuti o emozionali legati all'ambiente, provoca delle risposte comportamentali
(reazione di evitamento).

Turbe fisiologiche
Stress acuto: abbiamo quindi meccanismi di adattamento coordinati dal SNC, l'asse HPA ed il sistema
nervoso simpatico efferente.
Vi sono neuroni specializzati nella liberazione di CRH dal nucleo paraventricolare dell'ipotalamo e delle
altre regioni del SNC, il locus coeruleus ed il sistema vegetativo centrale simpatico.
Stress prolungato: aggressioni meno intense ma ripetute sollecitano in parte questi stessi sistemi
provocandone un'attività cronica che può indurre ad un sovraccarico e ad una vulnerabilità. Vi saranno
quindi difficoltà di adattamento con sudore, turbe digestive, sintomi cardiovascolari, irritabilità,
ansietà, depressione.

191
Turbe delle funzioni digestive: diarree, vomito, nausee sono associati allo stress.
Nell'animale: lo stress può indurre ulcerazioni gastriche e aggravare lesioni infiammatorie del colon.
Nell'uomo: il ruolo dello stress nell'infiammazione rimane discusso.
Sia nell'uomo che nell'animale lo stress provoca alterazioni della motilità gastro-intestinale. Queste
turbe sono simili a quelle provocate dalla somministrazione centrale di CRF nei roditori. Lo stress
provoca inibizione della secrezione acida dello stomaco e aumento di quella del bicarbonato
duodenale e lo stress acuto stimola la motilità colica.
Topi immobilizzati: importanti ulcere gastriche.
Porcellini d'India: erosioni gastriche e duodenali.
Uomo: lo “stress da rianimazione” può provocare emorragie di origine ulcerosa.
Malattie infiammatorie croniche dell'intestino (MICI): durante una situazione stressante si aggrava il
processo infiammatorio, per una riduzione dell'attivazione dell'asse corticotropo.
Il morbo di Crohn e retto-colite emorragica: sono classificate come affezioni psicosomatiche, anche se
in molti casi la malattia si presenta o si aggrava nonostante il paziente non abbia particolari
preoccupazioni.
Ovviamente il tubo digerente di chi ha queste malattie è più sensibile ai fattori esterni, quindi la
liberazione di vari ormoni e citochine possono, su un terreno predisposto, scatenare una spinta
evolutiva della malattia. Quindi è possibile che lo stress non sia la causa, ma uno dei tanti fattori
responsabili.
Paradontite nell'adulto: (Miller) lo stress sarebbe coinvolto nella distruzione dei tessuti paradontali.
Deficit comportamentali: nell'animale a seconda dell’intensità ansiogena della stimolazione: reazioni
di avvicinamento, attacco e aggressione, di evitamento o di fuga, comportamento di agitazione,
freezing (immobilità). In generale c'e una diminuzione di mobilita e della capacita di esplorazione.
Risposta immunitaria: lo stress, a seconda della sua intensità, modifica numerosi parametri.
Attivazione diretta dell'asse corticotropo con liberazione periferica di corticoidi; attivazione sistema
simpatico periferico, maggiore liberazione di linfociti.
Liberazione di citochine e mediatori pro-infiammatori (prostaglandine) che stimolano la liberazione del
CRF.
Stress acuto: aumenta la percentuale di linfociti TCD8 (soppressori/citotossici) e di cellule NK (Natural
Killer).
Stress psicologico (calcolo mentale e rumore) → aumento numero e citotossicità delle cellule NK, dei
linfociti TCD8 e dell'adrenalina.
Cancro: non è stata stabilita in modo oggettivo una relazione diretta fra eventi stressanti e apparizione
del cancro. Prendere coscienza della malattia e di per se un evento stressante che contribuisce
all'indebolimento del sistema immunitario. E' possibile che il cancro possa essere indotto o aggravato
da un evento stressante, indesiderabile, cronico e inevitabile, ma anche la malattia stessa può
diventare un agente stressante (poiché indesiderabile, cronico, inevitabile). Topo: stress psicologico da
isolamento incide sulla velocità di sviluppo del tumore alla mammella, ne aumenta la dimensione e
l’attività delle cellule NK.
Malattie infettive (HIV o HCV): come per il cancro non e stata stabilita una relazione diretta fra eventi
stressanti ed evoluzione di queste malattie. Prendere coscienza della malattia e anche in questo caso
un evento stressante che indebolisce il sistema immunitario.
Coinvolgimento dei neuro-ormoni: somministrazione esogena e diretta della B-endorfina su una
mistura di cellule immunitarie non modifica l’attività di cellule NK, al contrario del cortisolo e
dell'ACTH.
Malattie cardiovascolari: Friedman e Rosenman (1959): gli individui di tipo A sono più frequentemente
vittime di queste malattie rispetto agli individui di tipo B.
192
Attivazione asse ipotalamo-ipofisario e delle ghiandole surrenali in una situazione stressante libera
adrenalina, noradrenalina e cortisolo che agiscono sul tasso di renina, angiotensina e aldosterone. La
presenza cronica di questi neuro-ormoni aumenta la frequenza cardiaca e la pressione arteriosa,
portando anche all'insufficienza coronaria, angina pectoris, infarto del miocardio, incidenti vascolari
cerebrali, artriti, ipertensione arteriosa cronica, insufficienza cardiaca.
Altre patologie: turbe psicologiche e neurologiche (depressione, demenza senile di tipo Alzheimer,
Parkinson); turbe metaboliche (diabete, obesità); respiratorie (asma); dermatologiche (psoriasi).
Stress cronico, cortisolo e degenerazione neuronale: la somministrazione quotidiana di corticosterone
(quello che nell'uomo è il cortisolo) nel ratto, provoca un deperimento dei neuroni che possiedono
recettori per il corticosterone.
Il cortisolo, quindi, sarebbe responsabile della loro morte per eccito-tossicità

Salute e lavoro
Il rapporto tra salute e lavoro non è un tema nuovo, la preoccupazione dei medici, relativa
all’influenza nociva del lavoro sulla salute è un argomento molto dibattuto. Eppure il lavoro
rappresenta anche una fonte intrinseca di profitti psicologici.
La prestazione sul lavoro, ha infatti acquisito un ruolo centrale nella costruzione dell’autostima. Con il
lavoro, l’individuo acquisisce ruoli sociali, esercita le proprie competenze, sviluppa una rete di
supporto sociale, guadagna benessere psicologico. Al contrario, la privazione di lavoro è, in genere,
associata ad un deterioramento della salute psicologica e fisica.

I modelli della salute sul lavoro


Di seguito verranno presentanti i principali modelli di stress lavorativo ed il modello psicodinamico di
salute.

Il modello dell’adattamento persona/ambiente


Il modello dell’adattamento persona/ambiente (Person/Environment fit model) propone il concetto
che gli individui ricerchino ambienti di lavoro compatibili con le loro caratteristiche, ovvero che
193
permettano loro di esprimere al meglio le proprie competenze o i propri valori. Lo stress sarà, dunque,
il risultato di un difetto di adattamento fra le caratteristiche della persona e quelle dell’ambiente.
Si valuta, quindi, il grado di adattamento o di sfasatura tra le esigenze dell’ambiente (carico di lavoro,
complessità del compito, ecc.) e la capacità della persona di rispondervi.
Questo modello si interessa anche dell’interazione tra le attese della persona (attese di autonomia, di
stipendio, ecc.) e le opportunità offerte dall’ambiente di lavoro.
Questo modello non si limita alle caratteristiche oggettive dell’individuo (es: il suo grado di
formazione) o dell’ambiente (carico di lavoro), ma tende ad attribuire un ruolo essenziale alle
percezioni che permettono di spiegare l’impatto delle differenze individuali nell’insorgenza dello
stress.
In questa prospettiva transazionale, gli adattamenti soggettivi sono delle variabili più direttamente
legate al benessere, che non gli adattamenti oggettivi. Un buon adattamento sarà il risultato di un
cambiamento della persona o di un cambiamento dell’ambiente.

Il modello «domanda-controllo»
Gli stressor legati al lavoro sono numerosi e diversificati (carico di lavoro, lavoro ripetitivo,
sorveglianza, management arbitrario, ecc.).
Karasek (1979) presenta un modello operatorio in cui vengono sottolineate due caratteristiche comuni
a questi stressor:
- le esigenze o le pressioni del lavoro (dove lavorare rapidamente);
- il basso costo (o la debole discrezionalità di decisione) di cui il lavoratore dispone.
La discrezionalità di decisione, include al tempo stesso l’opportunità di esercitare le proprie
competenze e quella di prendere delle decisioni.
Secondo Karasek, la tensione appare quando le esigenze di lavoro sono elevate e la discrezionalità di
decisione è debole. Da questo modello, discendono altre tre predizioni:
- le situazioni poco esigenti con un alto grado di controllo produrranno deboli tensioni psicologiche;
- le situazioni in cui basse esigenze sono associate ad una bassa opportunità di controllo ridurranno la
capacità di risolvere i problemi e produrranno degli stati di apatia;
- delle esigenze elevate, combinate con un alto grado di controllo, favoriranno lo sviluppo di un
apprendimento adattivo, di strategie di coping diversificate e di locus of control interno.
In altre parole, secondo Karasek, il deterioramento della salute non è direttamente funzionale alla
crescita delle esigenze legate al lavoro, ma tutto dipenderà dal grado di controllo che l’individuo
esercita sulla sua attività.
Queste concezioni sono conosciute con il nome di «modello domanda - controllo al lavoro» (job
demand-control model o job strain model).
Se si assumono come criterio le malattie cardiovascolari, o i fattori oggettivi che favoriscono queste
malattie (es: ipertensione), le ricerche empiriche accreditano il ruolo del modello: le situazioni di
tensioni elevate, conducono ad un rischio elevato.
Tuttavia, l’impatto combinato delle esigenze e del controllo può dar luogo a due tipi di effetti:
- un effetto additivo;
- un effetto tampone.
Nel primo caso, la mancanza di controllo si unisce alle esigenze della situazione per creare delle
tensioni. Qui la chiave per ridurre le tensioni consiste, dunque, nel diminuire le esigenze del lavoro.
Nel secondo caso, la mancanza di controllo ha effetto solo nelle situazioni altamente esigenti, non
risulta, quindi, necessario diminuire l’esigenza al lavoro se il controllo è elevato.

Questo modello di distingue perché è fondato sull’interazione fra le esigenze ed il controllo.


194
Differisce dal Person/Environment fit model, che insiste, dal canto suo, sulle percezioni dell’individuo.
Rappresenta un sostegno ai tentativi di accrescere l’autonomia dell’individuo e la democrazia dei
luoghi lavoro, ma è talvolta considerato semplicistico. Per questo il modello iniziale è poi diventano
«modello domanda-controllo-sostegno». I risultati empirici in questo settore, sono tuttavia modesti.

Il modello «sforzi-ricompense»
Secondo Siegrist, il lavoro permette di accordare i bisogni psicologici essenziali, l’autostima e
l’autoefficacia, con la struttura sociale nella quale l’individuo esercita le proprie competenze.
Gli sforzi forniti dall’individuo, fanno parte di un processo di scambio sociale, al quale l’organizzazione
partecipa attraverso tre tipi di ricompense:
- il denaro;
- la stima;
- l’opportunità di carriera.
Questi effetti positivi del lavoro dipendono dalla capacità dell’individuo di controllare i propri benefici
(o le proprie ricompense) a lungo termine.
In questo modello, la nozione di controllo riguarda dunque i guadagni. Gli investimenti dell’individuo,
devono essere ripagati, e se egli percepisce uno squilibrio tra guadagni e costi, risentirà di uno
sconforto emozionale.
Siegrist predice che lo stress generato dallo squilibrio apparirà nelle tre seguenti situazioni:
- quando la mancanza di alternative sul mercato del lavoro impedisce all’individuo di lasciare un
lavoro, anche percepito come poco invidiabile;
- quando, per ragioni strategiche, i lavoratori accettando una situazione di squilibrio svantaggiosa
attualmente, al fine di aumentare le loro probabilità di promozione in un futuro;
- quando il comportamento dei lavoratori è caratterizzato da un impegno eccessivo; che si traduce in
sforzi eccessivi per rispondere alle esigenze del lavoro ed in un forte desiderio di essere approvato e
stimato. (Questo tipo di atteggiamento genera un errore percettivo, in quanto gli individui non sono
più in grado di valutare correttamente la ratio costi/benefici).
In sintesi, questo modello predice che lo stress lavorativo deriva o da uno squilibrio fra gli sforzi
estrinsechi (elevati) e le ricompense estrinseche (deboli), o da un livello elevato di impegno, o da una
combinazione di entrambi. Varie ricerche empiriche sostengono questo modello.

Il modello psicodinamico della salute: piacere e sofferenza al lavoro

195
Il modello psicodinamico si basa su un approccio della salute in termini di equilibrio psichico, ossia una
visione della salute psichica al lavoro. Questa è intesa in funzione di una interazione dinamica, da un
lato, fra l’organizzazione del lavoro con i suoi obiettivi e le sue costrizioni e, dall’altro, gli orientamenti
e le aspirazioni dell’individuo che cerca di realizzarsi.
Questa dinamica del lavoro costituisce una sfida psichica: se essa permette all’individuo di svilupparsi,
di procuragli piacere, allora il lavoro gli offre un’opportunità di esprimere i suoi desideri nel quadro
della sua partecipazione ad una squadra; ma se il lavoro gli impedisce questo tipo di investimento,
allora appare una sofferenza specifica contro la quale il lavoratore cercherà di difendersi, ma che
bloccherà l’espressione del suo investimento.
Il modello psicodinamico ha evidenziato dei fattori determinanti legati all’importanza della dimensione
soggettiva delle situazioni di lavoro.
Tre elementi entrano in gioco nella salute psichica sul lavoro:
1. tutto ciò che contribuisce a mantenere o a sviluppare l’equilibrio psichico sul lavoro. Questo è il
risultato di un adattamento al lavoro in cui si costruisce una relazione positiva che permette
globalmente all’individuo di realizzarsi. La realizzazione di sé sembra, dunque, tanto più elevata
quanto più la situazione professionale offre una “risonanza simbolica” creatrice di piacere e di senso;
2. un secondo fattore, complementare al precedente, riguarda le possibilità di investimento concreto
delle capacità cognitive, affettive, relazionali, che permette il lavoro. Quando il modo di lavorare è
vissuto come accettabile tanto a livello quantitativo che qualitativo, l’organizzazione è vissuta come
strutturante per l’identità;
3. il terzo fattore della salute psichica al lavoro, è legato al fatto che qualunque lavoro è oggetto di una
valutazione al tempo stesso sociale (il giudizio degli altri) e professionale (il bilancio di competenze). In
queste condizioni, un’organizzazione che valorizza il contributo degli impiegati e dei lavoratori
riconosce i compiti espletati e sviluppa il sentimento della loro utilità.
Questi tre fattori non devono essere intesi esclusivamente in termini di rapporto individuale, ma
anche in termini di rapporti collettivi al lavoro. Questo dimostra che l’organizzazione stessa del lavoro
deve essere pensata collettivamente e, per questo, essere facilitata da spazi di comunicazione che
permettono di affrontare collettivamente le attività, laddove sorga un problema.
L’importanza di questi tre fattori si manifesta nella vita di lavoro per il fatto stesso che, in numerosi
casi, l’organizzazione impedisce la loro espressione. Ne risulta un conflitto che mostra il carattere
patogeno del lavoro, e di conseguenza il suo impatto negativo sulla salute al lavoro.
Secondo il modello psicodinamico, il conflitto fra costrizione dell’organizzazione e desiderio
dell’individuo sfocia in uno stato di salute al lavoro contrassegnato da sofferenza, la quale può
manifestarsi con noia ed ansia.
Inoltre, la sofferenza al lavoro è essa stessa oggetto di lotta contro la sofferenza; essa si esprime in
modo specifico in meccanismi di difesa che sono al tempo stesso protettori ed adattivi.
Il modello psicodinamico, fornisce una griglia di lettura dei rapporti fra salute e lavoro che si basa su
una comprensione dell’equilibrio psichico o del disadattamento psichico prodotti dalle situazioni di
lavoro.

I temi maggiori e gli orientamenti futuri


196
Fino agli anni ‘60, ha prevalso una prospettiva individualista. Gli psicologi si interessavano alle
caratteristiche individuali in grado di insidiare l’adattamento, piuttosto che alle caratteristiche
pericolose del luogo di lavoro. Ma a partire dagli anni ’60, fermo restano l’interesse per i fattori
individuali, viene ampliamente preso in considerazione l’impatto dell’ambiente di lavoro sulla salute.

Le differenze interindividuali
Le caratteristiche individuali sono state oggetto di attenzione. Nell’ambito della sicurezza in
particolare, sono state ricercate le diposizioni psicologiche che differenziavano gli incidenti e i non-
incidenti.
Per molto tempo, le pratiche psicotecniche si sono indirizzate verso l’identificazione di dipendenti
predisposti agli incidenti sul lavoro. Ad esempio, si sono ricercati i disturbi del comportamento in
grado di perturbare la valutazione dei rischi al fine di selezionare il personale più adatto ad effettuare i
compiti previsti.
Queste pratiche sono state oggetto di vivaci critiche, perché fanno ricadere l’incidente sull’incidentato
stesso; per questo poco a poco l’attenzione si è spostata sulle caratteristiche del lavoro.
Le differenze interindividuali vanno prese in considerazione?
Le differenze individuali possono determinare l’esperienza dello stress e le sue conseguenze per la
salute. Anche qui, esse sono considerate come parte del processo di valutazione o come moderatori
del legame stress-salute. A livello del processo di valutazione primaria, le caratteristiche individuali
influenzano la percezione delle esigenze di lavoro.
In seguito, esse agiscono sulle capacità di fronteggiare queste esigenze (es: percezione da parte
dell’individuo delle proprie capacità).

Differenze individuali e paradigma dell’adattamento individuo-ambiente


Per capire il legame fra individuo, lavoro e stress, ci si è fortemente interessati alle variabili di
personalità.
A titolo di esempio, l’affettività negativa aumenta l’insoddisfazione legata al carico di lavoro.
Al contrario, un tratto come la resistenza (hardiness) distingue gli individui più adatti a far fronte allo
197
stress.
Tuttavia l’impatto dei tratti di personalità sullo stress lavorativo è complesso.
Semmer, sottolinea che vi è una tendenza, nella ricerca attuale, ad insistere sulle variabili individuali a
tal punto che lo stress è ridotto ad un insieme di caratteristiche personali (valutazione e
fronteggiamento) considerate come idiosincratiche. Questa posizione trascura il fatto che le differenze
invidiali studiate, sono spesse delle differenze fra gruppi o sotto-culture alle quali gli individui
appartengono (es: la nozione di gruppo vulnerabile).
Inoltre, dato che le variabili individuali studiate appartengono a vari registri (stile comportamentale,
cognitivo o affettivo, aspettative nei confronti del lavoro, qualificazione, ecc.) si rischia di arrivare ad
una lista infinita di caratteristiche personali in grado di esporre allo stress o di attivare il legame
stressor-salute.
Semmer, propone quindi una prospettiva integratrice. Riprendendo i lavori che definisco la personalità
come una gerarchia di obiettivi che vanno dalle disposizioni generali (es: affettività negativa) ai valori,
all’identità. Ai progetti personali ed ai compiti da realizzare, egli ipotizza che una situazione lavorativa
genererà stress se impedisce all’individuo di realizzare i suoi obiettivi. Le persone che hanno degli
obiettivi o degli scopi particolarmente elevati proveranno dunque maggiore stress quando i loro scopi
saranno minacciati, rispetto a persone che hanno degli obiettivi più modesti. Semmer afferma che le
differenze importanti di vulnerabilità allo stress devono essere ricercate negli scopi dell’individuo, che
siano relativi a dei compiti specifici, a dei progetti concreti, dei ruoli più o meno permanenti o anche a
delle identità globali. In ogni caso, lo stress apparirà quando gli scopi saranno minacciati, e gli scopi in
questione sono spesso, in realtà collettivi.
I lavori di Cherniss possono essere collocati in questa corrente di pensiero. Egli propone la nozione di
orientamento di carriera che rinvia al significato che il lavoro riveste per l’individuo, ai bisogni, ai valori
ed alle aspirazioni che egli spera di raggiungere con la sua professione.
Le sue analisi lo hanno portato a distinguere, quattro orientamenti:
il carrierista, che moltiplica gli sforzi al fine di ottenere il successo sociale e finanziario;
l’artigiano, animato dall’acquisizione e dall’esercizio di nuove esperienze;
l’egoista o l’autocentrato (self-investor), maggiormente coinvolto dalla sua vita privata che dalla sua
vita professionale;
l’attivista sociale, che milita sia per un cambiamento sociale che per un miglioramento delle sue
condizioni di lavoro.
Secondo Cherniss, esiste un ambiente di lavoro che conviene al meglio per ciascuno di questi
orientamenti. Tuttavia, egli ipotizza che il difetto di adattamento fra l’individuo ed il suo ambiente sarà
più sensibile per gli arrivisti sociali: avendo delle aspettative elevate, è probabile che la mancanza di
risorse materiali o finanziarie, sia risentito più duramente.

Differenze individuali e selezione dei lavoratori


Le differenze individuali possono servire come base per la selezione dei lavoratori?
E’ chiaro che per un posto di sommergibilista, è preferibile eliminare gli individui claustrofobici, ma più
in generale, escludere gli individui sulla base dello loro caratteristiche individuali non solo è illegale,
ma anche moralmente inaccettabile e poco affidabile dal punto di vista scientifico. Questo perché, le
caratteristiche individuali interagiscono con l’ambiente, ed avranno dunque un effetto diretto o
moderatore, ma tuttavia non è garantito che questi effetti si riproducano.

Salute e lavoro - Le cause organizzative


198
Dati i legami ampiamente accertati tra fattori organizzativi e salute, la formazione dei lavoratori e la
sistemazione dell’ambiente di lavoro risultano essere percorsi di ricerca e di intervento più validi.

Il conflitto di ruolo e l’ambiguità di ruolo


Il conflitto di ruolo rinvia alla presenza simultanea di comportamenti attesi ma contraddittori (es: per
un genitore occuparsi dei figli e fare carriera). In altre parole, un comportamento intralcia la
realizzazione di un altro comportamento.
Mentre il conflitto di ruolo genera comportamenti e scopi contraddittori, l’ambiguità di ruolo intralcia
la realizzazione degli obiettivi.
Essa appare quando le definizioni del ruolo e/o le attese di prestazioni non sono chiare.
L’ambiguità di ruolo può essere concepita come una mancanza di informazioni riguardo al modo più
efficace di svolgere il proprio lavoro.
Mentre il conflitto di ruolo è accompagnato da un sovraccarico di informazioni contraddittorie:
l’individuo rischia sempre di effettuare un compito che contraddice alcune aspettative.
In entrambi i casi, la prestazione è intralciata e la motivazione diminuirà, dato che i legami tra gli sforzi
e la prestazione da una parte e fra la prestazione ed i guadagni attesi dall’altra si affievoliscono.
Ricerche empiriche dimostrano che l’ambiguità di ruolo e/o il conflitto di ruolo sono associati ad una
riduzione della fiducia in sé, della soddisfazione sul lavoro, ad un aumento di ansia e depressione oltre
che del burn-out.

Il controllo e la partecipazione alle prese di decisione


Da una trentina d’anni, gli psicologi hanno riconosciuto i benefici psicologici e fisici che procuravano gli
ambienti controllabili. Essi hanno dimostrato che essere di fronte a situazioni o compiti non
controllabili, produce deficit cognitivi, affettivi e motivazionali. Di fatto, l’esercizio del controllo, ovvero
la capacità di fare delle scelte e di agire di conseguenza, ma anche la capacità di predire le
conseguenze delle proprie azioni, è segno di benessere.
Le ricerche empiriche hanno mostrato in modo consistente che un debole controllo e/o
un’impossibilità di prendere delle decisioni, sono associate a dei disturbi disforici (stress, apatia, ansia,
199
depressione), ad una caduta dell’autostima e ad un aumento dei disturbi cardio-vascolari.

Le relazioni interpersonali
Le interazioni al lavoro sono state studiate soprattutto in relazione al supporto sociale.
Quando un lavoratore percepisce che le sue relazioni di lavoro sono caratterizzare da una mancanza di
supporto sociale, egli risentirà stress e proverà una debole soddisfazione professionale.
In parallelo, i rischi di sviluppare delle malattie cardio-vascolari aumenteranno.
L’efficacia reale del supporto sociale è soggetto di numerose polemiche, tuttavia vi è accordo nel
pensare che nel lavoro, un supporto sociale elevato da parte dei colleghi o della gerarchia ha un
effetto diretto sul benessere psicologico e fisico, e può avere un effetto tampone sulle situazioni
stressanti.
Al contrario, i conflitti fra colleghi, fra subordinati e gerarchia, o nelle relazioni di servizi, fra
professionisti e clienti, sono fonti di stress, di ansia e di condotte di dipendenza.
Delle ricerche basate sulla teoria dell’equità hanno dimostrato che delle relazioni percepite come
inique non generano semplicemente un sentimento di ingiustizia, ma anche burn-out.
Il burn-out è definito come sindrome da esaurimento emotivo, di depersonalizzazione e di ridotta
realizzazione personale che insorge negli individui che operano a contatto con altre persone.
L’esaurimento emotivo rinvia al fatto che la persona è ”svuotata nervosamente”, ha perso qualunque
entusiasmo, non è più motivata dal proprio lavoro.
Esso è associato a fattori di tensione psicologica, di ansia, di fatica fisica. La depersonalizzazione
corrisponde a degli atteggiamenti impersonali, negativi, cinici verso i clienti o i pazienti.
Infine, con la realizzazione personale ridotta, l’individuo valuta se stesso in modo negativo, non
attribuendosi alcuna capacità di far avanzare le cose.

Il contenuto del lavoro


Il sovraccarico di lavoro è una fonte di stress evidente.
Si può distinguere il carico quantitativo (quantità di lavoro da compiere) ed il carico qualitativo (la
difficoltà del lavoro), ed il carico di ruolo che rinvia alle situazioni nelle quali i lavoratori hanno troppe
responsabilità.
Queste tre dimensioni, relativamente indipendenti, possono combinarsi e dare luogo a diversi tipi di
situazioni.
In generale, comunque, lavoratori che dicono di avere troppo lavoro o troppe scadenze da rispettare
hanno più stress rispetto ai loro colleghi meno carichi.
Se l’individuo fa fronte a questi stress allungando le sue giornate, rischia di esporsi, nel corso del
tempo, a maggiori disturbi, fatica e dolori fisici quali mal di schiena.
E’ bene sottolineare che il lavoro è una fonte potenziale di rischi psicologici ma anche fisici, e questi
ultimi hanno un effetto diretto sulla salute, accompagnato da un effetto indiretto, mediato
dall’esperienza dello stress.
Il rumore è un esempio: ha un effetto fisico diretto (danni all’apparato uditivo), ma disturba anche le
comunicazioni, e se persiste, può causare ansia, irritabilità, fatica e stress.
Tuttavia, pochi studi testano direttamente il legame fra i rischi fisici, lo stress e l’ansia.

La prevenzione
Si possono distinguere tre tipi di prevenzione: primaria, secondaria e terziaria.
Con la prevenzione primaria, si tratta di prevenire lo stress agendo sulle sue origini o sui fattori
favorenti.
Il bersaglio dell’intervento può essere l’individuo, l’organizzazione, l’interfaccia
200
individuo/organizzazione (selezionare le persone più adatte per un compito).
L’obiettivo è in generale quello di identifica e modificare le caratteristiche potenzialmente stressanti
dell’ambiente di lavoro o dell’individuo, oppure di creare ambienti di lavoro privi di stress.
La prevenzione secondaria cerca di ridurre le conseguenze dello stress prima che queste assumano
proporzioni più gravi. In questo caso, l’oggetto di intervento è principalmente il lavoratore.
La maggior parte degli interventi cerca, quindi, di addestrare i lavoratori nel ridurre lo stress.
La critica più comune è che essi non cercano di ridurre la fonte dello stress, ma semplicemente di
insegnare agli individui i mezzi efficaci per farvi fronte.
La prevenzione terziaria interviene laddove l’individuo abbia subito un trauma profondo,
proponendogli un trattamento o una modificazione delle condizioni di lavoro, con l’obiettivo di un
ritorno all’occupazione. In questo caso, in termine prevenzione può apparire inappropriato, ecco
perché alcuni preferiscono parlare di trattamento, riabilitazione o riadattamento.

Gli interventi centrati sull’individuo


Gli interventi più semplici possono consistere nel fornire agli individui delle informazioni sui sintomi, gli
effetti o le cause dello stress.
Alla base di alcune tecniche, vi è la convinzione che, per combattere lo stress, sia necessario che
l’individuo ne riconosca i sintomi e gli effetti.
Una delle tecniche impiegate è il «diario di bordo» o «quaderno di stress». E’ un metodo effettivo per
identificare le cause dello stress e il livello di stress che l’individuo preferisce. Egli annoterà, ad
esempio, l’ora, il luogo, il contesto, i fattori che hanno reso l’evento stressante, le sue reazioni.
In più settimane, questo quaderno permette di identificare le fonti di stress, la loro frequenza, il loro
contesto e le variazioni del suo livello.
Al fine di ridurre gli stati negativi, accanto alle tecniche di rilassamento e altre guide destinate ad
adottare uno stile di vita più sano, alcune tecniche si basano sulle terapie cognitive comportamentali.
È il caso per esempio, dell’allenamento all’inoculazione dello stress di Meichenbaum (questa tecnica è
basata su una concezione cognitiva dello stress; Meichenbaum insiste sul fatto che gli individui
stressati hanno dei pensieri intrusivi, delle cognizioni auto disfattiste che generano un fenomeno di
conferma comportamentale).
Questa tecnica comporta tre fasi:
- una fase di concettualizzazione in cui si tratta di insegnare alle persone la natura cognitiva dello
stress, di portarle ad identificare i loro pensieri negativi, intrusivi o generatori di stress;
- una fase di acquisizione delle competenze. L’individuo impara le procedure che gli permettono di far
fronte allo stress;
- una fase di applicazione delle competenze. In situazioni concrete, l’individuo si allena ad applicare le
nuove competenze.
L’interesse di questa tecnica risiede nel fatto che essa è attiva, breve e incentrata su un problema
specifico. Viene spesso applicata con successo nel mondo del lavoro, permettendo ai lavoratori di
acquisire strategie di fronteggiamento più efficaci.

Gli interventi centrati sull’organizzazione


A livello di organizzazione, la prevenzione primaria può innanzitutto consistere nell’osservare il livello
di stress nell’istituzione. Grazie a questo «controllo accurato sullo stress», è possibile, se ripetuto ad
intervalli regolari, misurare l’evoluzione del clima organizzativo e sviluppare eventualmente dei
programmi di azione. Questi controlli permettono anche di confrontare i lavoratori in funzione della
loro unità di lavoro, del tipo di compito di management.
Per designare e promuovere un ambiente di lavoro privo di fonti di tensione, si fa spesso riferimento
201
alla nozione di organizzazione sana.
Le proposizioni avanzate sono spesso basate, implicitamente o esplicitamente, sulle nozioni di equità e
di controllo.
Si suggerisce, così, di basarsi sui controlli di stress, al fine di equilibrare i bisogni, ad esempio
informandoli e coinvolgendoli, e di favorire una comunicazione ascendente e discendente.
Non si tratta, dunque, solo di agire sugli individui insegnando loro a far fronte meglio allo stress, o di
ridefinire l’ambiente di lavoro, ma di ridefinire le aspettative, gli obblighi reciproci, le interazioni
datori-lavoratori.

202