Sei sulla pagina 1di 291

Neuropsicologia della comunicazione

Michela Balconi

Neuropsicologia
della comunicazione

123
Michela Balconi
Dipartimento di Psicologia, Università Cattolica del Sacro Cuore, Milano
michela.balconi@unicatt.it

ISBN 978-88-470-0705-5 e-ISBN 978-88-470-0706-2

Springer-Verlag fa parte di Springer Science+Business Media


springer.com
© Springer Italia 2008

Quest’opera è protetta dalla legge sul diritto d’autore. Tutti i diritti, in particolare quelli relativi alla
traduzione, alla ristampa, all’utilizzo di illustrazioni e tabelle, alla citazione orale, alla trasmissione
radiofonica o televisiva, alla registrazione su microfilm o in database, o alla riproduzione in qualsia-
si altra forma (stampata o elettronica) rimangono riservati anche nel caso di utilizzo parziale. La
riproduzione di quest’opera, anche se parziale, è ammessa solo ed esclusivamente nei limiti stabiliti
dalla legge sul diritto d’autore ed è soggetta all’autorizzazione dell’editore. La violazione delle norme
comporta le sanzioni previste dalla legge.

L’utilizzo in questa pubblicazione di denominazioni generiche, nomi commerciali, marchi registrati


ecc., anche se non specificatamente identificati, non implica che tali denominazioni o marchi non siano
protetti dalle relative leggi e regolamenti.
Responsabilità legale per i prodotti: l’editore non può garantire l’esattezza delle indicazioni sui dosaggi
e l’impiego dei prodotti menzionati nella presente opera. Il lettore dovrà di volta in volta verificarne
l’esattezza consultando la bibliografia di pertinenza.

Layout copertina: Simona Colombo, Milano


Coordinamento editoriale e impaginazione: Ferrari – studio editoriale, Cologno Monzese (Milano)
Stampa: Arti Grafiche Nidasio, Assago (Milano)

Stampato in Italia
Springer-Verlag Italia S.r.l., Via Decembrio, 28 – 20137 Milano
Prefazione

Che la comunicazione sia divenuta oggetto di analisi autonomo, seppure non indi-
pendente, dal linguaggio costituisce un elemento di importante riflessione e di novi-
tà rispetto al panorama configuratosi negli scorsi decenni. La comunicazione è stata
analizzata dapprima come facoltà e in tempi più recenti come processo, individuan-
do lo stretto rapporto che essa intrattiene con le funzioni cognitive. In secondo
luogo, filosofia del linguaggio, psicolinguistica e scienze cognitive hanno consenti-
to di arricchire il panorama esistente, contribuendo a evidenziare la necessità di inte-
grare il tradizionale dominio di studio del linguaggio e successivamente l’esigenza
di riconoscere la comunicazione come campo autonomo, che abbraccia aspetti tra
loro differenti, come le scienze sociali (social cognition), i domini di rappresentazio-
ne concettuale, così come le funzioni di più alto livello (metacognizione). Più in
generale, parlare oggi di significato e di significazione richiede la confluenza di
sistemi multipli, accomunati dall’attenzione posta sull’individuo come agente che si
pone in interazione con altri individui per modificare reciprocamente sistemi di rap-
presentazione e di relazioni.
Ancora più recente è l’accostamento tra psicologia della comunicazione e disci-
plina neuropsicologica. Per come quest’ultima si è sviluppata, in stretta relazione allo
studio del linguaggio, essa oggi appare occuparsi solo embrionalmente dei processi
comunicativi in senso stretto. Si pensi, a titolo esemplificativo, all’insieme dei cosid-
detti fenomeni pragmatici, la cui indagine richiede un’adeguata rispondenza, sia teo-
rica sia metodologica, alla complessità dei processi implicati (ad esempio, il concet-
to di contesto, di modelli inferenziali, di componenti extralinguistiche ecc.). Inoltre,
l’accostamento richiede metodologie di analisi sufficientemente sofisticate da con-
sentire un’adeguata rappresentazione dei contesti interpersonali entro cui la comuni-
cazione ha luogo: ad esempio, comprendere un enunciato ironico richiede una speci-
fica operazionalizzazione del concetto di rappresentazione delle intenzioni dei parlan-
ti o di script interpretativo. La neuropsicologia, in altri termini, deve essere in grado
di operare su processi non più “chiusi nella mente” del singolo individuo, ma piutto-
sto “agiti” in specifici contesti interazionali. D’altro canto, appare un segnale positi-
vo il riconoscimento della necessità di articolare il campo di indagine in direzioni
multiple, dando vita a settori emergenti come quello della neuropragmatica.
Un tributo va alle sempre più copiose ricerche empiriche che consentono di spie-
gare alcuni meccanismi salienti, come i processi di mentalizzazione, di riconosci-
mento delle inferenze o, ancora, di interpretazione di un’intenzione.
VI Prefazione

Nel complesso, la ricerca neuropsicologica applicata alla comunicazione appa-


re come una sfida piuttosto che come un traguardo raggiunto, soprattutto in relazio-
ne ad alcuni fenomeni peculiari. Ci riferiamo, in particolare, all’ambito della comu-
nicazione non strettamente confinata al verbale, ma rivolta piuttosto al complesso
insieme di sistemi non-verbali. Per alcuni di questi, come il sistema vocale, le cono-
scenze appaiono ancora ridotte. Parallelamente, ancora poco è stato indagato circa
il rapporto tra componenti neuropsicologiche e comunicazione gestuale. Più avan-
zato risulta, invece, lo studio della comunicazione delle emozioni, con particolare
riferimento alla mimica facciale.
Un’ulteriore sfida accomuna i differenti approcci neuropsicologici che hanno
posto come proprio oggetto di analisi la comunicazione. Essa riguarda la possibili-
tà di integrare metodologie e strumenti a disposizione, con l’intento di conferire
maggiore solidità e consonanza ai risultati di ricerca. Tra gli altri, l’integrazione
auspicata tra indici psicofisiologici e neuropsicologici in senso stretto ha consenti-
to in alcuni casi di meglio precisare il contributo di modelli teorici o, al contario, di
mettere in discussione prospettive consolidate.
Per fare più stretto riferimento al piano organizzativo dell’opera, nella prima
parte del volume (Neuropsicologia “per” il linguaggio e la comunicazione) le più
recenti acquisizioni della neuropsicologia hanno consentito di focalizzare la natura
dei processi linguistici e comunicativi, individuando i correlati anatomici sottostan-
ti alla produzione (encoding) e alla comprensione (decoding) dello scambio comu-
nicativo (Capitolo 1). Il secondo capitolo esplora i paradigmi, i metodi e gli stru-
menti della neuropsicologia “per” la comunicazione. In particolare viene fornita
una sintesi dei più recenti approcci di ricerca e degli strumenti empirici applicati
allo studio del processo comunicativo, tra i quali la rilevazione dei correlati psico-
fisiologici (indici periferici), cognitivi (indici centrali, tra cui i potenziali evento-
correlati), nonché le più recenti rilevazioni mediante neuroimaging (come la riso-
nanza magnetica funzionale). La seconda sezione prende in considerazione i con-
tributi dell’elettrofisiologia con riferimento ai processi sottostanti alla produzione e
alla comprensione del linguaggio, di maggiore pertinenza della psicolinguistica
(Capitolo 3). Gli strumenti neuropsicologici consentono, infatti, di distinguere i
meccanismi sottostanti all’elaborazione del linguaggio, tra cui i piani di analisi les-
sicale, morfologica, sintattica e semantica, dal più complesso processo di costruzio-
ne del significato pragmaticamente definito.
Nella seconda parte del volume (Aspetti pragmatici della comunicazione. Indici
psicofisiologici, neuropsicologici e cognitivi) sono state prese in considerazione le
componenti pragmatiche della comunicazione. Il Capitolo 4 affronta il complesso
tema della comunicazione idiomatica, prendendo in esame le più recenti evidenze
empiriche sull’argomento. L’applicazione di indici psicofisiologici, come i poten-
ziali evento-correlati (ERP), alle stringhe non composizionali, costituisce il tema
centrale del capitolo successivo (Capitolo 5). Oggetto del sesto capitolo è la presen-
tazione di un’ampia panoramica relativa ai recenti modelli che hanno focalizzato la
propria attenzione sul ruolo prioritario del “voler dire” nella comunicazione ordi-
naria, in riferimento ad alcuni fenomeni peculiari dello scambio comunicativo.
Specificamente facciamo riferimento ai fenomeni dell’ironia e, più in generale, del
linguaggio figurato. Particolare attenzione è stata riservata alle recenti acquisizio-
Prefazione VII

ni empiriche che hanno sottolineato l’indipendenza delle componenti pragmatiche


rispetto al piano prettamente “linguistico”. Il complesso rapporto tra intenzione,
sistemi di coscienza e azione comunicativa è stato analizzato nel Capitolo 7. Un
argomento ampiamente dibattuto nell’ambito della psicologia del linguaggio e della
comunicazione è relativo infatti al ruolo dei processi volontari (consci) rispetto ai
processi automatici (non consci) nella produzione e nella comprensione dello
scambio comunicativo.
La terza parte del volume (Comunicazione non-verbale delle emozioni) analiz-
za il piano comunicativo non-verbale, con particolare attenzione alla comunicazio-
ne delle emozioni. Recenti ricerche con neuroimaging hanno evidenziato, infatti, la
complessità del sistema di comunicazione non-verbale delle emozioni, nonché l’in-
dipendenza dei diversi codici comunicativi, poiché supportati da moduli (o net-
work) corticali specifici. Più specificamente vengono prese in considerazione le
principali caratteristiche e le funzioni della comunicazione non-verbale (Capitolo
8). Un capitolo specifico (Capitolo 9) è dedicato alla neuropsicologia della mimica
facciale nell’encoding e nel decoding delle emozioni, con riferimento ai risultati
empirici più significativi degli ultimi anni. Ampio spazio è, inoltre, dedicato al rap-
porto tra emozioni, componenti di personalità e misure psicofisiologiche (Capitolo
10). Di notevole interesse per l’approccio neuropsicologico sono le modificazioni
dei parametri fisiologici nell’individuo, che consentono di ricostruire la poliedrici-
tià dell’universo emotivo, con particolare riferimento alle variazioni di natura peri-
ferica (quali la conduttanza cutanea, ad esempio). Infine, ampio spazio è dedicato
all’integrazione dei codici comunicativi (in particolare, quello vocale e quello
mimico) nella comunicazione delle emozioni (Capitolo 11). Recenti contributi spe-
rimentali mutuati dalla neuropsicologia consentono, infatti, di definire una differen-
te risposta dei soggetti a pattern congruenti (convergenza di codici) o incongruen-
ti (divergenza di codici), sia sul piano percettivo sia su quello cognitivo.
Mi auguro che il volume possa essere di utilità per coloro che lavorano in questo
settore; a opera ultimata il mio ringraziamento va alle persone, che, a titolo differente,
hanno contributo alle diverse fasi di realizzazione di questo volume, dall’ideazione del
medesimo alla sua nascita virtuale e poi reale. Alle persone professionalmente a me
più vicine, che ne hanno sostenuto il cammino di produzione. A mio marito, il cui con-
tributo è incommensurabilmente presente.

Milano, dicembre 2007 Michela Balconi


Dipartimento di Psicologia
Università Cattolica del Sacro Cuore
Indice

Parte I – Neuropsicologia “per” il linguaggio e la comunicazione

1 Basi biologiche dei sistemi linguistici e comunicativi.


Dalla neurolinguistica alla neuropragmatica ..................................... 3
M. Balconi

2 Metodi e strumenti di analisi della neuropsicologia


applicata al linguaggio e alla comunicazione ..................................... 51
M. Balconi

3 Elettrofisiologia del linguaggio.


Meccanismi di comprensione del linguaggio attraverso
i potenziali elettromagnetici correlati a eventi ................................... 91
A. Mado Proverbio

Parte II – Aspetti pragmatici della comunicazione.


Indici psicofisiologici, neuropsicologici e cognitivi

4 Comprensione di espressioni idiomatiche:


evidenze neuropsicologiche................................................................... 121
C. Papagno

5 Aspettative semantiche ed espressioni idiomatiche:


aspetti psicolinguistici ed evidenze elettrofisiologiche ....................... 139
C. Cacciari, F. Vespignani, N. Molinaro, S. Fonda, P. Canal

6 Dalla pragmatica alla prospettiva neuropragmatica......................... 163


M. Balconi, S. Amenta

7 Intenzioni comunicative, strategie di azione


e funzioni metacognitive ....................................................................... 183
M. Balconi
X Indice

Parte III – Comunicazione non-verbale delle emozioni

8 Sistemi di comunicazione non-verbale ................................................ 203


M. Balconi

9 Neuropsicologia delle espressioni facciali ........................................... 225


M. Balconi

10 Emozioni, temperamento e personalità: aspetti psicofisiologici....... 249


V. De Pascalis

11 Percezione cross-modale delle emozioni.


Sincronizzazione di codici comunicativi ............................................. 275
M. Balconi, A. Carrera

Indice analitico ............................................................................................. 289


Elenco degli Autori

Simona Amenta
Dipartimento di Psicologia, Università Cattolica del Sacro Cuore, Milano

Michela Balconi
Dipartimento di Psicologia, Università Cattolica del Sacro Cuore, Milano

Cristina Cacciari
Dipartimento di Scienze Biomediche, Università degli Studi di Modena e Reggio
Emilia, Modena

Paolo Canal
Dipartimento di Scienze Biomediche, Università degli Studi di Modena e Reggio
Emilia, Modena

Alba Carrera
Dipartimento di Psicologia, Università Cattolica del Sacro Cuore, Milano

Vilfredo De Pascalis
Facoltà di Psicologia 1, Università degli Studi di Roma “La Sapienza”, Roma

Sergio Fonda
Dipartimento di Scienze Biomediche, Università degli Studi di Modena e Reggio
Emilia, Modena

Nicola Molinaro
Dipartimento di Scienze della Formazione e della Cognizione, Università degli Studi
di Trento, Rovereto (TN)

Costanza Papagno
Dipartimento di Psicologia, Università degli Studi di Milano-Bicocca, Milano

Alice Mado Proverbio


Dipartimento di Psicologia, Università degli Studi di Milano-Bicocca, Milano

Francesco Vespignani
Dipartimento di Scienze della Formazione e della Cognizione, Università degli Studi
di Trento, Rovereto (TN)
Parte I
Neuropsicologia “per”
il linguaggio e la comunicazione
Capitolo 1
Basi biologiche dei sistemi
linguistici e comunicativi.
Dalla neurolinguistica alla neuropragmatica
Michela Balconi

1.1 Introduzione: neuropsicologia


“per” il linguaggio e per la comunicazione

La specie umana si caratterizza per la propria capacità di costruire strumenti, tra i


quali il principale è il linguaggio. Utilizziamo il linguaggio per comunicare i nostri
pensieri e sentimenti agli altri, attraverso la combinazione sistematica di suoni,
gesti, simboli scritti. Tale abilità consente di raggiungere la mente altrui a distanza
temporale e spaziale. Il linguaggio dà forma alla nostra struttura sociale e costitui-
sce il mezzo più potente per mediare stati emotivi e relazioni interpersonali. Tali
proprietà danno forma e caratterizzano in termini imprescindibili i sistemi lingui-
stici e comunicativi.
La comprensione del linguaggio richiede specifiche competenze, tra cui il saper
ricavare strutture all’interno di un flusso di input visivi e uditivi a differenti livelli [1, 2].
A partire dai segnali sensoriali sono costruiti i fonemi, i morfemi, le sillabe, le paro-
le, le frasi, il discorso e, più in generale, la struttura concettuale della conoscenza.
Tali livelli sono strutturati in modo flessibile e ciascuno di noi è in grado di costrui-
re ex novo stringhe di suoni o di segni mai uditi o prodotti in precedenza. D’altro
canto, il parlante, oltre a comprendere gli input linguistici, convertendo i concetti in
una serie di comandi motori, è in grado di produrre cambiamenti sistematici nel trat-
to vocale o nel sistema motorio sino ad ottenere una comunicazione complessa, sia
di tipo verbale che non-verbale.
In anni recenti, sempre più insistentemente, si è fatta largo la questione del rap-
porto tra i processi linguistici e comunicativi e la componente biologica che li sup-
porta, ovvero la struttura corticale sottostante. In altri termini, ci si è domandato
quale sia la natura della relazione che sussiste tra competenza linguistica e comuni-
cativa e neuropsicologia. Inoltre, esaminando il percorso neurofisiologico della pro-
duzione e comprensione del linguaggio, si arriva a domandarsi come la struttura e la
flessibilità del cervello possono mediare la struttura e la flessibilità del linguaggio.
Quali sono le aree maggiormente implicate nel processo comunicativo e quali fun-
zioni svolgono in relazione a esso? In che misura e in quale ordine temporale esse
sono coinvolte nei diversi aspetti del linguaggio e della comunicazione? In genera-
le, i dati neuropsicologici sono in grado di testare la plausibilità psicologica dei dif-

M. Balconi (ed.), Neuropsicologia della comunicazione. © Springer 2008


4 M. Balconi

ferenti tipi di rappresentazioni/costrutti previsti dai principali modelli psicolinguisti-


ci (neurolinguistica) [3, 4]. Ad esempio, la psicolinguistica ha ipotizzato l’esistenza
di un lessico strutturato (o dizionario mentale) di termini che mediano le associazio-
ni tra gli aspetti fonologici, ortografici, morfologici e semantici [5, 7]. In che misu-
ra siamo in grado di rilevare evidenze a favore di (o contro) tali livelli rappresenta-
zionali e della loro organizzazione nel cervello?
I dati neuropsicologici consentono di informare le teorie circa il modo con cui
varie rappresentazioni sono utilizzate durante la produzione e la comprensione del
linguaggio. Alcuni modelli, ad esempio, suppongono che determinati sottoprocessi
linguistici siano istanziati in moduli altamente specializzati e indipendenti [8, 9].
Tali approcci predicono che le aree corticali elaborano differenti tipi di rappresenta-
zioni avendo una influenza ridotta l’una sull’altra e divenendo attive in una specifi-
ca sequenza temporale (ad esempio, la sintassi prima della semantica e quest’ultima
prima della pragmatica) [10, 11]. L’approccio interazionista, al contrario, sostiene
che i livelli di elaborazione inferiori non siano indipendenti da quelli superiori ma,
piuttosto, che interagiscano con essi in continuo [12, 13].
Un’altra questione riguarda la misura in cui la struttura del linguaggio deriva da
processi neurobiologici linguaggio-specifici di funzionamento o, al contrario, come
tali processi siano condizionati da vincoli cognitivi generali, quali la disponibilità
di risorse attentive o della memoria di lavoro. In altri termini, i dati neurobiologici
consentono non solo di comprendere la natura della rappresentazione linguistica e
dei processi che operano su di essa ma anche di rivelare come il linguaggio si svi-
luppa e come possa venire compromesso in caso di trauma o deficit [14, 15]. In
generale, è necessario definire a quali fattori il cervello sia sensibile e come tali fat-
tori possano incidere sulle funzioni linguistiche e comunicative.
Infine, esistono funzioni specifiche per il linguaggio in uso, ovvero per le fun-
zioni comunicative che consentono di dare senso alla comunicazione nei contesti
comunicativi reali e “situati”? Lo studio degli aspetti pragmatici attraverso la neu-
ropsicologia (neuropragmatica, per questo concetto si veda anche il paragrafo 1.6)
ha aperto nuove prospettive su come la comunicazione possa avvenire, garantendo
la mutua condivisione di significati all’interno di contesti conversazionali [16].
Occorre tuttavia a questo punto introdurre alcune distinzioni rilevanti, innanzi-
tutto evidenziando la ragione d’essere di una doppia dicotomia che abbiamo ripor-
tato in precedenza tra funzioni linguistiche e funzioni comunicative e tra capacità di
produrre e di comprendere i significati. Rispetto al primo piano, la distinzione pro-
posta è finalizzata a individuare le componenti distintive dei processi che sono stati
trattati indipendentemente l’uno dall’altro, qui riproposta con un intento di sintesi
e integrazione. Occorre infatti sottolineare che tale dicotomia è di natura fittizia,
poiché linguaggio e comunicazione costituiscono due piani tra loro contigui, appar-
tenenti a un unico dominio finalizzato alla trasmissione dei significati tra i parlan-
ti. Distinguere tra un linguaggio astratto le cui proprietà sono determinate in assen-
za di contesto è infatti funzionale allo studio teorico, ma non rispondente alle reali
condizioni di utilizzo [17]. L’atto comunicativo si realizza in forma intenzionale tra
due o più parlanti come scambio reciproco e mutua comprensione di significati.
Pertanto, il linguaggio è al servizio del più ampio processo comunicativo, che pre-
vede la compresenza, reale o virtuale, di due o più individui in interazione.
1. Basi biologiche dei sistemi linguistici e comunicativi 5

Rispetto al secondo piano, occorre tenere presente che la complessità dell’atto


comunicativo risiede nella duplice richiesta di elaborare significati per la loro tra-
smissione (processo in uscita) e di elaborare significati per la loro ricezione (pro-
cesso in entrata). Diviene quindi necessario introdurre la distinzione tra produzio-
ne e comprensione, in quanto aspetti collegati ma tra loro indipendenti. Infatti,
come avremo modo di osservare, anche sul piano neuropsicologico, deficit relativi
alle funzioni di produzione dei significati non comportano necessariamente la com-
promissione delle funzioni di comprensione e viceversa [18-20].
Adottando l’ottica della neuropsicologia cognitiva, nel presente capitolo foca-
lizzeremo i processi linguistici e comunicativi, considerando le competenze richie-
ste a un parlante per produrre e per comprendere un messaggio e il funzionamento
dei sistemi preposti a tali funzioni. La prima parte del capitolo sarà volta a illustra-
re lo stato dell’arte circa le componenti strutturali anatomiche sottese alla produ-
zione del linguaggio e della comunicazione. In secondo luogo, uno sguardo parti-
colare sarà rivolto alle fasi di sviluppo delle competenze linguistiche e comunicati-
ve in termini sia filogenetici sia ontogenetici. Seguirà l’analisi delle principali fun-
zioni del linguaggio alla luce dei sistemi (morfologico, sintattico, semantico e con-
cettuale) che lo caratterizzano, in un’ottica di indipendenza funzionale dei princi-
pali processi coinvolti. Nella seconda parte, la nostra trattazione sarà focalizzata
sulle componenti più specificamente comunicative, con attenzione alla dimensione
pragmatica (proprietà prosodiche, del discorso, della conversazione e competenze
sociali). Considereremo il concetto di pragmatica in termini ampi, oltre il confine
posto dalla pragmatica e dalla neuropragmatica cognitiva [21, 22], spostando il
fuoco attentivo dal prodotto comunicativo (ad esempio, la comunicazione ironica o
le proprietà del discorso) ai processi attivati dal parlante e alle caratteristiche che
sono loro intrinseche.

1.2 Proprietà e funzioni del processo linguistico e comunicativo

È necessario innanzitutto definire alcune premesse comuni ai processi linguistici e


comunicativi. In particolare, focalizziamo quattro aspetti che caratterizzano il
nostro dominio di analisi: la molteplicità strutturale e funzionale dei sistemi che
presiedono al linguaggio e alla comunicazione; la multicomponenzialità dei siste-
mi, in particolare per quanto concerne le componenti comunicative non-verbali; il
loro dinamismo intrinseco; l’evoluzione delle competenze linguistiche e comunica-
tive nel corso dello sviluppo.

In primo luogo, rispetto alla molteplicità strutturale è necessario precisare


che le componenti neurofisiologiche sottostanti al linguaggio e alla comunica-
zione sono tra loro eterogenee [23]. Tale varietà si riferisce alla molteplicità di
strutture corticali e sottocorticali che presiedono alla regolazione delle differen-
ti funzioni implicate [24]. Nel corso del tempo si sono susseguiti modelli di
diversa natura, volti a sintetizzare la mappa cerebrale delle principali operazio-
ni connesse alla produzione e alla comprensione del linguaggio e della comuni-
6 M. Balconi

cazione. Attualmente è possibile concludere a favore di una molteplicità di strut-


ture coinvolte sia in funzione delle differenti tipologie di unità funzionali impli-
cate (si veda il paragrafo seguente) sia relativamente alle due componenti di pro-
duzione e comprensione [25]. Nonostante non sia ancora possibile definire una
mappa che individui una corrispondenza uno-a-uno tra specifici processi e spe-
cifiche strutture corticali essi dedicate, in alcuni casi è stato riconosciuto un
chiaro contributo di alcune componenti corticali e sottocorticali alle principali
funzioni comunicative. Occorre precisare sin da ora che il termine mappa corti-
cale non si riferisce, come supposto in precedenza, a specifiche aree localizzate
e circoscritte; piuttosto, attualmente, si preferisce fare riferimento a modelli
“distribuiti” [26] e non “localizzati”.

La molteplicità funzionale del processo linguistico e comunicativo è riassumi-


bile in una gerarchia di funzioni tra loro interconnesse. Le componenti più propria-
mente ascritte alle funzioni linguistiche sono così sintetizzabili:

– componenti fonologiche (i fonemi, le loro funzioni e le regole che ne governa-


no l’organizzazione);
– morfologia (le più piccole unità dotate di significato di una lingua, possono
anche essere singoli fonemi), che comprende la forma delle parole e le relative
variazioni a seconda del significato e delle loro funzioni;
– lessico, o livello delle parole (combinazione di fonemi aventi significato con-
cettuale);
– sintassi, livello che comprende la modalità di associare le parole per costruire
un sintagma (gruppo minimo di elementi significativi componenti l’unità base
della struttura sintattica di una frase), una proposizione o un periodo;
– semantica, pertiene al livello del significato di singole parole o di unità più
complesse (proposizione o periodo).

In una posizione sovraordinata rispetto alle precedenti, si colloca la grammati-


ca intesa come metadimensione che riguarda l’insieme di regole applicate agli ele-
menti costitutivi della lingua e che ne regolano le modalità d’uso.
Da ultimo, la pragmatica, o piano del significato nel contesto, che considera
il linguaggio come sistema finalizzato a “comunicare” oltre che a “dire” [27, 28].
Identificato generalmente con il “voler dire” del parlante, pertiene più propria-
mente alle funzioni della comunicazione in senso lato (al riguardo si veda anche
il paragrafo 1.6). Pur senza adottare una prospettiva di analisi di tipo “componen-
ziale” [29], consideriamo il livello pragmatico come sovraordinato rispetto ai
precedenti, in quanto attivo su di un registro rappresentazionale più ampio dei
livelli tipicamente riferiti al linguaggio [30]. In realtà, tale livello di significazio-
ne si serve delle componenti linguistiche e non-linguistiche (non-verbali) per
comunicare qualcosa. Queste ultime componenti si rifanno al piano extralingusi-
tico, deputato principalmente a manifestare intenzioni e scopi, pensieri ed emo-
zioni del parlante. A fronte della più generica finalità di veicolo o mezzo per
costruire significati, propria del linguaggio, la pragmatica comunicativa assolve
a un compito più ampio, in quanto strumento finalizzato alla regolazione del
1. Basi biologiche dei sistemi linguistici e comunicativi 7

mutuo scambio, fondato sulla condivisione di piani intenzionali [31]. Attraverso di


essa la comunicazione può garantire la trasmissione di significati tra gli individui,
può regolare la relazione e definire i confini psicologici dell’interazione. Facendo
riferimento al piano della competenze cognitive richieste dal livello pragmatico,
occorre includere anche l’insieme delle competenze inferenziali (ostensivo-infe-
renziale secondo il modello di Sperber e Wilson [30]), le capacità di attribuire stati
mentali (più ampiamente incluse nel concetto di teoria della mente [32]), di defi-
nire funzioni sociali (comprensione dei ruoli ecc. [33, 34]), di regolare lo scambio
(turni di eloquio, reciprocità) [35]. Un accento particolare viene posto sul ruolo del
contesto (qui utilizzato nella sua accezione più ampia) nelle sue componenti di
natura cognitiva, ma anche del più ampio contesto emotivo entro cui la comunica-
zione si situa (come nel caso della prosodia emotiva) [36].
In particolare, ci poniamo l’obiettivo di andare oltre i limiti posti dalla prag-
matica cognitiva e dalla neuropragmatica cognitiva, che ha focalizzato di volta in
volta il versante interattivo [37], cognitivo in senso stretto (con riferimento ai
modelli mentali e al concetto di script) [38, 39], per definire l’ambito delle com-
petenze cognitive, comunicative e relazionali congiunte che operano per la
costruzione e la comprensione di significati. Per tale ragione, adottiamo un’acce-
zione di pragmatica che non è solo il “voler dire nel conteso”, ma che include
un’ampia gamma di fenomeni che hanno a che fare con la trasmissione di signi-
ficati condivisi tra uno specifico individuo e l’altro in situazioni reali e, per tali
ragioni, si innestano sulle più ampie competenze sociali (o di social cognition)
del parlante [40]. Tra i principali ambiti in cui le competenze pragmatiche posso-
no esplicarsi occorre distinguere:

– le componenti vocali non-verbali, ovvero le funzioni prosodiche e l’espressio-


ne delle emozioni, grandemente indagate nella loro condizione deficitaria nel-
l’ambito della neuropragmatica clinica [41, 42];
– le funzioni pragmatiche classicamente definite, che comprendono i fenomeni di
comunicazione idiomatica, metaforica, ironica, gli atti linguistici indiretti in
genere (Indirect Speech Act), precedentemente classificati come significato
non-letterale [43-45];
– le funzioni discorsive e conversazionali, dominio specifico della discourse
pragmatics [46, 47];
– le competenze di cognizione sociale allargate, come insieme di capacità che
mediano il rapporto tra individuo e ambiente circostante [40]. Quest’ultima
categoria in realtà interessa trasversalmente le precedenti, poiché i fenomeni
pragmatici riguardano più propriamente la comunicazione nell’hic et nunc del
contesto sociale.

Ne deriva anche come conseguenza degli assunti precedenti che è possibile


parlare di multicomponenzialità della comunicazione, in quanto essa si serve di
veicoli comunicativi molteplici nella trasmissione dei significati: oltre alla via
verbale propria del linguaggio è possibile elencare le componenti gestuali e
mimiche che concorrono a definire l’insieme dei sistemi comunicativi. Le com-
ponenti non-verbali sono perlopiù finalizzate ad assolvere funzioni pragmatiche,
8 M. Balconi

seppure alcune di queste abbiano anche un ruolo nelle funzioni linguistiche (il
vocale, ad esempio) (si veda il Capitolo 8). A questo riguardo, si pone l’esigenza
di verificare l’esistenza di correlati neuropsicologici distinti per i diversi sistemi;
in secondo luogo, la multicomponenzialità pone il problema della sincronizzazio-
ne tra le diverse componenti [48, 49].

Un’ulteriore considerazione riguarda il carattere dinamico del linguaggio e della


comunicazione, in quanto essi si prefigurano come organizzazione di funzioni in
divenire all’interno di un processo che implica negoziazione e sintonizzazione [50].
Recenti applicazioni della pragmatica hanno tenuto in notevole considerazione la dia-
cronicità del processo comunicativo e il suo evolversi nel corso dell’interazione [51].
Più in generale, occorre sottolineare come le competenze linguistiche e comunicati-
ve siano facoltà che presuppongono un progressivo processo di apprendimento ed
evoluzione dettati dalle diverse fasi dello sviluppo. Sia sul piano dello sviluppo onto-
genetico sia di quello filogenetico si configura una costante modificazione delle com-
petenze linguistiche e comunicative, in quanto il linguaggio è un sistema in evoluzio-
ne. Il paragrafo successivo illustrerà nello specifico tali fasi evolutive in relazione ai
correlati neuroanatomici.

1.3 Fattori di sviluppo del linguaggio: filogenesi e ontogenesi

1.3.1 Sviluppo del linguaggio in termini filogenetici

La comprensione dei processi linguistici e comunicativi richiede anzitutto l’analisi


dei fondamenti biologici che definiscono il profilo anatomico, strutturale e funzio-
nale delle aree deputate alla loro elaborazione. Occorre in primo luogo chiedersi
per quali ragioni i piccoli della specie umana sopravanzino in misura così rilevan-
te gli altri primati non umani nella capacità di apprendimento dei sistemi linguisti-
ci e, in particolare, dei sistemi simbolici. È altresì necessario chiedersi se si possa
sostenere che le capacità linguistiche e comunicative dell’uomo siano dovute allo
sviluppo di un’organizzazione cerebrale completamente nuova, devoluta esclusiva-
mente al linguaggio. Infatti, analogamente a quanto si verifica per molte abilità
cognitive dell’uomo, anche per quelle comunicative è legittimo ipotizzare l’esisten-
za di caratteristiche distintive della struttura cerebrale che supportino concomitan-
ti differenze funzionali specie-specifiche [8, 52, 53].
Alcune strutture cerebrali indispensabili per la comunicazione si sono sviluppa-
te precocemente nel corso dell’evoluzione dell’uomo. Inoltre, nella maggior parte
dei soggetti l’emisfero sinistro è dominante per le funzioni linguistiche e l’area cor-
ticale del linguaggio del lobo temporale (il planum temporale) è più estesa nel-
l’emisfero sinistro che in quello destro. La ricerca di asimmetrie morfologiche ha
consentito di evidenziare la loro presenza già nei precursori della nostra specie.
Tuttavia, nonostante le strutture anatomiche indispensabili per la comunicazione
possano avere avuto origine in tempi remoti (probabilmente oltre 500.000 anni fa),
1. Basi biologiche dei sistemi linguistici e comunicativi 9

si ritiene che le competenze linguistiche e comunicative come tali si siano svilup-


pate abbastanza tardi nel periodo preistorico (circa 100.000 anni fa) [54].
Sull’origine della comunicazione sono state avanzate differenti ipotesi, alcune
delle quali finalizzate a rilevare una sostanziale continuità tra comunicazione
umana e quella dei primati della nostra specie, mentre, in altri casi, è stata ipotiz-
zata una chiara discontinuità tra i due piani. All’interno della prima categoria con
maggiore consapevolezza si pongono la teoria gestuale, quella vocale e una di
natura integrativa.

– La teoria gestuale ipotizza che la comunicazione si sia evoluta da un sistema di


gesti che iniziò a manifestarsi quando gruppi di primati assunsero la postura eret-
ta, rendendo autonomi e disponibili gli arti superiori per forme di comunicazione
sociale. Il passaggio alla comunicazione vocale sarebbe successivo, al fine di con-
sentire l’utilizzo degli arti per funzioni differenti da quelle comunicative [55].
– La teoria vocale sostiene, al contrario, che la comunicazione si sia sviluppata a
partire da un esteso sistema di grida deputate a esprimere stati emozionali e
motivazionali, come paura, gioia ed eccitamento sessuale. Solo con l’avvento di
mutazioni nella struttura dell’apparato fonatorio (bocca, mandibola e laringe)
sarebbe stato possibile il controllo dell’emissione dei suoni in modo volontario
e riproducibile e ciò avrebbe consentito l’impiego dei suoni in modo originale
e secondo combinazioni diverse [56].
– Una terza possibilità prevede l’intervento concomitante dei due sistemi gestua-
le e vocale nell’evoluzione dei linguaggi (teoria integrativa). Tale ipotesi risul-
ta particolarmente rilevante dal momento che consente di spiegare la comune
localizzazione nell’emisfero sinistro della rappresentazione e del controllo della
dominanza manuale, della comunicazione verbale e di quella dei segni [57].

Diversamente dalle teorie sopra indicate, sulla base di recenti evidenze empi-
riche, alcuni modelli postulano una sostanziale discontinuità nello sviluppo della
comunicazione, seppure motivata in modo differente. Autori come Pinker [58] e
Chomsky [59] sottolineano la discontinuità nell’evoluzione del linguaggio rispet-
to ai primati, in quanto il linguaggio non si sarebbe evoluto ed esso non avrebbe,
sostanzialmente, precursori. Secondo altri modelli [60], seppure è riconoscibile
un’analogia tra sistemi di comunicazione non-verbale umana e dei primati, la dif-
ferenza vera risiede nelle competenze linguistiche più evolute, proprietà esclusiva
del genere umano. Infine, esisterebbe una discontinuità sostanziale fondata sulle
competenze cognitive sottostanti alla comunicazione particolarmente evolute nel-
l’uomo, come testimoniato dallo sviluppo consistente della neocorteccia.
Esisterebbero, pertanto, competenze uniche della specie umana, non comparabili
con quelle di altri esseri viventi [61]. Questi ultimi modelli riconoscono una piena
indipendenza delle componenti linguistiche e non linguistiche nella comunicazio-
ne umana, così come essa si manifesta attualmente, poiché farebbero riferimento
a canali espressivi autonomi.
Al fine di definire meglio le fasi che hanno caratterizzato lo sviluppo linguisti-
co nella specie umana, la ricerca si è orientata anche verso l’analisi di un possibile
piano organizzativo di base per i sistemi comunicativi nei primati non umani. In
10 M. Balconi

particolare, i modelli di tipo “evoluzionistico” hanno cercato di individuare ele-


menti di continuità tra specie, con l’intento di mostrare il sostanziale progressivo
valore evolutivo delle competenze linguistiche. Asimmetrie simili a quelle umane
sono presenti negli emisferi cerebrali delle scimmie antropomorfe, come lo scim-
panzé. Nel macaco giapponese l’emisfero sinistro è dominante per i richiami rela-
tivi al riconoscimento specie-specifico. L’asimmetria funzionale per stimoli vocali
dotati di senso (come i sistemi di richiami) è stata osservata in numerosi studi spe-
rimentali [62]. In particolare, nel macaco i tempi richiesti per il riconoscimento di
richiami prodotti da consimili ed elaborati dall’orecchio destro (emisfero sinistro)
appaiono più brevi rispetto a quelli utilizzati per stimoli presentanti all’orecchio
sinistro (emisfero destro). Inoltre, è stata rilevata una discreta plasticità emisferica
nel caso in cui l’emisfero non dominante debba svolgere una funzione vicariante in
concomitanza a lesioni controlaterali, con un contributo di entrambi gli emisferi
nell’elaborazione delle vocalizzazioni.
D’altro lato, i modelli basati sullo studio del mondo animale si sono rivelati
non del tutto soddisfacenti. Innanzitutto, l’asimmetria emisferica dei primati non
umani appare meno consistente rispetto a quella presente nell’encefalo umano.
Inoltre, essa non è presente sin dalla nascita: lo sviluppo della dominanza emisfe-
rica per l’elaborazione dei sistemi di richiami specie-specifici compare solo a
maturazione cerebrale compiuta e successivamente all’esposizione e alla com-
prensione del repertorio vocale. Inoltre, sebbene animali evolutivamente semplici
possiedano forme elementari di comunicazione e alcune specie di uccelli possano
disporre di forme comunicative ancora più complesse, differenze consistenti carat-
terizzano tali sistemi di segnalazione rispetto alla comunicazione umana. Infatti,
benché nei primati non umani si possa parlare di forme complesse e di natura refe-
renziali di comunicazione a livello semantico, non sono emersi elementi a favore
di un’analogia sul piano dell’organizzazione sintattica: la competenza rilevata nel-
l’uso di suoni ha poco o nulla a che vedere con la complessa struttura sintattica del
linguaggio umano [63].

1.3.2 Ontogenesi dell’acquisizione delle competenze linguistiche:


componenti innate e fattori di apprendimento

A fronte di differenti approcci esplicativi circa l’origine del linguaggio, la specifici-


tà e l’universalità delle competenze legate allo sviluppo del linguaggio nell’uomo
costituiscono un punto di riferimento obbligato per la psicolinguistica e la neurolin-
guistica. Fra gli altri, due approcci hanno cercato di rendere ragione di tale univer-
salità nell’acquisizione delle competenze linguistiche. Il modello dell’innatismo
strutturale postula la presenza di regole universali sottostanti allo sviluppo delle
diverse lingue, per cui la capacità di apprendere una lingua è innata e si fonda su una
comune “grammatica universale” [59]. Tale approccio rivendica, inoltre, l’esistenza
di strutture geneticamente predefinite che supporterebbero tale apprendimento. A
sua volta, il modello dell’universalità funzionale considera l’apprendimento del lin-
guaggio fondato su processi e funzioni, piuttosto che su strutture grammaticali rigi-
1. Basi biologiche dei sistemi linguistici e comunicativi 11

damente predefinite, la cui acquisizione risulta uniforme, automatica e universale


presso tutti gli individui. I processi chiamati in causa sono definiti come universali,
sia in relazione alla loro comparsa temporale in virtù di una comune manifestazio-
ne di specifiche abilità cognitive e comunicative in determinate fasi dello sviluppo,
sia all’ordine sequenziale con cui compaiono, ovvero secondo stadi sequenziali pre-
definiti nello sviluppo, sia alla gerarchia di funzioni, nei termini di acquisizione di
funzioni secondo categorie linguistiche via via più complesse, quali l’apprendimen-
to di termini, di regole morfologiche, di strutture sintattiche ecc. [64].
Aspetto discriminante degli approcci innatisti è il concetto di periodo critico di
acquisizione, in quanto, per lo sviluppo delle competenze linguistiche, risulta vin-
colante il fatto che l’esposizione al linguaggio si verifichi in un preciso e definito
periodo “sensibile” dello sviluppo. Tale periodo è generalmente fatto coincidere
con la fase evolutiva caratterizzata, in termini anatomo-strutturali, da una maggio-
re plasticità neurale che avrebbe termine all’inizio della pubertà. Studi realizzati su
soggetti in condizioni di deprivazione sociale e linguistica hanno posto in eviden-
za che la fase puberale costituisce il periodo discriminante per l’acquisizione delle
principali competenze linguistiche, con una grande difficoltà nell’acquisire una lin-
gua naturale nuova in tempi successivi a tale periodo [65, 66].
Tuttavia, è indispensabile sottolineare l’interdipendenza, piuttosto che la con-
trapposizione, fra maturazione ed esperienza nell’organizzazione strutturale e fun-
zionale dei sistemi neuronali che presiedono ai differenti processi linguistici e
comunicativi. A supporto della prima, vi è il fatto che la correlazione tra il proces-
so di mielinizzazione delle strutture nervose e lo sviluppo funzionale ha eviden-
ziato lo stretto rapporto esistente tra maturazione delle strutture cerebrali e speci-
fiche competenze comunicative. A questo riguardo, l’impiego di tecniche di ana-
lisi di neuroimmagine e le rilevazioni mediante PET (al riguardo si veda il
Capitolo 2) forniscono indicazioni utili circa i processi neuronali sottostanti all’ap-
prendimento di una lingua naturale, sia in soggetti normali sia in soggetti esposti
a tale apprendimento in tempi successivi al periodo critico. Rispetto al ruolo del-
l’esperienza, gli stimoli ambientali fungono da marcatori preposti ad attivare e a
facilitare il corso dello sviluppo predefinito biologicamente, per cui se, da un lato,
i sistemi neuronali possiedono vincoli intrinseci che li rendono capaci di elabora-
re solo alcuni e non altri tipi di informazioni, dall’altro, gli input ambientali pos-
sono intervenire a modificare le caratteristiche funzionali del sistema biologico
con cui entrano in contatto [67].
Inoltre, esiste una certa variabilità tra i diversi sistemi interessati nell’applicabili-
tà del principio della “esperienza-dipendenza” in funzione di diversi fattori. Tra essi
si può menzionare la durata del processo di maturazione delle strutture che mediano
i processi funzionali, per cui strutture con maturazione più tardiva hanno maggiori
probabilità di essere influenzate dagli input dell’ambiente. Parimenti, la presenza di
vincoli anatomici e della struttura architettonica, in funzione della maggiore o mino-
re complessità dei legami intercorrenti fra le strutture cerebrali, rende più o meno effi-
cace la mediazione dell’ambiente. Inoltre, in concomitanza a elementi universali di
tipo strutturale (sviluppo anatomico) e processuale (acquisizione di specifiche com-
petenze comunicative), è stata rilevata la presenza di consistenti differenze nell’orga-
nizzazione dei diversi linguaggi (specificità intralinguistica) [68]. Complessivamente,
12 M. Balconi

è necessario sottolineare che nonostante la presenza di periodi durante i quali l’uomo


è geneticamente predisposto all’acquisizione del linguaggio, un’interazione adeguata
con il contesto fisico e sociale è essenziale perché tale capacità possa svilupparsi.

1.4 Modelli di funzionamento anatomo-strutturale del linguaggio

1.4.1 Modelli classici

Occorre fare un breve cenno sullo stato dell’arte nello studio delle strutture anato-
miche sottostanti al processo linguistico, in base a come le conoscenze sono anda-
te via via costituendosi nel corso del tempo [69]. Differenti modelli si sono propo-
sti di sintetizzare il contributo delle strutture anatomiche come supporto alle com-
petenze linguistiche dell’uomo, optando per una rappresentazione “focale” di tali
competenze (moduli corticali) o, piuttosto, per una rappresentazione “distribuita”
delle stesse (modelli a network) [8, 70]. A fronte di una certa eterogeneità dei dati
a disposizione, sostanzialmente, la conclusione su cui converge la maggior parte
degli autori si articola su due piani:

– l’emisfero sinistro è generalmente dominante per il linguaggio;


– le due aree di Broca e di Wernicke svolgono un ruolo prominente nel processo
linguistico, rispettivamente per la produzione e per la comprensione del lin-
guaggio.

Prenderemo in considerazione i due assunti, cercando di evidenziarne gli ele-


menti euristici per la comprensione del processo e, contemporaneamente, i punti di
maggiore criticità. Rispetto al primo punto, esiste oggi un sostanziale accordo fra
gli studiosi nel ritenere che vi siano differenze consistenti fra i due emisferi cere-
brali sul piano anatomico (citoarchitettura) e funzionale in riferimento al linguag-
gio. La predominanza del lobo sinistro è stata dimostrata non solo attraverso anali-
si di tipo strutturale ma anche mediante misurazioni elettroencefalografiche. La
rilevazione dei potenziali evocati corticali (si vedano i Capitoli 2 e 3) ha posto in
evidenza che l’emisfero sinistro è differentemente sensitivo per il linguaggio già a
partire dalla nascita [71]. In ambito clinico, risultati analoghi sono stati ottenuti
dagli studi realizzati su soggetti con cervello diviso (Split-Brain Syndrome) o com-
missurotomizzati (ovvero con risezione delle commissura del corpo calloso) [72].
In modo simile, utilizzando soggetti sani facendo ricorso alla tecnica dell’ascolto
dicotico, (mediante la somministrazione contemporanea di stimoli sonori fra loro
parzialmente diversi, uno all’orecchio sinistro e l’altro all’orecchio destro, al fine
di accertare la dominanza di uno dei due emisferi), si è osservata la distintività fun-
zionale dei due emisferi in relazione a compiti linguistici [73].
Occorre chiedersi a questo punto se la lateralizzazione emisferica preceda o
segua lo sviluppo del linguaggio. Secondo la teoria della equipotenzialità delle
strutture cerebrali, è necessario considerare la lateralizzazione come un derivato
1. Basi biologiche dei sistemi linguistici e comunicativi 13

dello sviluppo linguistico [74]. Tuttavia, tale ipotesi è stata messa in discussione,
poiché non è in grado di spiegare, a livello filogenetico e ontogenetico, per quale
ragione sia stata attuata una selezione a vantaggio dell’emisfero sinistro e a sfavo-
re di quello destro, evidenziandone i possibili vantaggi per la specie umana [66].
Inoltre, le aree del linguaggio appaiono anatomicamente e funzionalmente asimme-
triche già prima della nascita, come dimostrano le ricerche effettuate sull’area del
planum temporale, localizzato in adiacenza della corteccia primaria uditiva (all’in-
terno dell’area di Wernicke). Tale asimmetria è presente già a partire dalla trentu-
nesima settimana di gestazione ed è strettamente associata alla distinzione fra sog-
getti destrimani e soggetti mancini: il 96% dei destrimani possiede una maggiore
specializzazione emisferica (con planum temporale più esteso) rispetto al 70% dei
mancini. Un’ulteriore distinzione chiama in causa la struttura del corpo calloso,
deputata alla connessione dei due emisferi, che svolge la funzione di unificazione
delle informazioni che giungono da parti opposte del corpo. In particolare, si è
accertata l’esistenza di differenze dimensionali nell’istmo (un’area specifica del
corpo calloso), inversamente proporzionali alla dimensione del planum temporale:
un’estensione maggiore della sezione del corpo calloso sarebbe correlata a una
minore estensione del planum temporale, con conseguente minore asimmetria (e
maggiore rappresentazione bilaterale) delle funzioni linguistiche [75, 76].
Rispetto al secondo punto, il modello grandemente accreditato anche sul
piano sperimentale di Wernicke-Geschwind pone l’accento sull’importanza di
specifiche aree corticali e sulle loro vie di connessione per la rappresentazione
delle funzioni linguistiche. Secondo tale posizione, cui si rifanno i modelli
“classici”, componenti discrete sul piano anatomico svolgerebbero specifiche
funzioni di input-output per la produzione e la comprensione del linguaggio, e
la loro compromissione comporterebbe un concomitante deficit delle abilità
cognitive e linguistiche correlate. Infatti, lesioni circoscritte dell’area perisilvia-
na producono deficit altrettanto specifici e delimitati in alcune funzioni lingui-
stiche (sindromi afasiche). Tali sindromi afasiche comprendono sia le afasie di
espressione (o afasie motorie) che riguardano l’area di Broca, sia le afasie di
comprensione che interessano l’area di Wernicke. In particolare, l’area di Broca,
adiacente alle parti inferiori dell’area motoria (giro prefrontale), risulta priorita-
ria per la produzione del linguaggio e controlla i movimenti necessari all’artico-
lazione della parola, i movimenti mimici facciali e quelli della fonazione. La sua
compromissione comporta la difficoltà di esprimersi con le parole, in assenza di
paralisi dei movimenti fonatori (inceppi, sostituzione di fonemi, difficoltà di tro-
vare le parole appropriate ecc.). A sua volta, l’area di Wernicke, localizzata nella
regione postero-superiore del lobo temporale (giro temporale superiore), debor-
dante verso il lobo occipitale, è considerata prioritaria per i processi di compren-
sione del linguaggio orale. Nel caso di una sua compromissione l’espressione
orale risulta sconnessa, simile a un gergo, con la comparsa di neologismi.
Sebbene l’accordo circa la reale localizzazione delle due aree non sia un dato
definitivamente acquisito, è possibile rappresentare in linea generale la loro
estensione come è proposto nella figura seguente (Fig. 1.1).
Il modello di Wernicke-Geschwind è in grado di formulare previsioni attendibili
rispetto agli effetti prodotti da lesioni focali delle aree del linguaggio. Innanzitutto, in
14 M. Balconi

Fig. 1.1 Rappresentazione delle principali aree del linguaggio (aree di Broca e di Wernike)

caso di lesione nell’area di Wernicke, esso prevede che il linguaggio orale, pur rag-
giungendo la corteccia uditiva, non possa attivare l’area suddetta, rendendo impossi-
bile la comprensione del parlato. Nel caso in cui la lesione si estenda oltre l’area di
Wernicke, essa può giungere a interessare le vie deputate all’elaborazione delle infor-
mazioni visive per il linguaggio, con un deficit nella comprensione sia del linguaggio
orale sia di quello scritto. Al contrario, una lesione nell’area di Broca non riguarda la
comprensione del linguaggio (sia scritto che orale) ma comporta una grave alterazio-
ne nella produzione del discorso, in quanto lo schema relativo all’emissione dei suoni
e alla struttura del linguaggio non è trasferito alla corteccia motoria [54]. In terzo
luogo, il modello prevede che una lesione del fascicolo arcuato, interrompendo la con-
nessione fra l’area di Wernicke e l’area di Broca, alteri il normale flusso del discorso.
In particolare, le afferenze uditive non potranno essere trasmesse all’area di Broca,
così come le informazioni relative alla produzione del linguaggio non potranno essere
ritrasmesse, mediante circuiti a feedback, all’area deputata alla comprensione [75].

1.4.2 Recenti acquisizioni: sistemi sottocorticali


e “aree di interfaccia”

La specificità ed esclusività delle aree corticali di Broca per la produzione e del-


l’area di Wernicke per la comprensione del linguaggio appare, tuttavia, messa in
discussione dalla moderna neurolinguistica [76, 77] e dalle tecniche di neuroimma-
gine, poiché gli effetti delle lesioni cerebrali citate risultano variabili da persona a
persona e non sono sempre univocamente classificabili. Seppure al momento attua-
1. Basi biologiche dei sistemi linguistici e comunicativi 15

le non è possibile individuare correlati anatomici discreti dei processi linguistici e


comunicativi, in aggiunta al fatto che il linguaggio sia principalmente localizzato
nell’area perisilviana sinistra, grazie a riscontri empirici recenti è ipotizzabile che a
queste due aree occorra aggiungere altri sistemi neurali che presumibilmente ope-
rano in concomitanza ai precedenti per la produzione e la comprensione del lin-
guaggio. È stato, infatti, rilevato il contributo delle regioni temporali sinistre e della
corteccia prefrontale sinistra. Inoltre, anche strutture come il talamo o l’area moto-
ria supplementare sono implicate nel processo linguistico [78].
Più specificamente, un ruolo fondamentale nella rappresentazione delle funzio-
ni linguistiche è stato riconosciuto recentemente anche ad alcune strutture sottocor-
ticali, come il talamo sinistro, il nucleo caudato sinistro e la sostanza bianca adia-
cente. In particolare, il nucleo caudato sinistro è considerato un’importante forma-
zione per l’integrazione uditivo-motoria necessaria all’elaborazione linguistica,
poiché lesioni di questo nucleo determinano un’alterazione della comprensione
uditiva [79]. Rispetto alla funzione del talamo, vi è ragione di credere che esso
abbia un ruolo importante nel linguaggio, benché di supporto, in quanto meccani-
smo che aumenta l’efficienza delle strutture implicate nel processo linguistico [80].
Esso favorirebbe, per esempio, la scelta corretta sul piano lessicale: alcuni fenome-
ni di anomia semantica per specifiche categorie nominali sarebbero infatti diretta-
mente derivati da lesioni alle strutture talamiche.
La debolezza dei modelli “classici” è ulteriormente evidenziata da recenti ricer-
che in ambito cognitivo, che non fanno riferimento unicamente al decorso anatomi-
co delle vie di elaborazione dell’informazione linguistica. Ad esempio, vi è ragio-
ne di ritenere che non tutte le afferenze uditive siano elaborate dalla stessa via:
suoni o parole prive di senso sono analizzati da una via indipendente rispetto a
quella nella quale sono elaborate le parole dotate di significato. In sostanza, esisto-
no vie distinte per l’elaborazione dei suoni (intesi come generali unità espressive)
e per le unità morfemiche dotate di significato (il contenuto semantico della paro-
la). Inoltre, il processo ascendente (dalla comprensione alla produzione) per il lin-
guaggio orale e scritto rileva l’interessamento di un numero maggiore di aree e di
connessioni nella rappresentazione delle funzioni linguistiche rispetto a quanto ipo-
tizzato dal modello di Wernicke-Geschwind.
Analisi effettuate su soggetti con trattamento chirurgico per patologia epilettica
suggeriscono la presenza di sistemi di risposta differenti per tipologie di stimoli lin-
guistici (come particolari classi di termini mono- o bisillabici, parole task-rilevanti
o task-irrilevanti) [81]. Inoltre, alcune cellule maggiormente responsive appaiono
essere localizzate nella porzione mediale del giro temporale superiore, equamente
distribuite nell’emisfero destro e in quello sinistro.
Recenti evidenze hanno messo in discussione la predominanza emisferica sini-
stra per la produzione e la comprensione del linguaggio. Ad esempio, è stata rile-
vata la possibilità per l’emisfero destro (in soggetti con cervello diviso) di compie-
re operazioni di comprensione e di discriminazione di suoni [82], così come di
comprendere frasi sintatticamente semplici [83]. Tali dati sembrano confermare
l’ipotesi che i sistemi di comprensione del linguaggio siano organizzati bilateral-
mente. Parallelamente, mediante uno studio condotto utilizzando la risonanza
magnetica funzionale (fMRI), è stato rilevato il contributo della regione temporale
16 M. Balconi

Fig. 1.2 Modello neuroanatomico del linguaggio. Si evidenziano in particolare le aree di conver-
genza tra emisfero destro e sinistro per la produzione e la comprensione del linguaggio

superiore posteriore sinistra per compiti di produzione del linguaggio (compiti di


naming di oggetti poco prima dell’articolazione della parola) [84].
Infine, evidenze comportamentali hanno consentito di individuare una stretta
correlazione tra i processi di produzione e comprensione del linguaggio. Studi che
hanno impiegato l’effetto di trasformazione verbale (la tendenza a percepire in
modo scorretto i fonemi dopo la presentazione prolungata e ripetuta di una singola
parola) [85] hanno rilevato una riduzione di tale fenomeno nel caso in cui vi fosse
una produzione verbale da parte del soggetto, anche di tipo subvocalico. Ciò indu-
ce a supporre plausibile un modello in cui i sistemi per la produzione e la compren-
sione del linguaggio condividano unità processuali. È cioè possibile formulare un
modello che preveda vaste aree di convergenza (interface-zones) [86, 87] o livelli
rappresentazionali intermedi [88-90].
Proponiamo di seguito un recente modello, in cui è possibile evidenziare il
contributo di entrambi gli emisferi per la produzione e la comprensione del lin-
guaggio (Fig. 1.2).
Il modello propone una stretta interdipendenza tra emisfero destro e sinistro,
dove il primo supporterebbe la percezione del linguaggio inviando input ai sistemi
di interfaccia uditivo-concettuale dell’emisfero sinistro. I sistemi di interfaccia basa-
ti sul suono interferirebbero non solo con il sistema delle conoscenze concettuali, ma
anche con i sistemi frontali motori mediante un’interfaccia uditivo-motoria localiz-
zata nel lobo parietale inferiore. In linea con modelli precedenti [91], tale paradig-
ma ipotizza un legame diretto tra rappresentazione concettuale e i sistemi del lobo
frontale. Assumendo che le rappresentazioni concettuali siano altamente distribuite,
si può ipotizzare a sua volta la convergenza di input molteplici e di diversa prove-
nienza nei sistemi di interfaccia della corteccia frontale [86-87]. Costituisce un
1. Basi biologiche dei sistemi linguistici e comunicativi 17

esempio di tale convergenza il fatto che alcune regioni del lobo temporale inferiore
sinistro sono importanti per l’accesso di conoscenze concettuali/lessicali basate sul-
l’oggetto nella produzione del linguaggio [92].

1.5 Apporto della neurolinguistica

1.5.1 Rappresentazione del processo di produzione


e comprensione del linguaggio: modelli cognitivi

Abbiamo sottolineato in precedenza che le competenze linguistiche di base del par-


lante sono identificabili nella produzione e nella comprensione di un messaggio e che
su queste ultime la neuropsicologia è chiamata a fornire spiegazioni esaustive.
L’analisi neuropsicologica del processo linguistico deve altresì includere la descrizio-
ne delle principali funzioni linguistiche, quali la capacità di produrre e di comprende-
re strutture fonologiche, sintattiche e semantiche e la possibilità di garantire il loro
coordinamento [1]. L’esplicazione di tali funzioni dipende da una molteplicità di
sistemi di conoscenze, che comprendono, tra gli altri, sistemi di elaborazione di infor-
mazioni linguistiche e sistemi di comprensione di informazioni non-verbali e, più a
monte, un dispositivo di elaborazione concettuale. Tra i modelli precedentemente esa-
minati, quello di Wernicke-Geschwind fornisce elementi esplicativi circa le principa-
li vie corticali di produzione e di comprensione degli stimoli linguistici, individuan-
do sul piano strutturale due sistemi in grado di operare indipendentemente l’uno dal-
l’altro. Tuttavia tale modello appare scarsamente incentrato sugli aspetti cognitivi
coinvolti nei processi di elaborazione del messaggio. Prospettive neuropsicologiche
recenti forniscono spiegazioni più adeguate alla complessità cognitiva delle operazio-
ni mentali implicate, contemplando l’attivazione di un numero maggiore di aree coin-
volte e di vie di connessione, disposte serialmente o in parallelo [93].
L’intento esplicito della moderna neurolinguistica è quello di decomporre e seg-
mentare tale processo, assunto che i processi mentali sottesi alle funzioni del lin-
guaggio siano separabili e che sia possibile definire la complessa architettura del
sistema a partire dalle unità minime elementari degli stimoli fonetici. Citiamo tra i
modelli linguistici più recenti il modello di Levelt [89], che consente di sintetizzare
la complessità delle operazioni e dei processi cognitivi implicati nei percorsi discen-
dente (di produzione) e ascendente (di comprensione) del messaggio (Fig. 1.3).
Come appare nella Figura 1.3, il processo di produzione e di comprensione
risulta essere costituito da più unità cognitive; inoltre, è presente un parallelismo
nell’organizzazione dei sistemi ascendente e discendente, poiché entrambi possie-
dono livelli di elaborazione che includono la fonologia (struttura segmentale dei
suoni), la prosodia (stress e intonazione della frase), la struttura lessicale, la sintas-
si e il “livello del messaggio”, relativo alla struttura del discorso e al sistema con-
cettuale. Tali sistemi sono caratterizzati da due principali flussi di elaborazione: uno
relativo alla produzione/riconoscimento lessicale e l’altro alla costruzione/ricostru-
zione delle strutture frasali in cui le componenti lessicali sono integrate.
18 M. Balconi

Fig. 1.3 Modello di produzione e comprensione del linguaggio secondo Levelt. Modificata da [90]

La distinzione tra la funzione di produzione/riconoscimento lessicale e di


costruzione/comprensione della struttura frasale pone il problema del coordina-
mento tra questi due processi [94]. La rappresentazione lessicale avverrebbe in
modo contemporaneo all’assegnazione della struttura frasale secondo un processo
incrementale e sequenziale. Pertanto, nella comprensione di una frase, la forma les-
sicale sarebbe assimilata alla struttura frasale, a sua volta coerentemente definita
grazie al contributo del piano prosodico. Inoltre, come appare nella Figura 1.3, il
processo di assegnazione della forma lessicale, preceduto dall’elaborazione acusti-
ca e fonetica dello stimolo, non sarebbe direttamente dipendente dal significato
della parola, ma guidato dalle proprietà formali del lemma.
La fase successiva, relativa all’analisi sintattica, prevede l’assegnazione di com-
ponenti strutturali-sintattiche, come la definizione dei ruoli tematici, delle relazio-
ni di predicazione e della coreferenza. Il percorso discendente di produzione del
messaggio presenta la medesima sequenza di eventi, ma rovesciata: la costruzione
sintattica precede l’attribuzione fonologica del lemma e l’assimilazione della strut-
tura formale del lemma nella struttura frasale e prosodica, mentre il processo di arti-
colazione costituisce l’esito della sequenza.
Il principio dell’autonomia e dell’indipendenza dei livelli di elaborazione impli-
cati (modularità funzionale) (al riguardo si veda anche il Capitolo 2) rappresenta il
presupposto dell’intera organizzazione del processo, benché sia necessario che i
vari livelli siano attivati simultaneamente e possano interagire al fine di garantire la
produzione/comprensione del messaggio in tempo reale. In particolare, studi rela-
1. Basi biologiche dei sistemi linguistici e comunicativi 19

tivi alla presenza di lesioni “focali” di alcune funzioni depongono a favore dell’au-
tonomia di alcuni processi e operazioni alla base del linguaggio, che non possiedo-
no, al contempo, una controparte in altri domini non-linguistici [58]. Ad esempio,
è stato rilevato che la comprensione di un termine può essere compromessa distin-
tamente per la forma scritta (ortografica) o parlata (fonologica) della parola in rela-
zione a differenti danni “focali”. Per citare solo alcuni esempi, lesioni localizzate
sia nei lobi parietale e occipitale sinistro sia nel lobo frontoparietale sinistro mostra-
no concomitanti compromissioni nel sistema semantico esclusivamente per quanto
riguarda il linguaggio parlato [95].

1.5.2 Modularità funzionale del linguaggio e indipendenza dei


sistemi di rappresentazione concettuale, sintattico e semantico

La modularità del linguaggio, inteso come insieme di processi e operazioni distin-


te è stata supportata da studi di diversa natura e con diverse metodologie di analisi
(per una rassegna si veda Garrett [96]). In particolare, l’ipotesi dell’organizzazione
funzionale del processo linguistico prevede che i tre principali sistemi implicati
nella rappresentazione del linguaggio, il sistema concettuale (rappresentazione dei
contenuti/concetti), il sistema strutturale (rappresentazione delle funzioni posizio-
nali dei termini e della struttura della frase) e il sistema semantico (rappresentazio-
ne del significato complessivo del messaggio) siano funzionalmente autonomi. In
genere, i modelli di tale natura prevedono una modalità di tipo incrementale. Un
modello di tipo funzionale e “incrementale” è stato proposto recentemente da
Levelt [11], che ha sottolineato la compresenza di operazioni di ordine metacogni-
tivo nella costruzione del messaggio, quali la macropianificazione e la micropiani-
ficazione del messaggio. Entrambi i livelli possono essere ulteriormente distinti in
funzioni specifiche (quali, ad esempio, la predisposizione di un apparato concettua-
le per il livello macroanalitico o la codifica morfofonologica per il livello micro-
analitico). La macropianificazione include la definizione di ciò che il parlante vuole
comunicare. Formulazione di modelli mentali di sé e dell’altro, definizione della
struttura complessiva del discorso, monitoraggio sulla effettiva realizzazione delle
intenzioni comunicative costituiscono alcuni degli elementi fondamentali della
macropianificazione. Il parlante genera un messaggio la cui finalità è quella di con-
dizionare quanto è inteso dal ricevente, processo che chiama in causa le competen-
ze sociali e l’insieme di conoscenze condivise. Levelt caratterizza ciascuna di tali
funzioni in termini di specifiche operazioni cognitive che è possibile compiere nella
costruzione del messaggio, il quale si configura come struttura eminentemente con-
cettuale. Di particolare interesse è la definizione del sistema concettuale preceden-
te alla costruzione del messaggio preverbale. Sul piano microanalitico, ciascuna
unità deve essere trasposta in un format specifico che ne consenta la formulazione.
Essa deve includere, inoltre, le tipologie di relazioni semantiche esprimibili attra-
verso l’ausilio linguistico (come, ad esempio, la relazione funzione/argomento).
Le ipotesi sottostanti al modello teorico sopra riportato comportano rilevanti
implicazioni per quanti si pongono a favore dell’organizzazione funzionale della
20 M. Balconi

struttura corticale. I modelli psicolinguistici descritti suggeriscono infatti che strut-


ture neurali distinte, oltre che dispositivi funzionali, siano responsabili della rappre-
sentazione dei processi semantico e concettuale da un lato e della forma lessicale
dall’altro, nonché delle proprietà sintattiche del messaggio [97]. Fra di essi esiste,
infatti, una complessa rete di relazioni, come sarà esplicitato più avanti. Riportiamo
alcune delle più recenti evidenze a favore dell’esistenza di sistemi funzionalmente
distinti nella produzione e comprensione del linguaggio sulla base di recenti ricer-
che in ambito neuropsicologico.

Indipendenza fra forma lessicale e significato

In psicolinguistica si è dibattuto a lungo circa l’indipendenza del significato dalla


forma morfologica dei lessemi [98]. Rispetto all’elaborazione del significato di sin-
gole parole, è stato rilevato come, a fronte di una preservata conoscenza della forma
lessicale, alcuni soggetti non appaiono in grado di attribuire al lessema il significa-
to corretto. Ulteriori prove dell’indipendenza di questi due livelli di rappresentazio-
ne provengono dall’osservazione di specifici deficit relativi o al significato o alla
forma lessicale dello stimolo. Nel primo caso, alcuni soggetti presentano deficit cir-
coscritti per determinate categorie concettuali, quali parole astratte o concrete,
oggetti inanimati, nomi geografici, nomi propri ecc., a fronte di una rappresentazio-
ne adeguata delle loro proprietà morfologiche. Nel secondo caso, in direzione oppo-
sta, il soggetto non è in grado di elaborare specifiche categorie grammaticali (nomi,
verbi, preposizioni ecc.), pur dimostrandosi capace di comprendere il senso del les-
sema. Il caso di J.J., una paziente con un danno all’area temporale sinistra e ai gan-
gli della base, è stato a lungo studiato in ambito neuropsicologico, in quanto ha con-
sentito di mostrare come, in concomitanza a un deficit complessivo nella compren-
sione del significato dei termini, possa essere preservata la conoscenza della forma
ortografica e fonologica del lessico [99]. Studi mediante rilevazione PET sembrano
altresì corroborare tale distinzione in base all’attivazione di specifiche aree neuroa-
natomiche: lo svolgimento di compiti semantici, come l’attribuzione del significato,
attiverebbe, oltre alle aree generalmente implicate nell’elaborazione delle informa-
zioni linguistiche (area inferotemporale), anche la corteccia anteriore frontale, depu-
tata più in generale alle funzioni cognitive di ordine superiore. Tale dato è stato con-
fermato a partire dagli studi pionieristici di Petersen [100] e riproposto più recente-
mente per compiti di decisione semantica [101, 102].

Dissociabilità tra forma sintattica e concettuale

Secondo il modello proposto da Frazier [103], il sistema sintattico è inteso come


l’insieme di raggruppamenti, gerarchicamente organizzati, di categorie funzionali
(secondo la funzione di ruolo tematico, di modificatore ecc.), tra le quali è possibi-
le definire specifiche relazioni. Al contrario, il sistema concettuale è identificato
con la più generale capacità di rappresentazione delle conoscenze, che integra com-
petenze strutturali linguistiche, sistemi di conoscenza concettuale enciclopedica e
1. Basi biologiche dei sistemi linguistici e comunicativi 21

contestuale, come pure più ampie conoscenze pragmatiche. La competenza concet-


tuale e la capacità di costruire complesse strutture enunciative appaiono essere fun-
zioni autonome. In particolare, dalle ricerche è emersa una doppia dissociazione tra
competenze concettuali e competenze sintattiche, con la compromissione dell’una
a fronte della piena funzionalità dell’altra e viceversa [104]. Infatti, lesioni focali
che comportino limitazioni al sistema concettuale di conoscenze sono compatibili
con un normale funzionamento del linguaggio per quanto riguarda le strutture mor-
fosintattiche e la gerarchia linguistica. L’assenza di abilità rappresentazionali gene-
rali e della comprensione del discorso appaiono, pertanto, coesistere con la capaci-
tà di identificare e produrre una struttura sintatticamente corretta.
Viceversa, l’incapacità di costruire strutture sintattiche nella comprensione di
frasi risulta dissociata dal processo di comprensione concettuale. A questo riguardo
l’agrammatismo, definito come una condizione in cui il linguaggio presenta una
forte riduzione nell’impiego di verbi, di aggettivi e avverbi, o di parolefunzione
(come preposizioni, congiunzioni, quantificatori ecc.), produce complessivamente
un discorso schematico e “telegrafico”. Soggetti con disturbi agrammatici sembra-
no comunque preservare generali capacità di ragionamento inferenziale e di rappre-
sentazione del sistema concettuale e semantico del messaggio, confermando l’indi-
pendenza di questi ultimi dalla rappresentazione delle strutture sintattiche [105].

Indipendenza fra sistema semantico e sintattico

Nella rappresentazione del legame tra il sistema sintattico e il sistema semantico l’ipo-
tesi più accreditata è quella della sostanziale indipendenza fra i due domini [106].
Infatti, dati sperimentali acquisiti con metodi di neuroimaging mostrano una stretta
associazione tra alcune regioni cerebrali e il sistema sintattico, distinte da quelle sot-
tese al sistema semantico. In particolare, deficit del sistema di comprensione seman-
tico (demenza semantica) sono associati a lesioni del lobo temporale superiore, men-
tre permangono inalterate le funzioni fonologiche e quelle sintattiche. Per contro,
una complessa rete di aree localizzate nella regione corticale perisilviana sinistra
appare discriminante nel processo di produzione e comprensione (parsing) della
struttura sintattica [97].
Risultati analoghi sono stati ottenuti anche con l’impiego della tecnica dei
potenziali evocati corticali [107-109]. Tale tecnica consente di definire la risposta
elettroencefalografica dello scalpo a stimoli reiterati, utilizzando quali parametri
distintivi le caratteristiche di profilo e la latenza del picco d’onda rilevato quale
risposta esterna (potenziali evocati esogeni o percettivi) o interna (potenziali evo-
cati endogeni o cognitivi) allo stimolo. L’indice di interpretazione semantica, nella
fattispecie relativo alla rilevazione di un’anomalia semantica nel messaggio
(N400), risulta distinto da quello di elaborazione sintattica (P600), conseguente alla
presenza di un’anomalia nella struttura enunciativa, di tipo sia morfologico sia
strutturale. Contributi più recenti sottolineano una chiara separazione tra indici
ERP conseguenti alla presenza di violazioni dei vincoli semantici posti dall’enun-
ciato (con effetto N400) e un complesso precoce, di polarità negativa e maggior-
mente presente nelle aree sinistre (ELAN, Early Left Anterior Negativity), conse-
22 M. Balconi

guente a una violazione sintattica (in particolare violazione della categoria) [110].
Recentemente, Friederici [111] ha sottolineato la diversa funzione dei due indici
P600 ed ELAN per l’elaborazione sintattica: il primo sarebbe la risposta al proces-
so di analisi automatica della struttura sintattica; il secondo avrebbe a che fare con
il processo di rianalisi e ricostruzione della struttura sintattica.
Tuttavia, in alternativa al modello dell’indipendenza, sono stati proposti model-
li cosiddetti dell’interazione, secondo cui, pur essendo possibile la presenza di dif-
ferenze tra il piano di elaborazione semantico e quello sintattico, le diverse tipolo-
gie di informazioni interagiscono allo stesso livello contemporaneamente, al fine di
determinare il significato complessivo da attribuire al messaggio [112; per una ras-
segna si veda 97]. Tra i modelli interattivi, una prospettiva più “radicale” prevede
che ogni tipo di informazione, sintattica o semantica, converga per produrre il
significato del messaggio, non essendo necessario ipotizzare un livello di rappre-
sentazione puramente sintattico durante il processo di produzione e di comprensio-
ne del messaggio [113].

Indipendenza fra sistema semantico e concettuale


e multimodalità rappresentazionale

Il significato delle parole è realizzato da un sistema di rappresentazioni mentali


definito generalmente come sistema semantico. Quest’ultimo può essere distinto
dal sistema concettuale propriamente detto, poiché codifica aspetti del significato
rilevanti per il linguaggio, mentre il sistema concettuale ha a che fare con un più
ampio sistema enciclopedico di rappresentazione, includente il contesto pragmati-
co e il ragionamento euristico [114]. Anche se Jackendoff [2] giunge a sostenere
una sostanziale unificazione fra il sistema semantico e quello concettuale all’inter-
no di un processo rappresentazionale più generale, è plausibile ritenere che questi
due sistemi siano distinti fra loro, anche se profondamente interdipendenti. Infatti,
grazie a tale distinzione è possibile spiegare importanti e frequenti fenomeni comu-
nicativi come ad esempio, l’ignoranza concettuale (il soggetto impiega una parola
correttamente sul piano semantico di cui non conosce l’equivalente concettuale) e
la polisemia (a una parola si riferiscono concetti diversi fra loro) [115].
Un secondo aspetto problematico concerne la presenza di un sistema semantico
unico o di sistemi separati e distinti, ciascuno dipendente dalle diverse modalità di
elaborazione dell’informazione in entrata (multimodalità rappresentazionale).
Secondo un primo modello [89], il format di rappresentazione del significato è unico
e ha una forma proposizionale. Per contro, secondo autori come Jackendoff [2] tale
rappresentazione è mediata dai moduli percettivi di ingresso dell’informazione (visi-
vo, acustico ecc.). A fronte dell’eterogeneità delle informazioni che costituiscono
l’input della rappresentazione semantica, alcuni risultati sperimentali fanno propen-
dere per l’esistenza di moduli distinti e strutturalmente localizzati della conoscenza
semantica per cui, a differenti tipologie di rappresentazioni (un’immagine o una
parola), corrisponde l’attivazione di specifiche strutture cerebrali. Almeno parti di
tali regioni risultano essere esterne all’area usualmente considerata come rappresen-
tativa delle funzioni comunicative (la corteccia inferotemporale di entrambi gli emi-
1. Basi biologiche dei sistemi linguistici e comunicativi 23

sferi), in quanto sarebbero coinvolte anche aree normalmente deputate all’elabora-


zione degli stimoli percettivi, come la corteccia visiva per le immagini e la cortec-
cia uditiva per i suoni [95].

1.6 Neuropsicologia delle funzioni comunicative superiori:


neuropragmatica

La possibilità di comunicare implica assai di più della semplice abilità di costruire


frasi corrette o di comprenderne il contenuto. La capacità di produrre un atto comu-
nicativo comporta precise assunzioni sulle proprietà simboliche della comunicazio-
ne [116], a partire dall’abilità di operare su unità complesse piuttosto che su singoli
elementi, di elaborare e comprendere piani inferenziali [27, 30], nonché di sviluppa-
re un sistema di regole condivise per gestire lo scambio comunicativo [117, 118]. In
particolare, è indispensabile programmare l’atto comunicativo, avendo cura di orga-
nizzare gli elementi informativi in un discorso articolato, nonché di tenere conto dei
contesti (specifico e generale) in cui l’interazione ha luogo [119]. L’analisi delle
competenze comunicative deve altresì prevedere e spiegare l’acquisizione delle fun-
zioni pragmatiche della comunicazione, la capacità di organizzare sistemi di segna-
lazione verbali e non-verbali [120], così come la loro reciproca integrazione (o sin-
codifica, si veda al riguardo il Capitolo 11). Inoltre, è indispensabile includere nel
processo complessivo le specifiche competenze cognitive richieste al parlante, tra
cui le funzioni di comprensione dei processi di pensiero (metacognizione) [40], di
cognizione sociale [33], nonché gli aspetti più complessi dei processi di intenziona-
lizzazione [121, 122] (al riguardo si veda il Capitolo 7).
Proponiamo pertanto una visione della comunicazione come processo interatti-
vo e, sul piano cognitivo, come processo inferenziale. La nostra attenzione è posta
sulle competenze metacognitive e relazionali che mediano la produzione e la com-
prensione del linguaggio in uso nell’interazione. Occorre sottolineare che lo studio
della comunicazione è stato perlopiù sostituito dallo studio sul linguaggio come
facoltà astratta. Ciò ha comportato la separazione tra analisi della lingua e analisi
dell’uso della lingua. In realtà, la dimensione comunicativa pone in evidenza come
non si possa comprendere il linguaggio indipendentemente dalle componenti
cognitive, emotive e relazionali che intervengono a pieno titolo nel processo. In
altri termini, è stato sottolineato come non sia possibile esimersi dalla situazione
reale (contesto pragmatico) per comprendere il significato di un messaggio.
Dal punto di vista più specificamente neuropsicologico, l’ausilio di metodi di
rilevazione avanzati ha consentito di evidenziare il contributo corticale nella pro-
duzione/comprensione del significato nel contesto mediante la chiara focalizzazio-
ne degli aspetti pragmatici della comunicazione (neuropragmatica). Già al suo sor-
gere la nuova disciplina della neuropragmatica appare eterogenea al suo interno e
caratterizzata da differenti finalità esplicative. Basti considerare la presenza di
approcci teorici ed empirici diversificati nel panorama complessivo, che conflui-
scono nella neuropragmatica sperimentale, incentrata sulle componenti neurolin-
guistiche [16], la neuropragmatica cognitiva, diretta derivazione dei modelli cogni-
24 M. Balconi

tivi applicati allo studio della pragmatica [61], la neuropragmatica clinica, perlo-
più incentrata sull’analisi dei deficit comunicativi che ha messo a punto specifici
protocolli per la valutazione delle competenze pragmatiche deficitarie [123].
Occorre porre attenzione inoltre ai recenti sviluppi della neuropramatica nella dire-
zione dello studio dell’acquisizione di competenze cognitivo-sociali da un lato e
dello sviluppo delle funzioni cognitive metarappresentazionali dall’altro [34].
Alcuni modelli più recenti suggeriscono la necessità di analizzare l’attività del
soggetto in concomitanza allo svolgimento del processo stesso, considerando al
contempo l’incidenza che la dinamica interazionale può avere sul piano neuropsi-
cologico. Ovvero, occorre considerare come l’uso della lingua in un particolare
contesto, includente le componenti emotive, i piani intenzionali e le relazioni tra
parlanti, possa chiamare in causa componenti anatomiche e strutture cerebrali dif-
ferenti. L’analisi dei network implicati consente di sondare il processo comunicati-
vo reale nella sua dinamica time-by-time, integrando le componenti propriamente
linguistiche con quelle non linguistiche, come l’attività motoria per la regolazione
della comunicazione non-verbale, la memoria di lavoro per la regolazione e la sin-
cronizzazione dei diversi sistemi, l’attenzione e l’intenzionalità nella pianificazio-
ne dell’atto comunicativo [124].
Inoltre, adottando una diversa prospettiva di analisi di tipo bottom-up, che parte
dalla disamina della dinamica comunicativa, così come essa si articola vis-a-vis, è
possibile tenere in debita considerazione l’importanza dell’interazione tra il siste-
ma linguistico, il sistema visivo e il sistema motorio per la comprensione della
comunicazione [125]. Considerando, ad esempio, le componenti fonologiche è
stata rilevata una differenza tra ascoltare un fonema e ascoltare un fonema in asso-
ciazione alla rappresentazione visiva del movimento delle labbra [126]. O ancora,
si pensi al ruolo prioritario della rappresentazione motoria nella comunicazione
non-verbale tramite la mediazione di sistemi corticali specifici [127]. Il rapporto
comunicazione/azione è stato recentemente rinsaldato grazie all’evidenza che esi-
ste un legame diretto tra comunicazione verbale e sistemi motori in senso lato. O,
ancora, è stato osservato che la presenza della gestualità manuale durante la comu-
nicazione incrementa la prestazione dei soggetti in termini di performance mnesti-
ca [128]. Sul piano conversazionale e del discorso, risultati empirici suggeriscono
la necessità di considerare la conversazione e l’interazione alla luce dei processi di
accomodamento come meccanismo di progressiva convergenza dei sistemi comu-
nicativi verbali e non-verbali tra i parlanti [129].
Proponiamo di seguito le principali componenti che intervengono nella caratte-
rizzazione dell’uso del linguaggio in un contesto di interazione. Si tratta di compo-
nenti che si riferiscono a piani gerarchici di diversa natura: dalle unità microcomu-
nicative, che riguardano il sistema vocale, alle componenti di pertinenza enunciati-
va, che qualificano tipologie di atti comunicativi; al piano macrocomunicativo, che
si riferisce più in generale al discorso e alla conversazione. Da ultimo intendiamo
considerare le più ampie competenze di cognizione sociale, legate ai processi di
auto- ed etero-attribuzione e alle cosiddette funzioni metacognitive.
Più in generale, si evidenzia da quanto detto in precedenza che intendiamo le
funzioni pragmatiche della lingua non come unicamente ciò che è posto al servizio
del significare o “voler dire” di un messaggio (ciò che è implicato dal messaggio o
1. Basi biologiche dei sistemi linguistici e comunicativi 25

implicitamente comunicato) in aggiunta a “ciò che è detto” (il significato vero-con-


dizionale o letterale esplicitamente comunicato) [130]. La pragmatica ha direttamen-
te a che fare con quanto un parlante dice attraverso la lingua [131]. Pertanto le fun-
zioni della pragmatica divengono essenzialmente ancorate al linguaggio e non solo
al contesto, come tradizionalmente veniva proposto [132]. L’ampia sintesi delle fun-
zioni svolte dalle componenti paralinguistiche rende ragione di tale distinzione.

1.6.1. Componenti paralinguistiche

Gli aspetti paralinguistici possono essere sintetizzati come l’insieme di componen-


ti che includono la struttura prosodica e soprasegmentale di un messaggio [133].
Esse sono classificate nel più ampio dominio delle componenti vocali non-verbali,
ma distinte a loro volta dalle componenti non-verbali di natura extralinguistica, che
comprendono il sistema mimico, quello gestuale e quello prossemico [134]. Queste
ultime verranno considerate specificamente nella terza sezione del volume (si veda
il Capitolo 8). Focalizziamo innanzitutto le funzioni pragmatiche esplicate dal
sistema prosodico, con particolare attenzione alle proprietà emotive.

Sistema prosodico

Il sistema prosodico costituisce una componente del sistema paralinguistico e svol-


ge un ruolo prominente nell’organizzazione della comunicazione e delle funzione
discorsive. In quanto componente soprasegmentale, esso consente di dare connota-
zione ai termini [135, 136] attraverso la modificazione di alcuni parametri, quali il
profilo di intonazione, il timbro, l’intensità, l’accento, lo stress ed i parametri tem-
porali (ritmo di eloquio, di articolazione, fenomeni pausali).
Trager [137] ha introdotto una specifica classificazione delle componenti voca-
li che non hanno una struttura propriamente linguistica (il paralinguaggio appunto).
Il paralinguaggio, distinto dalle componenti più propriamente extralinguistiche, è a
sua volta scomponibile in:

– qualità vocali: tempo, ritmo, tonalità. Sono modificazioni di ciascun segnale


vocale che accompagnano l’articolazione dei fonemi;
– vocalizzazioni: caratterizzatori vocali (pianto, riso, ecc.), qualificatori vocali
(sono simili alle qualità vocali, ma provvedono a variare non un intero enuncia-
to, ma solo parti di esso, ad esempio nell’enfatizzare un elemento della frase),
segregati vocali (anch’essi non linguistici, comprendono i grugniti, i rumori
della lingua, le non-parole impiegate come parole, quali “shhh”, “ah”…).

Le componenti paralinguistiche sono quindi effetti vocali, che vengono perce-


piti come aventi tono, volume e durata, ma che sono propriamente risultanti da
meccanismi fisiologici, in quanto sono il prodotto del lavoro diretto della faringe o
delle cavità nasali e orali.
26 M. Balconi

In generale, la prosodia viene indicata come elemento fondamentale per carat-


terizzare il “significato” reale di una comunicazione o il suo “voler dire”. In altri
termini, essa fornisce elementi essenziali al parlante su come un enunciato debba
essere interpretato o inteso [138]. Le competenze sottese a tali componenti riguar-
dano la capacità di codificare/decodificare la natura del significato attraverso indi-
ci non linguistici [139]. Ad esempio, nei casi di ambiguità semantica esse divengo-
no gli elementi distintivi per una corretta attribuzione semiotica nella comprensio-
ne di un enunciato. Sul piano delle parole, lo stesso termine o insieme di termini
può esprimere contenuti contrapposti in funzione della distribuzione dello stress e
della tonia enunciativa. Si consideri l’esempio di un passante incredulo di fronte a
un personaggio noto visto in TV, che esclama con una tonia interrogativa: Ma è
lui?, che pone il ricevente nella condizione di fornire informazioni circa la reale
identità del personaggio, oppure, nel caso di una tonia esclamativa, evidenzia l’in-
credulità del parlante nel vedere il personaggio stesso (Ma è lui!) e il suo voler
comunicare il proprio disappunto.
La prosodia costituisce uno strumento rilevante anche da un secondo punto di
vista, rispetto al piano della connotazione emotiva del messaggio. La scelta dei ter-
mini enunciativi e le modalità prosodiche di produzione consentono, assieme alle
più ampie componenti non-verbali, di comunicare le attitudini del parlante, poiché
la connotazione rimarca le componenti motivazionali e contribuisce a definire il
significato referenziale del messaggio. Nell’esempio seguente Giorgio sta cammi-
nando quando improvvisamente si volta all’udire la voce di Carlo che esclama No,
tu!: in funzione del tono assunto dal parlante, l’enunciato può significare una feli-
ce sorpresa per l’amico rivisto casualmente dopo molti anni, o, al contrario, il tono
irritato di chi ha incontrato per l’ennesima volta uno scocciatore.
Occorre distinguere opportunamente alcune categorie prosodiche tra loro diffe-
renziate in relazione al piano funzionale: a) la prosodia intrinseca, connessa con il
profilo intonativo di un enunciato (che consente, per esempio, di distinguere una
frase affermativa da una interrogativa); b) la prosodia intellettiva, relativa alle fun-
zioni di accentuazione delle diverse componenti enunciative (per cui possiamo
comprendere il significato ironico della frase: Sei proprio simpatico, nel caso in cui
l’accento sia posto sul termine proprio); c) la prosodia emotiva, propriamente detta,
concernente la funzione vocale di espressione delle emozioni (con la quale possia-
mo distinguere il profilo della collera, per esempio, da quello della tristezza). Come
rilevato da alcune evidenze empiriche, rispetto a queste diverse forme, l’emisfero
destro appare particolarmente competente per la prosodia emotiva – rispetto alla
prosodia intrinseca – e a quella intellettiva per la quale, tuttavia, mantiene un con-
tributo secondario [138]. Occorre introdurre una ulteriore distinzione tra le due
competenze di produzione e di comprensione della prosodia. In generale, studi su
soggetti normali o con lesioni corticali hanno mostrato una distinzione tra le due
competenze. Il linguaggio di soggetti con lesioni alle aree frontali destre tende a
essere aprosodico e può apparire pertanto monofonico. Il soggetto può tuttavia con-
tinuare a mantenere intatta la capacità di interpretare il tono di voce nelle sue com-
ponenti emotive. Al contrario, soggetti non grado di interpretare il significato pro-
sodico di enunciati ma con competenze preservate per quanto concerne la produ-
zione vocale mostrano lesioni nelle aree posteriori dell’emisfero destro [140].
1. Basi biologiche dei sistemi linguistici e comunicativi 27

Di particolare interesse sono le funzioni prosodiche con funzione di comunica-


zione delle emozioni. La voce può comunicare emozioni, anche e soprattutto, attra-
verso la modulazione del ritmo, dell’intonazione e dell’intensità dell’eloquio. Si fa
riferimento quindi all’enorme potere evocativo che possiede la voce umana, non
solo per quanto viene detto verbalmente, ma anche per come un contenuto viene
comunicato. Nello specifico, la comunicazione delle emozioni fa ricorso a modifi-
cazioni dei parametri vocali per differenziare profili emotivi, per i quali si è giunti
a porre in luce l’esistenza di alcuni pattern vocali sistematici. Si possono infatti
distinguere due classi di caratteristiche acustiche:

– una classe caratterizzata da un’alta frequenza fondamentale, elevata intensità e


velocità;
– una classe caratterizzata da bassa frequenza fondamentale, scarsa variazione di
tonalità, debole intensità e ridotta velocità.

Analizzando le emozioni caratterizzate dall’una o dall’altra delle due preceden-


ti configurazioni si può osservare che il pattern costituito dalla combinazione di
alta frequenza/alto volume/alta velocità corrisponde a emozioni che richiedono un
elevato grado di attivazione (elevato arousal) (come gioia, rabbia, paura), mentre il
secondo pattern è distintivo delle emozioni a basso livello di attivazione (basso
arousal come indifferenza, noia, tristezza) [133].

Deficit neuropsicologici della prosodia

Studi approfonditi sono stati realizzati anche sul versante dei deficit di produzio-
ne e di riconoscimento delle componenti prosodiche in generale e di quelle emo-
tive in particolare. L’analisi volta a indagare la funzionalità o disfunzionalità
delle competenze prosodiche impiega generalmente modalità richiestive al sog-
getto, al fine di produrre enunciati in formato dichiarativo con una particolare
tonia affettiva (per esempio con rabbia o gioia) o con una particolare enfasi. Sul
versante della comprensione, al contrario, si richiede al soggetto di identificare il
particolare pattern emotivo o il significato non letterale (ad esempio, ironico)
veicolato dall’enunciato.
Occorre sottolineare una generale difficoltà nel classificare i disturbi prosodici,
legata alla mancanza di un modello esaustivo della normale performance prosodi-
ca che includa sia i parametri acustici sia quelli fisiologici, sebbene alcuni progres-
si sono stati compiuti di recente [133]. In generale, sono stati individuati diversi
disordini clinici relativi alla prosodia. La disprosodia, intesa come un mutamento
delle qualità vocali che in alcuni pazienti dà origine alla sindrome del cosiddetto
“accento straniero”, generalmente associata alle forme di afasia non fluente e che
comporta principalmente lesioni dell’emisfero destro. In questo caso, gli aspetti
emotivi possono rimanere intatti, implicando unicamente compromissione degli
aspetti articolatori del discorso associati alla produzione, pronuncia e intonazione
dell’enunciato. L’aprosodia, al contrario, denota una costrizione nella modulazio-
ne dell’intonazione comunemente presente nei soggetti con Parkinson. Infine,
28 M. Balconi

l’iperprosodia implica un uso sproporzionato e accentuato della prosodia, spesso


correlata a disturbi maniacali.
Nella maggior parte dei casi, deficit delle componenti prosodiche implicano
lesioni più o meno estese dell’emisfero destro. Tuttavia, alcune evidenze empiriche
sembrano andare in direzione opposta, rilevando la presenza in soggetti afasici di
una correlazione positiva tra la comprensione di enunciati e il decoding della pro-
sodia, con particolare riferimento a quella affettiva. Ciò suggerisce che una lesione
localizzata nell’emisfero sinistro che pregiudichi la comprensione possa anche
compromettere la comprensione linguistica delle componenti prosodiche. Occorre
tuttavia sottolineare che il paralinguaggio, al pari del linguaggio, utilizza la mate-
ria fonica per essere prodotto: infatti, un aspetto rilevante nell’analisi delle funzio-
ni della prosodia riguarda la necessità di assicurare un corretto coordinamento e
un’integrazione tra le componenti articolatorie-verbali e gli elementi prosodici-
affettivi, al fine di ottenere una comunicazione unificata e temporalmente coeren-
te. Disturbi linguistici che implicano compromissioni nella capacità di comprende-
re le unità fonetiche possono produrre, pertanto, un concomitante deficit nella com-
prensione della prosodia affettiva [141].
Rispetto alla prosodia affettiva, sono state rilevate specifiche disfunzioni sotto-
corticali in associazione a deficit di produzione e comprensione [142]. Tra le diver-
se componenti, i gangli della base mostrano di avere un ruolo per la prosodia affet-
tiva. Un tipico effetto di disfunzionalità della componente prosodica è costituito dal
linguaggio monotonico, associato a lesioni sia dell’emisfero destro sia di quello
sinistro, così come a strutture sottocorticali. Variazioni dai valori normativi nei
parametri della F0 sono state rilevate sia per soggetti con danni cerebrali destri che
sinistri [143, 144]. Parallelamente, deficit nella comprensione e nella produzione di
contenuti emotivi lessicali sono stati individuati in diverse ricerche. Più specifica-
mente, una mancanza di contenuti emotivi nel lessico parlato in congiunzione alla
difficoltà nell’identificare e descrivere stati emotivi è stata denominata alessitimia,
con una chiara predominanza di deficit destri. È stato infatti rilevato che l’emisfe-
ro destro è in grado di organizzare il proprio lessico in accordo a principi contestua-
li, affettivi e idiosincratici [114, 145]. Difficoltà nel produrre e comprendere paro-
le a contenuto emotivo sono state osservate anche per pazienti commisurotomizza-
ti, probabilmente a causa della mancanza di un normale flusso di informazioni dal-
l’emisfero destro a quello sinistro.
Alcune teorie spiegano la prevalenza emisferica destra per le funzioni emotive
della prosodia facendo ricorso a un’ipotesi percettiva, secondo cui l’emisfero destro
sarebbe privilegiato per processamento di stimoli uditivi; altre impiegano un’ipotesi
funzionale, secondo cui il valore di indici emotivi privi di valore semiotico (in quan-
to entità non linguistiche) sarebbe di pertinenza dell’emisfero destro (per una revisio-
ne si veda [140]).Tuttavia, anche l’emisfero sinistro non è privo di ruolo per la com-
prensione delle componenti emotive della voce. La predominanza destra sarebbe
infatti relativa alle cosiddette componenti affettive non-verbali (di natura prosodica
appunto), distinta dalla semantica emotiva, ovvero la capacità di etichettare le emo-
zioni e di comprenderne il significato in funzione allo specifico conteso (ad esempio,
un soggetto può non essere in grado di comprendere che un individuo è triste poiché
ha subito recentemente una perdita). Complessivamente, entrambi gli emisferi appa-
1. Basi biologiche dei sistemi linguistici e comunicativi 29

iono essere coinvolti nella comprensione delle componenti prosodiche affettive.


Infatti, deficit nella capacità di comprendere la prosodia affettiva sono legati anche a
lesioni sinistre, così come un’attivazione bilaterale destra e sinistra è stata rilevata in
compiti di decoding prosodico, secondo un crescente consenso che attribuisce mag-
giore credito all’ipotesi della dominanza “relativa” piuttosto che “assoluta” per l’emi-
sfero destro [146]. Modelli più recenti vanno nella direzione di una visione più stru-
mentale dell’emisfero sinistro, con funzioni integrative, che ha il compito di combi-
nare il prodotto di processi emozione o tono-correlati, tipicamente destri, con il pro-
dotto di processi semantico-verbali propri delle aree sinistre [143].
Occorre precisare che la metodologia di studio utilizzata in ambito neuropsico-
logico non appare irrilevante per chiarire il ruolo dei due emisferi nelle competenze
prosodiche emotive. Differenti disegni e compiti di ricerca possono infatti rendere
più o meno preponderante il contributo delle aree destre o sinistre. I diversi esperi-
menti includono, infatti, compiti di discriminazione della prosodia emotiva a partire
da eventi appaiati (discriminazione emotiva); compiti di identificazione del signifi-
cato emotivo di indici prosodici rispetto a etichette verbali o a espressioni facciali
(identificazione emotiva); esprimere un giudizio su stimoli prosodici per dimensioni
come la valenza o l’intensità (valutazione emotiva). Risultati diversi sembrano esse-
re legati ai compiti diversi, con una conferma del contributo di entrambi gli emisfe-
ri alla produzione e alla comprensione della prosodia emotiva [140].

1.6.2. Atti linguistici indiretti e funzioni pragmatiche


del linguaggio figurato

L’emisfero destro è caratterizzato da una specifica competenza anche per le funzioni


pragmatiche del linguaggio propriamente dette, che riguardano l’uso dei significati in
un dato contesto. Il rapporto tra pragmatica e neuropsicologia è divenuto rilevante in
questo ambito alla luce soprattutto di due aspetti: la necessità di fare riferimento più
stretto alle componenti cognitive e ai processi di produzione/elaborazione del signifi-
cato in condizioni non ordinarie (o non standard) [147]; il quesito circa lo status delle
funzioni che presiedono alla pragmatica, ovvero la loro dipendenza/indipendenza fun-
zionale dagli altri piani della struttura componenziale [29].
Tra le funzioni pragmatiche del linguaggio, possiamo fare riferimento in parti-
colare ai fenomeni di seguito descritti.

– Gli atti linguistici indiretti e la comunicazione implicita. A questo proposito,


l’emisfero destro appare in grado di elaborare le informazioni implicite dell’at-
to comunicativo. Risulta, infatti, che soggetti con lesioni destre, essendo inca-
paci di valutare correttamente gli elementi contestuali, non possiedono una cor-
retta comprensione delle componenti non esplicite del messaggio, quali la fin-
zione e l’allusione [148]. Inoltre, è stato accertato che soggetti con lesioni del-
l’emisfero destro hanno difficoltà nel comprendere il significato delle richieste
indirette. Tale fenomeno appare attribuibile all’incapacità di questi soggetti di
attivare modelli rappresentazionali coerenti con il contesto comunicativo [149].
30 M. Balconi

– Il linguaggio figurato, tra cui citiamo come esempio la comunicazione ironica


o il significato metaforico. Particolare attenzione è posta in questo caso sul
ruolo svolto dalle operazioni cognitive che consentono il passaggio da un piano
di codifica/decodifica diretta e immediata a un piano indiretto. All’interno di
molti modelli esplicativi diviene centrale il problema delle inferenze che garan-
tiscono il legante tra un livello per così dire “superficiale” e un livello “profon-
do” del significato [150]. Molto modelli propri della pragmatica cognitiva
hanno cercato di individuare differenze quantitative e/o qualitative nei due per-
corsi. Citiamo come esempio le analisi di Gibbs [131] sul rapporto tra accesso
diretto e indiretto del significato figurato. O i lavori di Coulson [151] sulla natu-
ra dei significati non letterali, equiparati a forme di anomalia semantica, in con-
trapposizione ai significati letterali non anomali. In altre parole, l’autrice postu-
la la validità dell’equazione che pone il significato standard come semantica-
mente non anomalo e il significato non standard come equiparabile a un’ano-
malia semantica, in virtù di quanto rilevato da una serie di studi con rilevazio-
ni ERP. Recenti contributi empirici sembrano andare nella direzione dell’auto-
maticità e immediatezza della comprensione di significati non letterali, sino alle
ipotesi più radicali secondo cui che ciò che viene prodotto nell’atto di compren-
dere un qualsiasi messaggio è una rappresentazione concettuale, che consente
di andare oltre la distinzione tra letterale/non letterale [152, 153].

Entrambe le componenti sovracitate degli atti linguistici indiretti e del linguag-


gio figurato attingono a una più ampia capacità richiesta al parlante di fare inferen-
ze nel caso sia necessario accedere a significati meno espliciti o per così dire meno
direttamente fruibili a livello superficiale [154]. La comunicazione rende necessa-
rio l’intervento di processi interpretativi che soddisfino la necessità di anticipare
informazioni non esplicitamente presenti nel discorso. Tali competenze sono parti-
colarmente rilevanti nella comprensione del linguaggio figurato, come nel caso del-
l’ironia e della metafora, ma anche ordinariamente per contesti comunicativi
semanticamente ambigui. Lesioni all’emisfero destro sono state correlate alla diffi-
coltà di comprensione del piano inferenziale: soggetti con deficit destri mostrano
un’incapacità nel processo inferenziale logico o nelle inferenze basate su conoscen-
ze logiche. Più in generale, l’incapacità di scegliere modelli interpretativi adeguati
alla conversazione assieme ai deficit inferenziali metacognitivi può essere correla-
ta alla compromissione focale di componenti dell’emisfero destro.
Gli studi con neuroimaging hanno mostrato una sostanziale concordanza nel-
l’attribuire all’emisfero destro proprietà di elaborazione di significati figurati,
come nel caso delle metafore. Uno studio interessante con rilevazione PET di
Bottini e colleghi [155] ha evidenziato come tale emisfero sia maggiormente atti-
vato nella comprensione di enunciati metaforici rispetto a enunciati letterali. In
particolare, la regione dorsolaterale prefrontale e il giro temporale mediale, non-
ché il lobo parietale mediale dell’emisfero destro appaiono maggiormente coin-
volti nell’elaborazione di significati metaforici. L’autrice attribuisce un maggio-
re contributo da parte dell’emisfero destro a causa della necessità di riattivare
esperienze immaginabili dalla memoria episodica. Tale ipotesi è stata supportata
più recentemente da Fletcher e colleghi [156] che hanno supposto un maggiore
1. Basi biologiche dei sistemi linguistici e comunicativi 31

coinvolgimento destro al fine di ispezionare le immagini prodotte in concomitan-


za alla comprensione metaforica.
Tuttavia, si pone il problema dell’effettiva modularità funzionale dei percorsi di
produzione/comprensione di componenti pragmatiche, con risvolti diretti sul piano
delle strutture corticali (modularità strutturale) a essi sottese. Innanzitutto, occorre
domandarsi se tali funzioni siano isolabili dalle altre funzioni comunicative in ter-
mini processuali. In secondo luogo, occorre chiedersi se queste ultime siano tem-
poralmente distinte dalle precedenti. L’argomento risulta essere di difficile tratta-
zione in primo luogo a ragione del fatto che il concetto di modulo è esso stesso
oggetto di dibattimento (con posizioni più o meno “radicali”) (al riguardo si veda
il Capitolo 2); secondariamente, i piani di analisi appaiono eterogenei, in virtù del
fatto che l’oggetto di cui si discute è per sua natura multiforme. Infatti, è presumi-
bile che nell’attivazione di percorsi inferenziali per la comprensione di significati
figurati siano chiamati in causa processi almeno parzialmente distinti da quelli
implicati, ad esempio nella comprensione dell’ambiguità semantica. Una terza dif-
ficoltà è rappresentata dalla diversa metodologia impiegata nello studio dei feno-
meni pragmatici. Le ricerche più recenti si avvalgono di indici elettrofisiologici o
più propriamente di rilevazioni mediante neuroimaging. Questi solo negli ultimi
anni hanno consentito di evidenziare con maggiore chiarezza il contributo di speci-
fiche aree per altrettanto specifici processi comunicativi. Accanto a essi, esiste, tut-
tavia, anche un numero consistente di studi empirici che fanno ricorso a indici di
natura comportamentale (ad esempio, con rilevazioni dei TR o dei movimenti ocu-
lari, si veda il Capitolo 2), ponendo la necessità di integrare prospettive differenti
al fine di rispondere in modo quanto più esaustivo possibile ai diversi quesiti.

1.6.3. Problema della specializzazione emisferica


per le funzioni comunicative superiori

Occorre a questo punto evidenziare che un oggetto di crescente interesse per gli stu-
diosi concerne la specializzazione emisferica delle funzioni comunicative e in par-
ticolare di quelle pragmatiche. Considerando l’insieme di studi che hanno esplora-
to tale tematica è stato rilevato che la specializzazione emisferica corticale destra
può essere riferita a quattro principali funzioni: a) le componenti non-verbali in
genere e il linguaggio figurato in particolare; b) le componenti paralinguistiche
della comunicazione; c) i compiti percettivi complessi che includono l’identifica-
zione di volti a contenuto emotivo; d) le componenti emotive in senso lato.
Più in dettaglio, una specificità funzionale dell’emisfero destro concerne la
produzione e l’analisi delle proprietà prosodiche del linguaggio (si veda il para-
grafo 1.6.1) [157]. Ad esempio, l’identificazione delle componenti vocali del tono
e il profilo di intonazione appaiono essere di pertinenza dell’emisfero destro, come
rivelato da studi che hanno impiegato il metodo dell’ascolto dicotico. Anche com-
piti di natura non-verbale chiamano in causa principalmente l’emisfero destro,
così come compiti di riconoscimento di volti non familiari. Focalizzando le com-
ponenti emotive della comunicazione, esse appaiono lateralizzate nelle aree destre,
32 M. Balconi

sia per quanto concerne l’espressione delle emozioni che rispetto all’esperienza emo-
tiva. Più in generale, un insieme di fenomeni riconducibili all’esperienza emotiva
appare strettamente legato all’emisfero destro, tra cui l’abilità di esprimere le emo-
zioni attraverso la prosodia, la mimica facciale, i gesti, così come la capacità di com-
prendere la natura dell’emozione espressa mediante la prosodia e la mimica emotiva.
Esperimenti che hanno impiegato indici elettrodermici hanno evidenziato una
minore risposta del soggetto a stimoli con contenuto emotivo nel caso di lesioni
destre [158]. In particolare, la corretta comprensione degli aspetti emotivi dei volti
richiede il contributo dell’emisfero destro, mentre meno rilevante appare quello del-
l’emisfero sinistro. Quest’ultimo conserva, tuttavia, una generale competenza per la
semantica delle emozioni, in quanto ha la capacità di interpretare lo “sfondo” emo-
tivo delle situazioni (per esempio, individuando il legame tra tristezza ed eventi lut-
tuosi); per contro, la capacità di interpretare il significato di un’espressione facciale,
di un gesto o della variazione del tono di voce è scarsamente influenzata dal contri-
buto dell’emisfero sinistro. Dall’altro lato, i risultati relativi alla funzione espressiva
di produzione delle emozioni appaiono più eterogenei: entrambi gli emisferi presen-
tano tale competenza, sebbene sia distribuita in funzione del canale sensoriale impli-
cato, quello visivo o vocale. Rispetto al primo canale, i due emisferi apportano un
contributo equo, anche se differenziato per gli specifici compiti richiesti (definizio-
ne di dettaglio o dell’intera configurazione mimica). Rispetto al secondo, l’elabora-
zione delle componenti affettive mediante il canale vocale è prerogativa dell’emisfe-
ro destro piuttosto che di quello sinistro [159] (al riguardo si veda il Capitolo 9).
Tre principali teorie hanno cercato di rendere conto di tale differenziazione emi-
sferica. Secondo l’approccio percettivo, le differenze tra gli emisferi sarebbero lega-
te ad abilità percettive distinte nell’elaborazione delle proprietà sensoriali di base,
che supportano successive differenziazioni nell’esecuzione delle operazioni cogniti-
ve di più alto livello. In particolare, l’ipotesi della frequenza spaziale prevede che i
due emisferi si differenzino nel processo di elaborazione delle informazioni rispetto
alla proprietà della frequenza spaziale misurata in cicli per grado di angolo visivo
(ogni ciclo corrisponde all’alternanza di due superfici circoscritte e fra loro adiacen-
ti, una scura e una chiara) [160]. L’informazione visiva è a bassa frequenza nel caso
in cui, in un dato spazio, si ha un valore modesto di cicli per grado, mentre è ad alta
frequenza quando tale valore risulta elevato. L’emisfero destro sarebbe deputato a
elaborare stimoli a bassa frequenza spaziale, mentre quello sinistro sarebbe specia-
lizzato nell’individuazione di frequenze spaziali elevate. Sulla base di tale distinzio-
ne, si è ritenuto che, mentre l’emisfero sinistro utilizza un “codice di dettaglio” nel-
l’elaborazione delle informazioni, quello destro faccia ricorso a un “codice globale”.
Il secondo approccio prende in considerazione le diverse modalità di elabora-
zione dell’informazione nei due emisferi, in quanto vi è un differente “stile” di ela-
borazione, di tipo olistico o, al contrario, di tipo analitico [161]. La modalità ana-
litica, attribuibile all’emisfero sinistro, ha la propria specificità nella rilevazione
delle relazioni temporali, mentre la modalità olistica, caratteristica dell’emisfero
destro, è adatta alla rilevazione di configurazioni complessive (rappresentazione
sintetica) e, in particolare, all’elaborazione delle relazioni spaziali. Tuttavia, ricer-
che effettuate su soggetti con funzioni intatte e soggetti con deficit hanno posto in
evidenza che entrambi gli emisferi sono chiamati in causa per l’elaborazione delle
1. Basi biologiche dei sistemi linguistici e comunicativi 33

medesime informazioni in funzione della modalità di elaborazione richiesta. Per


esempio, nel riconoscimento di volti, per cui l’emisfero destro appare possedere
una superiorità rispetto a quello sinistro, l’attivazione dell’uno o dell’altro emisfe-
ro dipenderebbe non dal tipo di informazione in sé, ma da quanto richiesto dal com-
pito: nel caso in cui il riconoscimento sia legato alla rilevazione di dettagli (per
esempio, gli occhi), si osserva una superiorità emisferica sinistra (processo analiti-
co) piuttosto che destra (processo olistico).
Le caratteristiche distintive dei due emisferi in termini rappresentazionali secondo
la dicotomia “analitico/sintetico” consentono di spiegare una serie di fenomeni relati-
vi alle funzioni comunicative e pragmatiche, come la rappresentazione dei significati
e l’attivazione di molteplici percorsi interpretativi nell’elaborazione di parole seman-
ticamente ambigue. In particolare, risulta che l’emisfero destro sia specializzato per
l’attivazione simultanea di significati multipli in riferimento a termini ambigui all’in-
terno di un enunciato [114]. Infatti, nella comprensione del significato occorre che
alcune caratteristiche semantiche dei termini siano selezionate (informazioni pertinen-
ti) a discapito di altre non rilevanti (informazioni non pertinenti) per il contesto. In que-
sto processo, l’emisfero sinistro sarebbe deputato alla selezione delle informazioni per-
tinenti a monte dell’attribuzione del significato (selettività semantica), mentre l’emi-
sfero destro potrebbe rappresentare l’intero campo semantico del lemma, e i possibili
legami concettuali che il lemma intrattiene con altri campi semantici secondo il prin-
cipio della somiglianza (polivalenza semantica), come appare nella Figura 1.4. Nel
complesso, per l’emisfero destro vale il principio dell’estensione e della sovrapposi-
zione, per il sinistro quello della selezione e della distinzione.

Fig. 1.4 Attivazione dei campi semantici nei due emisferi. Mentre l’emisfero sinistro attiva un
campo semantico ristretto, selezionando le proprietà essenziali della parola, quello destro prevede
un campo semantico più esteso e più indefinito, che include proprietà tra loro anche distanti. In
riposta a una parola (in basso), l’emisfero destro presenta possibili aree di sovrapposizione nel
campo semantico, con associazioni tra parole anche distanti tra loro
34 M. Balconi

Le due teorie precedenti possono essere combinate in una prospettiva di inte-


grazione [73]. Infatti, le differenze riscontrate nei due emisferi rispetto alla moda-
lità di percepire gli stimoli e agli “stili” di elaborazione possono essere integrate in
un’unica prospettiva. Da un lato, l’estrapolazione di informazioni a bassa frequen-
za può indurre l’emisfero destro a elaborare le informazioni in modo più globale,
dall’altro, la superiorità dell’emisfero sinistro per le informazioni ad alta frequenza
può determinare una concomitante specializzazione per processi “analitici” e per
modalità di elaborazione “locale” piuttosto che “globale”.
Tuttavia, a questo punto, è utile precisare che, tra le funzioni linguistiche e
comunicative, solo alcune appaiono chiaramente soggette alla lateralizzazione e,
per molte di queste (ad esempio, i processi linguistici di lettura o l’attribuzione
delle proprietà grammaticali alle parole), entrambi gli emisferi appaiono fornire il
proprio contributo, seppure con ruoli distinti sul piano qualitativo e quantitativo.
Distinguiamo, pertanto, tra specificità funzionale emisferica, nel caso in cui una
determinata funzione sia prerogativa di uno dei due emisferi e aspecificità funzio-
nale, nel caso in cui un emisfero possieda competenze per quella funzione, ma con
un ruolo secondario e di supporto rispetto all’altro.
A questo riguardo occorre superare sia l’equazione tradizionale “emisfero sini-
stro = linguaggio” sia la concezione dell’aspecificità dell’emisfero destro per il lin-
guaggio, da intendersi come semplice “facilitatore” dei processi linguistici. Infatti,
gli studi sulle proprietà comunicative dell’emisfero destro si sono perlopiù concen-
trati sulla comprensione dei termini (semantica lessicale) [114]. In quest’ambito è
emerso che tale emisfero svolge un ruolo specifico nell’attribuzione di significato
alle parole indipendentemente dai vincoli sintattici e del contesto enunciativo nel
quale il termine è collocato (rappresentazione intralessicale). In particolare, l’opzio-
ne a favore del significato intralessicale (rispetto a quello intraenunciativo) fornisce
un indubbio vantaggio, dal momento che tale rappresentazione è formulata a partire
da un contesto informativo più semplice e meno strutturato rispetto al contesto enun-
ciativo. L’emisfero destro favorisce più facilmente del sinistro l’interscambiabilità
semantica nella rappresentazione del significato, con possibili sovrapposizioni di
proprietà appartenenti a termini tra loro semanticamente associati [162]. Inoltre,
l’emisfero destro svolge la funzione di rappresentare semanticamente stimoli che
compaiono in modalità differenti da quella proposizionale, come le immagini e gli
stimoli visivi, consentendo la “traduzione” concettuale dello stimolo a partire dalla
sua configurazione visiva.

1.5.4 Neuropragmatica del discorso

Nell’ultimo decennio, un interessante sviluppo della neuropragmatica è andato


nella direzione dell’analisi del piano sovraenunciativo del discorso. È innanzitut-
to necessario distinguere tra differenti tipologie di discorso, ovvero tra la cosid-
detta narrazione [163] e la produzione conversazionale [164], che include la pre-
senza di uno scambio tra parlante e astante. Quest’ultimo rappresenta il contesto
privilegiato di comunicazione umana, cui sarà dedicato un apposito paragrafo (si
1. Basi biologiche dei sistemi linguistici e comunicativi 35

veda il paragrafo 1.6.5), mentre analizziamo nel presente il discorso di tipo nar-
rativo. Obiettivo di questa analisi è quello di considerare i processi sovraordina-
ti di produzione e comprensione di unità comunicative articolate o di strutture
discorsive sovrimposte. Tra le componenti di maggiore interesse del discorso
indagate da una prospettiva pragmatica, sono degni di nota gli studi circa le com-
petenze del parlante nel comprendere coerentemente parti del discorso, nel defi-
nire sequenze logiche e nel focalizzare gli elementi di maggiore rilevanza nella
struttura complessiva del discorso [165]. Tale struttura consente di organizzare le
unità del discorso così da consentire il collegamento di periodi all’interno di
enunciati o di episodi all’interno di storie.
Recenti evidenze empiriche hanno sottolineato il contributo dell’emisfero
destro nella produzione e nella comprensione del discorso narrativo, in termini di
capacità di organizzazione degli enunciati per la costruzione di una storia, o di
valutazione della rilevanza di un enunciato per la comprensione complessiva del
discorso [166]. Individui con danni focali destri mostrano una maggiore difficoltà
nell’estrapolazione delle componenti tematiche di storie o nell’utilizzo di informa-
zioni per ricostruire una rappresentazione adeguata dell’intero discorso [167].
Un’analoga difficoltà è stata rilevata per la comprensione di passaggi ambigui del
discorso, come nel caso di contesti polisemici. Dati a favore della specificità cor-
ticale destra per le funzioni del discorso provengono dall’analisi delle componen-
ti tematiche del discorso, come lo studio di Caplan e Dapretto [168], sebbene in
questo caso gli autori sottolineino anche il contributo delle aree perisilviane oltre
che dei loro omologhi destri. Studi interessanti riguardano inoltre l’analisi della
coerenza discorsiva [46] o della capacità di comprendere il significato intrinseco
di racconti [169]. In quest’ultimo caso, mediante rilevazione PET è stata osserva-
ta una maggiore attivazione del giro frontale inferiore e del giro mediotemporale,
entrambi dell’emisfero destro.

Competenze discorsive: il modello di Kintsch e van Dijk

In generale, le competenze discorsive presuppongono la capacità di attivare un pro-


cesso cognitivo multilivello che prevede la concettualizzazione delle singole unità
come parte di un tutto. Tale competenza si esplica come facoltà di integrazione di
differenti piani funzionali, tra cui la capacità di avere una rappresentazione comple-
ta delle informazioni, grazie a opportune inferenze atte a garantire la corretta inter-
pretazione del significato, nonchè la capacità di comprendere gli aspetti sia letterali
che figurati del messaggio. Gran parte della letteratura esistente si è focalizzata sugli
aspetti di coerenza lessicale e morfosintattica del discorso, di maggiore pertinenza
della neurolinguistica del discorso [170]. Citiamo, tra gli altri, gli studi che hanno
impiegato indici grammaticali e semantici del discorso (come il type/token ratio,
l’indice di varietà lessicale ecc. [171]; indici relativi alla struttura complessiva
(come la lunghezza degli enunciati, il numero di periodi ecc.) [172], o ancora ele-
menti che possono essere ricondotti all’organizzazione semantica del discorso [173].
In altri casi, sono state impiegate misure indirette di coesione del discorso, come nel
caso dei fenomeni anaforici, delle ripetizioni lessicali, della sinonimia ecc., che defi-
36 M. Balconi

niscono il grado di coerenza della rappresentazione del discorso nel parlante e, di


converso, dell’interpretazione da parte del ricevente [174].
Seppure non esime da critiche, il modello proposto da van Dijk e Kintsch [175]
consente di sintetizzare alcuni dei passaggi cruciali nella rappresentazione della
tipologia di discorso narrativo e di fare previsioni circa i processi comunicativi e
cognitivi sottostanti alla produzione/comprensione della struttura discorsiva.
L’approccio ha focalizzato unità di metalivello, tra cui unità metafrasali, coinciden-
ti con strutture organizzate secondo un insieme di regole e un insieme finito di rela-
zioni che intercorrono tra sotto-unità (ad esempio di tipo causale o secondo sequen-
ze temporali). Tali unità possono includere episodi a loro volta costituiti da setting,
obiettivi, personaggi ecc. Sul piano cognitivo, occorre che vi sia un’adeguata rap-
presentazione mentale in grado di contemplare le unità componenti e le loro reci-
proche relazioni. In particolare, un elemento focale è costituito dal concetto di rap-
porto causale tra elementi costitutivi.
Suggerimenti euristici sul modo con cui i soggetti possano rappresentarsi il
discorso giungono dal concetto di macrostruttura presente nel modello [176].
L’interpretazione di un testo è vista come un processo in tempo reale limitato dal
carattere finito della memoria a breve termine del decoder. L’analisi e la compren-
sione procedono attraverso fasi cicliche che includono la suddivisione in micro-
proposizioni, formate da predicato (verbo) e argomento (agente, obiettivo, ogget-
to). Microproposizioni organizzate gerarchicamente all’interno di un network
sono legate insieme a formare l’unità tematica principale del discorso.
Quest’ultima costituisce un elemento di primo piano nell’intera struttura.
L’attribuzione tematica può consentire infatti l’interpretazione di informazioni
ambigue o indefinite, può facilitare le inferenze circa quanto non è stato esplicita-
mente asserito e permette di fare previsioni su quale informazione sarà aggiunta
probabilmente in seguito, determinando il sistema di attese semantiche del parlan-
te. Il processo inferenziale viene attivato al fine di rappresentare il testo e la sua
organizzazione secondo network, all’interno di un processo di costruzione/rico-
struzione della macrostruttura del testo.
Sul versante cognitivo, la comprensione può essere più o meno complessa in
funzione delle sforzo richiesto per connettere tra loro le diverse parti del discorso
in un insieme dotato di senso e implica la capacità di utilizzare strategie cognitive
adeguate al contesto per la definizione del tema del discorso.
A questo riguardo, l’emisfero destro mostra una specifica competenza per l’ela-
borazione di percorsi di senso concernenti l’organizzazione generale delle compo-
nenti tematiche di più alto ordine secondo una gerarchia di livelli, da quello anali-
tico (o microstruttura) a quello sintetico (o macrostruttura). Soggetti con lesioni
localizzate nell’emisfero destro (afasia da danno cerebrale destro) mostrano una
complessiva difficoltà nel ricostruire il senso complessivo del discorso, nel fare
inferenze su quanto è stato detto e nel discriminare ciò che è effettivamente rilevan-
te della struttura articolata del discorso. Tra le funzioni maggiormente compromes-
se in caso di emilesione destra delle aree del linguaggio (sia di Broca sia di
Wernicke), vi è l’incapacità di organizzare la sequenza degli enunciati che compon-
gono il discorso e di determinare quali informazioni siano maggiormente rilevanti
per attribuire un significato globale al medesimo [166].
1. Basi biologiche dei sistemi linguistici e comunicativi 37

1.6.5. Funzioni di regolazione della conversazione


Le funzioni pragmatiche sono state analizzate nel più ampio contesto dell’intera-
zione comunicativa, che considera quali componenti centrali le dinamiche di reci-
proco scambio tra i parlanti. Il discorso conversazionale o conversazione può esse-
re rappresentato come un’interazione finalizzata tra individui all’interno di coordi-
nate spazio-temporali, che richiede specifiche competenze da parte degli attori
comunicativi. Tali funzioni includono il più ampio insieme delle competenze di
gestione dell’interazione e di regolazione del comportamento nel contesto sociale.
Sul piano metodologico, gli strumenti impiegati per indagare le competenze prag-
matiche della conversazione sono tra loro notevolmente differenziati, anche rispet-
to alla specifiche finalità cui rispondono. Citiamo, tra gli altri, alcuni test classici
quali il PONS (Profile of Nonverbal Sensitivity, [177]), che consentono di rilevare
l’abilità di fare inferenze a partire da stimoli complessi come vignette o script vie-
doregistrati, ponendo in evidenza il rapporto tra setting conversazionale e compo-
nenti non-verbali (quali postura, tono di voce ecc.).
La neurolinguistica ha principalmente adottato come modello della conversazio-
ne la prospettiva pragmatica di Grice [27], con una serie di implicazioni derivate dal
principio di cooperazione da essa proposto. Più recentemente, alcuni modelli hanno
focalizzato il ruolo delle implicature conversazionali [30, 118], al fine di attribuire
maggiore rilievo al rapporto di mutuo scambio tra emittente-ricevente e alle recipro-
che inferenze necessarie allo svolgimento dell’atto comunicativo. Sul piano cogniti-
vo, l’insieme di rappresentazioni prodotte reciprocamente dai parlanti costituisce il
background cognitivo che garantisce coerenza e pertinenza alla dinamica comunica-
tiva: la rappresentazione delle conoscenze rese salienti dalla comunicazione in atto
e la condivisione delle conoscenze contestuali danno vita a un muto ambiente con-
diviso. Un recente filone di ricerca si è focalizzato sugli aspetti costitutivi dell’atto
comunicativo, nei termini dei meccanismi di intenzionalizzazione e di reintenziona-
lizzazione della comunicazione [31]. Anche il concetto di modello mentale è stato
ampiamente considerato all’interno dello studio della pragmatica della conversazio-
ne. Secondo tale prospettiva, gli elementi rappresentazionali focali della conversa-
zione sarebbero integrati progressivamente dai parlanti nei propri modelli mentali,
aumentando così gradualmente il background di conoscenze condivise.
Per i paradigmi che hanno indagato più direttamente le componenti di regola-
zione della conversazione due elementi appaiono rilevanti: la coerenza locale e la
plausibilità globale nella gestione dello scambio. Rispetto alla coerenza essa sareb-
be fondata sulla regolazione delle sovrapposizioni (evitare per esempio l’inconsi-
stenza dei legami tra parti del discorso), la progressione tematica (evitare la ridon-
danza), l’attenzione alle non contraddizioni logiche e la rilevanza pragmatica del
discorso [30, 178]. In secondo luogo, elemento costitutivo dello scambio conversa-
zionale è la regolazione dei turni di eloquio (turn-taking) per la gestione delle aper-
ture, chiusure, cessione del turno ecc.: la regolazione dei turni e i cambi avvengono
infatti generalmente in contesti transazionali rilevanti [179]. Un parlante gestisce il
turno con il proprio interlocutore, autoselezionandosi (ad esempio, attraverso un
innalzamento del tono di voce) o selezionando il proprio interlocutore (ad esempio,
attraverso una domanda). Un caso significativo è costituito dai turni appaiati, defini-
38 M. Balconi

to da componenti adiacenti della conversazione che dipendono l’uno dall’altro, come


nelle aperture con saluti, le offerte-accettazioni/rifiuti. Il tipo di enunciati prodotti da
un parlante (come gli atti linguistici delle richieste) e l’influenza delle variabili con-
testuali sono ulteriori aspetti considerati rilevanti nella conversazione, avendo un
impatto diretto sul processo interpretativo. Ad esempio, il carattere diretto o indiretto
delle richieste, determinato dal complesso di intenzioni comunicative del parlante,
possiede una ricaduta sull’effettiva capacità del ricevente di comprendere corretta-
mente l’intenzione comunicativa dell’emittente (processo di reintenzionalizzazione).
Più specificamente, in relazione alla compromissione della capacità di regolazio-
ne dei turni di eloquio, dello stile di eloquio o, più in generale, di adeguare il proprio
registro comunicativo in funzione del contesto conversazionale, sono stati individua-
ti deficit specifici sul piano delle competenze comunicative sociali. Generalmente,
tali deficit sono classificati come disordini della comunicazione interpersonale e pos-
sono includere l’incapacità di valutare la plausibilità di elementi con il contesto infe-
rito e rappresentato dal soggetto [180]. Tali deficit si riferiscono alla più generale
incapacità di aggiornare o adattare i propri modelli mentali alla situazione reale, con
riferimento alle più ampie competenze di comprensione del contesto sociale e di con-
testualizzazione delle informazioni. Gardner e colleghi [181] hanno sottolineato l’in-
capacità di un paziente nel contestualizzare gli eventi e nel valutare la loro plausibi-
lità, che si accompagna all’incapacità di cogliere il senso complessivo di uno script
conversazionale. Tale competenza, di pertinenza dell’emisfero destro, consentirebbe
di giudicare la probabilità o la possibilità che un evento abbia luogo. Deficit specifi-
ci destri mostrano inoltre come il soggetto non sia in grado di cogliere l’incoerenza e
la violazione della plausibilità semantica di oggetti/eventi in una specifica situazione.
Infine, l’impossibilità di comprendere i piani di conoscenza condivisa da parte dei
parlanti è stata messa in relazione diretta a deficit di natura rappresentazionale, pro-
pri della cognizione sociale (al riguardo si veda il paragrafo 1.7).

Un modello multicomponenziale

Nell’ottica di una generale integrazione delle differenti componenti che intervengono


nel processo di produzione/comprensione della conversazione, riportiamo il modello
multicomponenziale di Frederiksen, Bracewell, Breuleux e Renaud [182], che pone in
evidenza non solo il piano semantico-pragmatico della conversazione ma anche le com-
petenze concettuali necessarie alla regolazione dello scambio. Secondo tale modello, il
processo comunicativo è inteso come una sequenza di espressioni della lingua naturale
che rappresenta una parte della più complessa conoscenza concettuale posseduta dal
parlante. Esso opera simultaneamente su quattro differenti livelli: linguistico, proposi-
zionale, semantico-pragmatico e concettuale. La componente concettuale, in particola-
re, è una rappresentazione mentale (o modello) che include informazioni provenienti in
parte dalla memoria a lungo termine e in parte direttamente dal contesto discorsivo.
Quest’ultimo è costruito secondo un processo incrementale, man mano che lo scambio
procede e diviene la cornice interpretativa dell’unità discorsiva di riferimento.
I quattro livelli hanno valore di sottoprocessi funzionalmente distinti. La rileva-
zione di deficit “focali” per alcune di tali funzioni supporta infatti l’esistenza di
1. Basi biologiche dei sistemi linguistici e comunicativi 39

moduli di elaborazione autonomi l’uno dall’altro. In alcuni casi, a fronte di una


capacità integra di comprendere “localmente” i contenuti del messaggio, il sogget-
to presenta una generale carenza nell’estrapolazione delle informazioni pragmati-
che (come l’interpretazione del significato figurato o metaforico) o conversaziona-
li (come l’alternanza dei turni tra i parlanti). Alcuni soggetti mostrano, per esem-
pio, consistenti difficoltà nell’elaborare le richieste indirette a fronte di una lesione
localizzata nelle corrispondenti aree del linguaggio dell’emisfero destro. Inoltre,
deficit relativi unicamente al sistema referenziale, con conseguente incapacità di
elaborare significati anaforici, pongono in evidenza l’esistenza di strutture neurali
funzionali distinte, quali i lobi temporali e parietali destri. Nel modello di discorso
proposto da Fredericksen e colleghi [183] e riportato nella Figura 1.5, le funzioni
discorsive più generali (dalla generazione della cornice discorsiva alla produzione
della rete semantica) sono di più stretta competenza dell’emisfero destro, mentre le
funzioni discorsive più analitiche (come l’analisi sintattica e l’analisi lessicale e
morfologica) richiedono più direttamente il contributo dell’emisfero sinistro.

Fig. 1.5 Modello di elaborazione del discorso. Modificata da [183]


40 M. Balconi

1.7 Metacognizione e social cognition


Parlare di competenze comunicative significa fare riferimento alle più ampie abili-
tà legate alla social cognition che dirigono il processo di pianificazione prima e di
messa in atto poi dell’atto comunicativo [33]. Il concetto di comunicazione come
azione e come interazione ha lungo corso [132]. Tuttavia, solo negli ultimi tempi
tale concezione è andata ampliandosi sino a includere il più vasto repertorio di
competenze “sociali” che si pongono quale requisito la regolazione dello scambio
comunicativo. Tra esse, occorre includere il complesso rapporto tra metacognizio-
ne e funzioni comunicative [34], non restringendo tuttavia il campo esclusivamen-
te alle funzioni di mentalizzazione o di attribuzione di stati mentali. Piuttosto,
occorre tenere presente un insieme articolato di competenze relazionali che costi-
tuiscono il bagaglio indispensabile alla regolazione dello scambio tra i parlanti. Le
competenze che possono essere incluse in tale ambito si riferiscono più specifica-
mente ad alcune dimensioni, quali:

– le capacità di inferire gli stati mentali propri e altrui (classicamente raggruppa-


te nella Theory of Mind);
– la conoscenza di stati emotivi come elementi caratterizzanti la comunicazione e
i processi di sintonizzazione emotiva;
– la capacità di rappresentarsi il contesto relazionale che contraddistingue l’inte-
razione comunicativa e le funzioni di monitoraggio e automonitoraggio del
comportamento.

Tali competenze possono essere considerate distinte funzionalmente da altre


competenze sociali genericamente intese? In altri termini, la loro declinazione nel
divenire della comunicazione conferisce alle stesse uno status indipendente, in
quanto si declinano secondo modalità processo-specifiche al servizio dell’atto
comunicativo? Al fine di rispondere a tali quesiti l’approccio neuropsicologico ha
indagato approfonditamente il ruolo di specifiche componenti funzionali e struttu-
rali in relazione alla regolazione della comunicazione tra gli individui [124].
In primo luogo, è necessario prevedere che un qualsiasi scambio comunicativo
includa la capacità di rappresentarsi l’altro come dotato di pensieri e motivazioni.
Infatti, gli individui, in quanto regolati da complessi stati mentali, costituiscono un
esempio unico nel loro genere: con tale peculiarità ciascun individuo deve fare i conti
nella realizzazione del proprio atto comunicativo. La ricerca si è indirizzata essenzial-
mente in due direzioni: verso la definizione delle competenze rappresentazionali fina-
lizzata alla comprensione dell’altro come agente intenzionale [183, 184]; verso i pro-
cessi di mentalizzazione che caratterizzano la definizione di una teoria della mente
propria e altrui [185]. Sul piano neurofunzionale è possibile sostenere che esista una
rappresentazione specifica per la categoria degli individui, al pari di quelle preceden-
temente rilevate per altre categorie di oggetti? [186] Studi recenti sottolineano come
sia possibile individuare aree deputate a elaborare in modo discreto sia l’individuo, le
sue azioni e il suo comportamento [187] sia gli stati mentali altrui [32]. In particola-
re, la corteccia prefrontale mediale, la giunzione temporoparietale destra, il solco
temporale superiore e il giro fusiforme appaiono essere deputati all’elaborazione di
1. Basi biologiche dei sistemi linguistici e comunicativi 41

informazioni circa gli stati mentali altrui. In particolare, l’area mediale prefrontale
sarebbe attiva nella rappresentazione di stati mentali nel caso in cui essi siano attri-
buiti ad altri individui (e non a esseri generici come animali) [34].
Collegata alla precedente è la capacità di formulare modelli mentali dell’indivi-
duo rispetto alle componenti emotive che caratterizzano l’azione intenzionale da un
lato [36, 188, 189] e la capacità di sintonizzarsi emotivamente con il proprio interlo-
cutore, dall’altro [190-192]. Tuttavia, una buona parte degli studi di neuroimaging
ha indagato tale fenomeno da una prospettiva eminentemente unidirezionale, ovve-
ro focalizzando gli effetti prodotti da stimoli socialmente rilevanti sulla mente di sin-
goli individui. Al contrario, un approccio bidirezionale deve tener conto del fatto che
due o più individui entrano in interazione per comunicare, influenzandosi reciproca-
mente rispetto alle rappresentazioni mentali reciproche, riferite sia alle componenti
cognitive sia a quelle emotive. Occorre pertanto analizzare come pensieri, sentimen-
ti e intenzioni possano essere trasmessi da un individuo all’altro.
Al riguardo sono stati proposti alcuni modelli simulativi che consentono di spie-
gare come possa avere luogo la “lettura della mente” altrui, garantendo al contem-
po un’adeguata sintonizzazione emotiva con il proprio interlocutore [193]. La capa-
cità di rappresentarsi la mente dell’altro passerebbe attraverso la rappresentazione
delle proprie funzioni metacognitive e, parallelamente, individui che mostrano spe-
cifici deficit per tali competenze presentano una concomitante incapacità nel rego-
lare la propria interazione in modo funzionale. Specificamente, danni all’area
mediale prefrontale appaiono essere legati all’incapacità di porsi in sintonia con il
proprio interlocutore, nei termini di impossibilità di individuare empaticamente lo
stato emotivo e motivazionale dell’altro [194, 195].
Più recentemente è stata rilevata la necessità di analizzare come possa avvenire
la comunicazione di pensieri e sentimenti al proprio interlocutore, al fine di consen-
tire a quest’ultimo di costruire proprie rappresentazioni circa i pensieri e vissuti
emotivi altrui. Occorre cioè spostare l’attenzione dalla rappresentazione prodotta
individualmente alla muta induzione di rappresentazioni nel corso del processo
comunicativo [196]. Tale “processo circolare” è concluso nel momento in cui, in
seconda istanza, la mente altrui è in grado di inviare un feedback sulle rappresen-
tazioni così formulate in attesa di un ulteriore input che ricorsivamente innesti
nuovi processi comunicativi. I meccanismi cognitivi sottostanti costituiscono l’og-
getto principe della ricerca neuropsicologica attuale, sebbene occorra prevedere la
predisposizione in contesti sperimentali di strumenti di rilevazione che coinvolga-
no più attori comunicativi in interazione, con la registrazione simultanea dell’inte-
razione diadica che coinvolge strutture corticali multiple [52, 197].
Infine, in termini più generali, le competenze relazionali richieste dal processo
comunicativo come scambio tra individui includono la capacità di rappresentare cor-
rettamente il contesto di interazione, nonché l’abilità di rinegoziare i propri obietti-
vi comunicativi in relazione all’evoluzione dello scambio. Una funzione ausiliaria
alla precedente nei termini di regolazione dello scambio comunicativo consiste nella
capacità di distinguere le conoscenze semantiche rilevanti da quelle non rilevanti,
competenza che appare distinta funzionalmente dalla rappresentazione delle funzio-
ni mentali (auto ed eteroriferite). Dal punto di vista neuropsicologico, alcuni studi
hanno focalizzato le funzioni di regolazione sociale in relazione al contributo della
42 M. Balconi

corteccia orbitofrontale. Infatti, tale area appare strettamente legata alle strutture
coinvolte nei processi sociali ed emotivi, incluse amigdala, area del cingolo, area
somatosensoriale [198]. Lesioni della corteccia orbitofrontale comportano l’incapa-
cità dei soggetti di definire priorità comportamentali e di individuare il comporta-
mento comunicativo adeguato al contesto [199]. Più in generale, tali componenti
sarebbero legate alla capacità del soggetto di autopercepirsi e di autoregolare il pro-
prio comportamento adottando norme comportamentali adeguate al contesto conver-
sazionale (per un ampliamento ulteriore del tema si veda anche il Capitolo 7).
Sottesa a tale funzione di rappresentazione dell’azione nel contesto è la capacità di
percepire il proprio comportamento, comparandolo con uno standard astratto e defi-
nito a priori in virtù di come esso dovrebbe essere regolato [200, 201]. Entrambi i
piani di autopercezione e di autoregolazione sono stati strettamente collegati all’at-
tivazione della corteccia orbitofrontale. In particolare, tale area corticale appare
legata alla capacità di rilevare elementi cognitivi, emotivi e motivazionali adeguati
al fine di stabilire relazioni pertinenti all’interno dello scambio conversazionale
[202]. Parallelamente, lesioni orbitofrontali comporterebbero l’incapacità di utiliz-
zare una comunicazione comprensibile, finalizzata alla condivisione di intenzioni
comunicative con il proprio interlocutore.

1.8 Conclusioni

Nel corso del capitolo abbiamo sottolineato come la capacità di utilizzare lo strumen-
to linguistico richieda competenze articolate su più piani, che includono sia le funzio-
ni del linguaggio sia più complesse capacità di attivare processi comunicativi. Ci rife-
riamo, ad esempio, alle competenze metacognitive, ai piani inferenziali e di regola-
zione dell’interazione tra parlanti. Attenzione particolare è stata rivolta ai processi di
regolazione della conversazione e alla social cognition, che include componenti sia
di natura cognitiva sia di origine sociale. Inoltre, rispetto alle componenti pragmati-
che (neuropragmatica) occorre sottolineare la sempre maggiore importanza del lin-
guaggio “in uso”, evidenziando al contempo l’estrema eterogeneità degli approcci
teorici ed empirici adottati. Data l’estrema varietà delle componenti prese in conside-
razione e delle unità processuali considerate, non risulta compito sempre facile indi-
viduare una diretta corrispondenza uno-a-uno tra funzioni e specifiche unità cortica-
li attivate sul piano neuroanatomico. In primo luogo, si rende necessario adottare una
visione più ampia del concetto di localizzazione di funzioni, tenendo conto anche
della non perfetta scomponibilità in unità cognitive distinte dei processi comunicati-
vi coinvolti. In secondo luogo, è possibile concludere a favore del coinvolgimento di
un network articolato di strutture coinvolte: oltre alle aree classiche del linguaggio
occorre, infatti, considerare il ruolo di alcune componenti, tra cui ad esempio quelle
deputate a regolare le funzioni metacognitive (come l’area prefrontale) o finalizzate
alla sintonizzazione emotiva (sistema amigdala-talamo). In terzo luogo, occorre supe-
rare la classica dicotomia emisfero destro-emisfero sinistro, rispettivamente per le
funzioni comunicative-pragmatiche e linguistiche, a favore di una visione integrata,
che prevede l’interazione, piuttosto che l’azione indipendente, dei due emisferi.
1. Basi biologiche dei sistemi linguistici e comunicativi 43

Bibliografia

1. Brown CM, Hagoort P (1999) The neurocognition of language: challenges and future direc-
tions. In: Brown CM, Hagoort P (eds) The neurocognition of language. Oxford University
Press, Oxford New York, pp. 3-15
2. Jackendoff R (1999) The representational structure of the language faculty and their interac-
tions. In: Brown CM, Hagoort P (eds) The neurocognition of language. Oxford University
Press, Oxford New York, pp. 37-79
3. Whitaker HA (1998) Electrical stimulation mapping of language and cortex. In: Stemmer B,
Whitaker HA (eds) Handbook of Neurolinguistics. Academic Press, San Diego London, pp.
126-131
4. Stemmer B, Whitaker HA (eds) (1998) Handbook of Neurolinguistics. Academic Press, San
Diego London
5. Laudanna A, Burani C (1993) Il lessico: processi e rappresentazioni. La Nuova Italia, Roma
6. Miller JL, Eimas PD (eds) (1995) Speech, language and communication. Academic Press,
New York
7. Seidemberg MS (1995) Visual recognition: an overview. In: Miller JL, Eimas PD (eds)
Speech, language and communication. Academic Press, New York, pp. 138-179
8. Deacon TW (1997) The symbolic Species: The co-evolution of language and the brain.
Norton & Company, New York London
9. Rugg MD (1999) Functional neuroimaging in cognitive neuroscience. In: Brown CM,
Hagoort P (eds) The neurocognition of language. Oxford University Press, Oxford New
York, pp. 37-79
10. Frazier L (1995) Issues of representation in psycholinguistics. In: Miller JL, Eimas PD (eds)
Speech, language and communication. Academic Press, New York, pp. 1-29
11. Levelt WJM (1999) Producing spoken language: a blueprint of the speaker. In: Brown CM,
Hagoort P (eds) The neurocognition of language. Oxford University Press, Oxford New York,
pp. 83-122
12. Caramazza A (2000) The organization of conceptual knowledge in the brain. In: Gazzaniga
M (ed) The new cognitive neuroscience. Bradford Book/The MIT Press, Cambridge Mass.,
pp. 1037-1046
13. Gibson E, Pearlmutter NJ (1998) Constraints on sentence comprehension. Trends Cogni Sci
2:262-268
14. Miceli G, Caramazza A (1988) Dissociation of inflectional and derivational morphology.
Brain Lang 35:24-65
15. Zaidel E (1990) Language functions in the two hemispheres following cerebral commissuro-
tomy and hemispherectomy. In: Boller F, Grafman J (eds) Handbook of neuropsychology.
Elsevier, Amsterdam, pp. 115-150
16. Noveck IA, Sperber D (2004) Experimental Pragmatics, Palgrave, San Diego
17. Mey J (1998) Pragmatics In: Mey J (ed.) Concise Encyclopedia of Pragmatics. Elsevier,
Amsterdan, pp. 716-737
18. Basso A, Cubelli R (1999) Clinical aspects of aphasia. In: Pizzamiglio L, Denes G (eds)
Handbook of clinical neuropsychology. Psychology Press, Hove, pp. 181-193
19. Damasio AR, Damasio H (2000) Aphasia and the neural basis of language. In: Mesulam MM
(ed) Principles of behavioral and cognitive neurology. Oxford University Press, New York,
pp. 294-315
20. Làdavas E, Berti AE (1995) Neuropsicologia. Il Mulino, Bologna
21. Carston R (2002) Linguistic meaning, communicated meaning and cognitive pragmatics.
Mind Lang 17:127-148
22. Kasher A (1994) Modular speech act theory: Programme and results. In: Tsohatzidis SL (ed.)
Foundations of Speech Act Theory. Routledge, London, pp. 312-322
23. Vallar G (1999) I metodi di indagine nell’uomo. In: Umiltà C (ed) Manuale di neuroscienze.
Il Mulino, Bologna, pp. 461-512
44 M. Balconi

24. Büchel C, Frith CD, Friston K (1999) Functional integration: methods for assessing
interactions among neuronal systems using brain imaging. In: Brown CM, Hagoort P
(eds) The neurocognition of language. Oxford University Press, Oxford New York, pp.
337-358
25. Kutas M, Federmeier KD, Sereno MI (1999) Current approaches to mapping language in
electromagnetic space. In: Brown CM, Hagoort P (eds) The neurocognition of language.
Oxford University Press, Oxford New York, pp. 359-392
26. Demonet JF (1998) Tomographic brain imaging of language functions: prospects for a new
brain/language model. In: Stemmer B, Whitaker HA (eds) Handbook of Neurolinguistics.
Academic Press, San Diego London, pp. 132-143
27. Grice HP (1989) Studies in the way of words. Harvard University Press, Cambridge Mass.
28. Searle JR (1979) Expression and meaning. Cambridge University Press, Cambridge
29. Bar-Hillel Y (1971) Pragmatics of Natural Language. Reidel, Dordrecht
30. Sperber D, Wilson D (1986) Relevance: communication and cognition. Oxford University
Press, Oxford
31. Anolli L (2002) Psicologia della comunicazione. Il Mulino, Bologna
32. Baron-Cohen S (1995) Mindblindness: an essay on autism and theory of mind. The MIT
Press, Cambridge Mass.
33. Frith CD, Wolpert DM (2004) The neuroscience of social interaction: decoding, imitating
and influencing the actions of others. Oxford University Press, Oxford New York
34. Mitchell JP, Mason MF, Macrae CN, Banaji MR (2006) Thinking about others: The neu-
ral substrates of social cognition. In: Cacioppo JT, Visser PS, Pickett CL (2006) Social
neuroscience: People thinking about thinking people. The MIT Press, Cambridge Mass,
pp. 63-82
35. Sally D (2004) Dressing the mind properly for the game. In: Frith CD, Wolpert DM (eds) The
neuroscience of social interaction: decoding, imitating and influencing the actions of others.
Oxford University Press, Oxford New York, pp. 283-303
36. Gallese V (2001) The “shared manifold” hypothesis: from mirror neurons to empathy. J
Consc Stud 8:33-50
37. Bara B (2004) Neuropragmatics: Neuropsychological constraints to the theory of
Communication. Talk presented at Scuola Normale Superiore, May 28, Pisa, Italia
38. Lakoff G, Johnson M (1980) Metaphors we live by. University of Chicago Press, Chicago
39. Shank R, Abelson R (1977) Scripts, plans, goals and understanding. Erlbaum, Hillsdale
40. Cacioppo JT, Visser PS, Pickett CL (2006) Social neuroscience: People thinking about thin-
king people. The MIT Press, Cambridge Mass.
41. Van Lancker D, Pachana NA (1998) The influence of emotion on language and communica-
tion disorders. In: Stemmer B, Whitaker HA (eds) Handbook of Neurolinguistics. Academic
Press, San Diego London, pp. 301-313
42. Lorch MP, Borod JC, Koff E (1998) The role of emotion in the linguistic and pragmatic
aspects of aphasic performance. Journal of Neurolinguist 11 (1-2):103-118
43. Giora R (2003) On our mind: Salience, context and figurative language. Oxford University
Press, New York
44. Giora R (1999) On the priority of salient meanings: Studies of literal and figurative langua-
ge. J Pragmatics 31:919-929
45. Stemmer B, Giroux F, Joanette Y (1994) Production and evaluation of requests by right hemi-
sphere brain-damaged individuals. Brain Lang 47:1-31
46. Maguire EA, Frith CD, Morris RGR (1999) The functional neuroanatomy of comprehension
and memory: the importance of prior knowledge. Brain 122:1839-1850
47. Robertson DA, Gernsbacher MA, Guidotti SJ et al (2000) Functional neuroanatomy of the
cognitive process of mapping during discourse comprehension. Psychol Sci 11:255-260
48. Balconi M, Carrera A (2006) Cross-modal perception of emotional face and voice. A neurop-
sychological approach. Paper presented at the “2th Meeting of the European Societies of
Neuropsychology” (18-20 October), Toulouse, France
49. Calvert GA, Campbell R, Brammer MJ (2000) Evidence from functional magnetic reso-
1. Basi biologiche dei sistemi linguistici e comunicativi 45

nance imaging of crossmodal binding in the human heteromodal cortex. Curr Biol.
10:649-657
50. Giles H, Smith P (1979) Accommodation Theory: Optimal Levels of Convergence. In: Giles
H, St. Clair H (eds) Language and Social Psychology. Basil Blackwell, Oxford
51. Pickering MJ, Garrod S (2003) Toward a mechanistic psychology of dialogue. Behav Brain
Sci 26:678-678
52. Caplan D (1992) Language: Structure, processing and disorders. The MIT Press, Cambridge
MassLanguage and Cognitive Processes
53. Gainotti G (1993) Riddle in the right hemisphere’s contribution to the recovery of language.
EJDC 28:227-246
54. Aglioti SM (2006) Neuropsicologia del linguaggio. Il Mulino, Bologna
55. Rizzolati G, Arbib MA (1998) Language within our grasp. TINS 21:188-194
56. Liberman AM, Mattingly IG (1989) A specialization for speech perception. Science
243:489-494
57. Kandel ER, Schwartz JH, Jessel TM (1995) Essential of neuroscience and behavior. Appleton
& Lange, Stanford
58. Pinker S (1994) The language instinct. Morrow, New York
59. Chomsky N (1986) Knowledge of language: Its nature, origin and use. Praeger, New York
60. Burling R (1993) Primate calls, human language, and nonverbal communication. Curr
Anthropol 343:25-53
61. Bara BG, Tirassa M (2000) Neuropragmatics: brain and communication. Brain Lang
71:10-14
62. Hauser MD, Andersson K (1994) Left hemisphere dominance for processing vocalizations in
adult, but not infant rhesus monkeys: Field experiments. Pro Nat Ac Sci 91:3946-3948
63. Vallortigara G (2000) Altre menti: Lo studio comparato della cognizione animale. Il Mulino,
Bologna
64. Neville HJ (1996) Developmental specificity in neurocognitive development in humans.
In: Gazzaniga MS (ed) The cognitive neuroscience. The MIT Press, Cambridge Mass pp.
219-231
65. Curtiss S (1988) Abnormal language acquisition and the modularity of language. In: Newmeyer
FJ (ed) Linguistics: The Cambridge survey. Cambridge University Press, Cambridge, vol 2 pp.
96-116
66. Stromswold K (2000) The cognitive neuroscience of language acquisition. In: Gazzaniga M
(ed) The new cognitive neurosciences. Seconda edizione. The MIT Press, Cambridge Mass,
pp. 909-932
67. Làdavas E, Sartori G, Zago S (1999) Le basi della neuropsicologia. In: Umiltà C (ed)
Manuale di neuroscienze, Il Mulino, Bologna, pp. 513-642
68. Gumperz JJ, Levinson SC (1996) Rethinking linguistic relativity. Cambridge University
Press, Cambridge
69. Whitaker HA (1998) Neurolinguistics from the Middle Ages to the Pre-Modern era: histori-
cal vignettes. In: Stemmer B, Whitaker HA (eds) Handbook of Neurolinguistics. Academic
Press, San Diego London, pp. 27-54
70. Hickock G (2000) Speech perception, conduction aphasia and the functional neuroatonomy
of language. In: Grodzinsky Y, Shapiro LP, Swinney D (eds) Language and the brain:
Representation and processes. Academic Press, San Diego London, pp. 87-104
71. Hiscock M (1998) Brain lateralization across life span. In: Stemmer B, Whitaker HA (eds)
Handbook of Neurolinguistics. Academic Press, San Diego London, pp. 358-368
72. Zaidel E (1998) Language in the right emisphere following callosal disconnection. In:
Stemmer B, Whitaker HA (eds) Handbook of Neurolinguistics. Academic Press, San Diego
London, pp. 369-383
73. Banich MT (1997) Neuropsychology: The neural bases of mental function. Houghton Miffin
Company, Boston New York
74. Lennenberg EH (1967) Biological foundations of language. John Wiley & Sons, New York
75. Hellige JB (1998) Unity of language and communication: interhemispheric interaction in the
46 M. Balconi

lateralized brain. In: Stemmer B, Whitaker HA (eds) Handbook of Neurolinguistics.


Academic Press, San Diego London, pp. 405-414
76. Zaidel E (1994) Interhemispheric transfer in the split brain: Long-term status following com-
plete cerebral commissurotomy. In: Davidson RH, Hugdahl K (eds) Human laterality. The
MIT Press, Cambridge, pp. 491-532
77. Lieberman P (2000) Human language and the reptilian brain. Harvard University Press,
Cambridge Mass
78. Crosson B, Nadeau SE (1998) The role of subcortical structures in linguistic processes:
Recent developments. In: Stemmer B, Whitaker HA (eds) Handbook of Neurolinguistics.
Academic Press, San Diego London, pp. 431-445
79. Wallesch CW, Papagno C (1988) Subcortical aphasia. In: Rose FC, Whurr R, Wyke MA (eds)
Aphasia. Whurr Publishers, London, pp. 256-257
80. Damasio AR, Damasio H (1992) Brain and language. Sci Am 267:88-95
81. Creutzfeldt O, Ojemann, G, Lettich E (1989) Neuronal activity in the human lateral tempo-
ral lobe: I. Responses to speech. Exp Brain Res 77:451-475
82. Boatman D, Hart JJ, Lesser RP, Honeycutt N et atl (1998) Right hemisphere speech percep-
tion revealed by amobarbital injection and electrical interference. Neurology 51:458-464
83. Zaidel E (1985) Language in the right hemisphere. In: Benson DF, Zaidel E (eds) The dual
brain: Hemispheric specialisation in humans. Guilford Press, New York, pp. 205-231
84. Levelt WJM, Praamastra P, Meyer AS et al (1998) An MEG study of picture naming. Jou
Cognitive Neurosci 10:553-567
85. Warren RM (1968) Verbal transformation effect and auditory perceptual mechanisms.
Psychological Bulletin 70:261-270
86. Damasio AR (1989) The brain binds entities and events by multiregional activation from con-
vergence zones. Neural Comput 1:123-132
87. Mesulam MM (1998) From sensation to cognition. Brain 121:1013-1052
88. Garret MF (1992) Disorders of lexical selection. Cognition 42:143-180
89. Levelt WJM (1989) Speaking: From intention to articulation. The MIT Press, Cambridge
Mass
90. Vigliocco G, Antonini T, Garret MF (1998) Grammatical gender is on the tip of Italian ton-
gues. Psychol Sci 8:314-317
91. McCarthy R, Warrington EK (1984) A two-route model of speech production. Evidence from
aphasia. Brain 107:463-485
92. Damasio H, Grabowsky TJ, Tranel D et al (1996) A neural basis for lexical retrieval. Nature
380:499-505
93. Rapp BC, Caramazza A (1996) Disorders of lexical processing and the lexicon, In:
Gazzaniga MS (ed) The cognitive neurosciences. The MIT Press, Cambridge, pp. 901-
913
94. Miceli G, Silveri MC, Nocentini U et al (1988) Patterns of dissociation in comprehension and
production of nouns and verbs. Aphasiology 2:351-358
95. Saffran EM, Sholl A (1999) Clues to the functional and neural architecture of word meaning.
In: Brown CM, Hagoort P (eds) The neurocognition of language. Oxford University Press,
Oxford New York, pp. 241-272
96. Garret M (2000) Remarks on the architecture of language processing systems. In:
Grodzinsky Y, Shapiro LP, Swinney D (eds) Language and the brain: Representation and pro-
cesses. Academic Press, San Diego London, pp. 31-69
97. Hagoort P, Brown CM, Osterhout L (1999) The neurocognition of syntactic processing. In:
Brown CM, Hagoort P (eds) The neurocognition of language. Oxford University Press,
Oxford New York, pp. 273-315
98. Cutler A, Clifton C Jr (1999) Comprehending spoken language: a blueprint of the listener. In:
Brown CM, Hagoort P (eds) The neurocognition of language. Oxford University Press,
Oxford New York, pp. 123-166
99. Hillis AE, Caramazza A (1991) Category specific naming and the comprehension impaire-
ment: a double dissociation. Brain 110:613-629
1. Basi biologiche dei sistemi linguistici e comunicativi 47

100. Petersen SE, Fox PT, Posner MI et al (1989) Positron emission tomographic studies of the
processing of single words. J Cognitive Neurosci 1:153-170
101. Gabrielli JDE, Desmond JE, Demb JB et al (1996) Functional magnetic resonance imaging
of semantic memory processes. Psychol Sci 7:278-283
102. Price C, Indefrey P, van Turennout M (1999) The neural architecture underlying the proces-
sing of written and spoken forms. In: Brown CM, Hagoort P (eds) The neurocognition of lan-
guage. Oxford University Press, Oxford New York, pp. 211-240
103. Frazier L (1987) Processing syntactic structures: Evidence from Dutch. Nat Lang Linguist Th
5:519-559
104. Bock JK, Eberhard K (1992) Meaning, sound and syntax in English number agreement. Lang
Cognitive Proc 8:57-99
105. Kolk H (1998) Disorders of syntax in aphasia: Linguistic-descriptive and processing approa-
ches. In: Stemmer B, Whitaker HA (eds) Handbook of Neurolinguistics. Academic Press,
San Diego London, pp. 250-261
106. Frazier L (1990) Exploring the architecture of language processing system. In: Altmann MT
(ed) Cognitive model of speech processing: Psycholinguistic and computational processing.
The MIT Press, Cambridge Mass, pp. 409-433
107. Kutas M, Hillyard S (1984) Brain potential during reading reflect word expectancies and
semantic association. Nature 307:161-163
108. Federmeier KD, Kutas M (2003) Il linguaggio del cervello. In: Zani A, Mado Proverbio A
(eds) Elettrofisiologia della mente. Carocci, Roma, pp. 139-171
109. Balconi M, Pozzoli U (2004) Elaborazione di anomalie semantiche e sintattiche con stimo-
lazione visiva e uditiva. Un’analisi mediante correlati ERPs. GIP 3:585-612
110. Neville HJ, Nicol JL, Barss A et al (1991) Syntactically based sentence processing classes:
Evidence from event-related brain potentials. J Cognitive Neurosci 3:151-165
111. Friederici AD (2002) Towards a neural basis of auditory sentence processing. Trends Cogn
Sci 2:78-84
112. Taraban R, McClelland JL (1990) Parsing and comprehension: A multiple constraint view. In:
Balota DA, Flores d’Arcais GB, Rayner K (eds) Comprehension processes in reading.
Erlbaum, Hillsdale, pp. 231-263
113. Altmann, GTM, Garnahm A, Dennis Y (1992) Avoinding the garden path: eye movements in
context. J Mem Lang 1:685-712
114. Beeman M, Chiarello C (1998) Right hemisphere language comprehension: perspectives
from cognitive neuroscience. Erlbaum. Hillsdale
115. Violi P (1997) Significato ed esperienza. Bompiani, Milano
116. Lakoff G (1987) Women, fire and dangerous things: what categories reveal about the mind.
University of Chicago Press, Chicago
117. Garfinkel H (1967) Study in ethnomethodology. Prentice Hallo, Englewood Cliffs
118. Levinson SC (2000) Presumptive meanings: The theory of generalized conversational impli-
cature. The MIT Press, Cambridge Mass
119. Mininni G (2000) Psicologia del parlare commune. Editoriale Grasso, Bologna
120. Messing LS, Campbell R (1999) Gesture, speech and sign. Oxford University Press, Oxford
121. Dennet DC (1987) The intentional stance. The MIT Press, Cambridge Mass
122. Searle JR (1983) Intentionality: An essay in the philosophy of mind. Cambridge University
Press, Cambridge
123. Gardner H, Brownell HH (1986) Right hemisphere communication battery. Psychology
Service, Boston
124. Nusbaum HC, Small SL (2006) Investigating cortical mechanisms of language processing in
social context. In: Cacioppo JT, Visser PS, Pickett CL (eds) Social neuroscience: People thin-
king about thinking people. The MIT Press, Cambridge Mass, pp. 131-152
125. Puce A, Perret D (2004) Electrophisiology and brain imaging of biological motion. In: Frith
CD, Wolpert DM (eds) The neuroscience of social interaction: decoding, imitating and
influencing the actions of others. Oxford University Press, Oxford New York, pp. 1-22
126. Campell R, MacSweeney M, Surguladze S et al (2001) Cortical substrates for the perception
48 M. Balconi

of face actions: An fMRI study of the specificity of activation for seen speech and for mea-
ningless lower-face acts (gurning). Cognitive Brain Res 12:233-243
127. Rizzolatti G, Craighero L, Fadiga L (2002) The mirror system in humans. In: Stamenov MI,
Gallese V (eds) Mirror neurons and the evolution of brain and language. John Benjamins,
Amsterdam, pp. 37-59
128. Goldin-Meadow S, Nusbaum H, Kelly SD et al (2001) Explaining math: Gesturing lightens
the load. Psychol Sci 12:516-522
129. Giles H, Coupland N (1991) Language: context and consequences. Thomson Brooks,
Belmont
130. Green GM (1996) Pragmatics and natural language understanding. Erlbaum, Mahwah
131. Gibbs RW Jr (2002) A new look at literal meaning in understanding what is said and impli-
cated. J Pragmatics 34:457-486
132. Grice HP (1975) Logic and conversation. In: Cole P, Morgan JL (eds) Syntax and semantics:
vol 3, Speech Acts. Academic Press, New York, pp. 199-219
133. Davidson RJ, Scherer KR, Hill Goldsmith H (2003) Handbook of affective sciences. Oxford
University Press, New York
134. Feldman RS, Rimé B (1991) Fundamentals of nonverbal behavior. Cambridge University
Press, Cambridge
135. Birdwhistell RL (1970) Kinesis and context: Essay on body-motion communication.
Pennsylvania University Press, Philadelphia
136. Siegman AW, Feldstein S (1987) Nonverbal behavior and communication. Erlbaum, Hillsdale
137. Trager GL (1958) Paralanguage: A first approximation. Stud. Linguist. 13:1-12
138. Ross ED (2000) Affective Prosody and the Aprosodias. In: Mesulam MM (ed) Principles of
behavioral and cognitive neurology. Oxford University Press, New York, pp. 316-331
139. Anolli L, Ciceri R (1997) La voce delle emozioni. Verso una seriosi della comunicazione
vocale non-verbale delle emozioni. Franco Angeli, Milano
140. Pell MD (2006) Cerebral mechanisms for understanding emotional prosody in speech. Brain
Lang 96:221-234
141. Feyereisen P, Seron X (1982) Nonverbal communication and aphasia: a review. Brain Lang
31:191-212, 213-236
142. Denes G, Caldognetto EM, Semenza C et al (1984) Discrimination and identification of
emotions in human voice by brain damaged subjects. Acta Neurol Scand 69:154-162
143. Friederici AD, Alter K (2004) Lateralization of auditory language functions: a dynamic dual
pathway model. Brain Lang 89:267-276
144. Kotz S, Meyer M, Alter K et al (2003) On the lateralization of emotional prosody: An event-
related functional MR investigation. Brain Lang 86:366-376
145. TenHouten WD, Hoppe KD, Bogen JE et al (1986) Alexithymia: An experimental study of
cerebral commisurotomy patients and normal control subjects. Am J Psychiat 143:312-316
146. Gandour J, Tong Y, Wong D et al (2004) Hemispheric roles in the perception of speech pro-
sody. Neuroimage 23:344-357
147. Marraffa M (2005) Meccanismi della comunicazione. In: Ferretti F, Gambarara D (eds)
Comunicazione e scienza cognitiva. Laterza, Roma, pp. 151
148. Anolli L, Balconi M, Ciceri R (2002) Deceptive Miscommunication Theory (DeMiT): A new
model for the analysis of deceptive communication. In: Anolli L, Ciceri R, Riva G (eds) Say
not to say: New perspectives on miscommunication. Ios Press, Amsterdam, pp. 75-104
149. Beeman M (1998) Coarse semantic coding and discourse comprehension. In: Beeman M,
Chiarello C (eds) Right hemisphere language comprehension: perspectives from cognitive
neuroscience. Erlbaum, Hillsdale, pp. 255-284
150. Giannoli GI (2005) La comprensione inferenziale. In: Ferretti F, Gambarara D (eds)
Comunicazione e scienza cognitiva. Laterza, Roma, pp. 73-110
151. Coulson, S, Van Petten C, Folstein J (2000) Event-related brain response to literal and figu-
rative language in left handers. Psychophysiology 37:Suppl. 1
152. Glucksberg S (2004) On the Automaticity of Pragmatic Processes: A Modular Proposal. In:
Noveck IA, Wilson D (eds) Experimental Pragmatics. Palgrave, San Diego, pp. 72-92
1. Basi biologiche dei sistemi linguistici e comunicativi 49

153. Sperber D, Wilson D (2003) Pragmatics, modularity and mind reading. Mind Lang 17:3-23
154. Verschueren J (1999) Understanding pragmatics. Arnold, London
155. Bottini G, Corcoran R, Sterzi R, Paulesu E, Shenone P, Scarpa P, Frackowiak RSJ (1994) The
role of the right emisphere in the interpretation of figurative aspects of language. Brain
117:1241-1253
156. Fletcher PC, Shallice T, Frith CD, et al (1996) Brain activity during memory retrieval: The
influence of imagery and semantic cueing. Brain 119:1587-1596
157. Ellis AW, Young AW (1995) Human cognitive neuropsychology: a textbook with readings.
Hove Psychology Press, Hove
158. Öhman A, Hamm A, Hugdahl K (2000) Cognition and the autonomic nervous system:
Orienting, anticipation and conditioning. In: Cacioppo JT, Tassinary LG, Berntson GG (eds)
Handbook of psychophysiology. Cambridge University Press, New York, pp. 522-575
159. Davidson RJ (1995) Cerebral asimmetry, emotion and affective style. In: Davidson RJ,
Hughdahl K (eds) Brain asimmetry. The MIT Press, Cambridge Mass, pp. 361-387
160. Hellige JB (1993) Hemispheric asimmetry: what’s right and what’s left. Harvard University
Press, Cambridge Mass.
161. Sergent J (1995) Hemispheric contribution to face processing: Patterns of convergence and
divergence. In: Davidson RJ, Hughdahl K (eds) Brain asimmetry. The MIT Press, Cambridge
Mass, pp. 157-181
162. Faust M, Kravetz S, Babkoff H (1993) Hemisphericity and top-down processing of langua-
ge. Brain Lang 44:1-18
163. Van Dijk TA (1997) Discourse studies: A multidisciplinary introduction. Sage, London
164. Sacks H (1984) Notes on methodology. In: Atkinson JM, Scherzer J (eds) Structures of social
action. Cambridge University Press, Cambridge, pp. 21-27
165. Kintsch W (1998) Comprehension: A paradigm for cognition. Cambridge University Press,
Cambridge
166. Rehak A, Kaplan JA, Weylman ST et al (1992) Story Processing in right brain damaged
patients. Brain Lang 42, pp. 320-336
167. Moya KL, Benowitz LI, Levine DN et al (1986) Covariant deficits in visuospatial abilities
and recall of verbal narrative after right hemisphere stroke. Cortex 22:381-397
168. Caplan R, Dapretto M (2001) Making sense during conversation. NeuroReport 12:3625-
3632
169. Nichelli P, Grafman J, Pietrini P et al (1995) Where the brain appreciates the moral of a story.
Neuroreport 6:2309-2313
170. Chantraine Y, Joanette Y, Cardebat D (1998) Impairements of discourse-level representations
and processes. In: Stemmer B, Whitaker HA (eds) Handbook of Neurolinguistics. Academic
Press, San Diego London, pp. 262-275
171. Losito G (1993) L’analisi del contenuto nella ricerca sociale. Franco Angeli, Milano
172. Ulatowska HK, North AJ, Macaluso-Haynes S (1981) Production of narrative and procedu-
ral discourse in aphasia. Brain Lang 13:345-371
173. Chapman SB, Ulatowska HA (1989) Discourse in aphasia: Integration deficits in processing
reference. Brain Lang 36:651-668
174. Cardebat D (1987) Incohérence narrative: Analyse comparée de récits de patients aphasiques et
des patients déments. Cahiers du Centre Interdisciplinare des Sciences du Langage 6:151-175
175. Van Dijk TA, Kintsch W (1983) Strategies of discourse comprehension. Academic Press,
New York
176. Kintsch W, van Dijk TA (1978) Toward a model of text comprehension and production.
Psychol Rev 85:363-394
177. Rosenthal R, Hall J, Archer D et al (1979) The PONS test manual. Irvingston Publishers,
New York
178. Charolles M (1986) Grammaire de texte, Théorie du discourse, Narrativité. Pratiques 11-
12:133-154
179. Schegloff EA (1972) Sequencing in conversational openings. In: Gumperz JJ, Hymes DH
(eds) Directions in sociolinguistics. Holt, New York, pp. 346-380
50 M. Balconi

180. Kaplan JA, Brownell HH, Jacobs JR et al (1990) The effects of right hemisphere damage on
the pragmatic interpretation of conversational remarks. Brain Lang 38:315-333
181. Gardner H, Brownell HH, Wapner W et al (1983) Missing the point: the role of the right
hemisphere in the processing of complex linguistic material. In: Perecman E (ed) Cognitive
processing in the right hemisphere. Academic Press, New York, pp. 169-182
182. Frederiksen CH, Bracewell RJ, Breuleux A et al (1990) The cognitive representation and proces-
sing of discourse: Function and disfunction. In: Joanette Y, Brownell H (eds) Discourse ability
and brain damage: theoretical and empirical perspectives. Springer, New York, pp. 19-44
183. Morris JS, Frith CD, Perret DI et al (1996) A differential neural response in the human amigda-
la to fearful and happy facial expressions. Nature 383:812-815
184. Phillips ML, Young AW, Senior C et al (1997) A specific neural substrates for perceiving
facial expressions of disgust. Nature 389:495-498
185. Frith CD (2003) Neural hermeneutics: How brains interpret minds. Keynote Lecture, 9th
Annual Meeting of the Organization of Human Brain Mapping, New York
186. Caramazza A, Shelton JR (1998) Domain-Specific Knowledge Systems in the Brain: The
Animate-Inanimate Distinction. J Cognitive Neurosci 10:1-34
187. Blackemore SJ, Decety J (2001) From the perception of action to the understanding of inten-
tion. Nat Neurosci 10:561-567
188. Gallese V (2004) The manifold nature of interpersonal relations: the quest for a common
mechanism. In: Frith CD, Wolpert DM (2004) The neuroscience of social interaction:
Decoding, imitating and influencing the actions of others. Oxford University Press, Oxford
New York, pp. 159-182
189. Preston SD, de-Waal FBM (2002) Empathy: Its ultimate and proximate bases. Behavioral
and Brain Science 25:1-72
190. Carr L, Iacobini M, Dubeau MC et al (2003) Neural mechanisms of empathy in humans: a
rely from neural systems for imitation to limbic areas. Proc. Natl. Acad. Sci. USA 100:5497-
5502
191. Decety J, Chaminade T (2003) Neural correlates of feeling sympathy. Neuropsychologia
41:127-138
192. Balconi M, Carrera A (2007). Emotional representation in facial expression and script. A
comparison between normal and autistic children, Res Dev Disabil 28:409-422
193. Davis M, Stone T (1995) Mental simulation: readings in mind and language. Blackwell,
Oxford
194. Damasio AR (1994) Descarte’s error: emotion, reason and the human brain. Putnam, New York
195. Shamay-Tsoory SG, Tomer R, Berger BD et al (2003) Characterization of empathy deficits
following prefrontal brain damage: the role of the right ventromedial prefrontal cortex. J
Cognitive Neurosci 3:324-337
196. Singer T, Wolpert DM, Frith CD (2004) Introduction: the study of social interactions. In:
Frith CD, Wolpert DM (eds) The neuroscience of social interaction: Decoding, imitating and
influencing the actions of others. Oxford University Press, Oxford New York, pp. xiii-xxvii
197. Montague PR, Berns GS, Cohen JD et al (2002) Hyperscanning: Simultaneus fMRI during lin-
ked social interactions. Neuroimage 16:1159-1164
198. Adolphs R (1999) Social cognition and the human brain. Trends Cogn Sci 3:469-479
199. Kaczmarek BLJ (1984) Neurolinguistics analysis of verbal utterances in patients with focal
lesions of frontal lobes. Brain Lang 21:52-58
200. Beer JS (2002) Self-regulation of social behavior. Dissertation, University of California Berkeley
201. Stuss DT, Benson DF (1987) The frontal lobes and the control of cognition and memory. In:
Perecman E (ed) The frontal lobes revisited. IRBN Press, New York, pp. 141-158
202. Collins NL, Miller LC (1994) Self-disclosure and liking: A meta-analytic review. Psychological
Bulletin 116:457-475
Capitolo 2

Metodi e strumenti di analisi della neuropsicologia


applicata al linguaggio e alla comunicazione
Michela Balconi

2.1 Introduzione

L’ampio contributo scientifico, di ordine sperimentale e clinico, sui processi comuni-


cativi ha consentito in tempi recenti un notevole approfondimento delle conoscenze
circa l’architettura funzionale delle strutture cerebrali che supportano i processi lingui-
stici e comunicativi, grazie all’impiego di strumenti innovativi e di nuove metodolo-
gie di analisi [1]. Il presente capitolo si prefigge di fornire un’introduzione sul piano
metodologico allo studio del linguaggio e della comunicazione. In particolare verran-
no rappresentate le potenzialità del paradigma neuropsicologico per l’esplorazione
delle principali funzioni del processo comunicativo, con riferimento agli ambiti sia
della neuropsicologia sperimentale sia di quella clinica. Inoltre sarà fornita un’ampia
panoramica sui principali strumenti psicofisiologici (come le rilevazioni mediante
potenziali evento-correlati, ERP) e neuropsicologici (in particolare le tecniche di neu-
roimaging) che hanno consentito di meglio definire quale sia il contributo di aree cor-
ticali specifiche per le funzioni e le operazioni coinvolte nel processo comunicativo.
Per ciascuna delle componenti considerate saranno sintetizzati i contributi della ricer-
ca empirica più rilevanti nonché i punti di maggiore criticità in questo ambito.

2.2 Assunti della neuropsicologia cognitiva e paradigmi di analisi

A fondamento dell’approccio neuropsicologico viene supposta l’esistenza di una


relazione tra componente anatomo-strutturale e funzioni cognitive [2, 3]. Assunto
centrale di tale approccio è che esista un legame diretto tra unità funzionali e strut-
ture anatomiche cerebrali, nonché la rappresentazione della struttura stessa come
qualitativamente invariante anche a fronte di possibili danni subiti [1, 4]. In altri
termini, considerando il fatto che la neuropsicologia cognitiva studia prevalente-
mente pazienti con lesioni focali del cervello allo scopo di trarne inferenze per il
funzionamento normale del sistema cognitivo, diviene indispensabile supporre
l’esistenza di una corrispondenza tra struttura neurale e organizzazione funzionale
della mente. Se operazioni mentali indipendenti dal punto di vista processuale sono
fondate su processi fisici (strutture cerebrali) almeno in parte distinti, è possibile

M. Balconi (ed.), Neuropsicologia della comunicazione. © Springer 2008


52 M. Balconi

che una lesione ne danneggi selettivamente uno o alcuni e non altri. Consideriamo
specificamente tale assunto, evidenziandone aspetti euristici ed elementi di critici-
tà per lo studio del linguaggio e della comunicazione.

2.2.1 Rapporto funzione-struttura

Abbiamo evidenziato come l’approccio della neuropsicologia applicato alle funzio-


ni comunicative abbia due principali obiettivi: comprendere a livello funzionale
l’identità e l’organizzazione delle “operazioni elementari” sottostanti ai processi
comunicativi e spiegare, in secondo luogo, come tali operazioni siano sostanziate
nel sistema nervoso. La neuropsicologia cognitiva considera questi obiettivi come
strettamente correlati, così che le informazioni funzionali possono essere usate per
costruire modelli neurobiologici e viceversa [5].
L’analisi dei correlati anatomo-strutturali delle funzioni comunicative deve tenere in
considerazione due principali aspetti: a) la dicotomia tra localismo (che propone l’ipo-
tesi di una corrispondenza biunivoca tra specifiche funzioni e precise aree cerebrali) e
olismo (che ipotizza una distribuzione delle funzioni comunicative in più aree/circuiti
cerebrali) [6]; b) il problema della lateralizzazione delle competenze linguistiche nel-
l’emisfero sinistro e, di converso, il ruolo svolto dall’emisfero destro per la produzione
e comprensione delle funzioni comunicative [7]. Abbiamo già sottolineato come per i
modelli della neuropsicologia classica tale corrispondenza tra anatomia cerebrale e fun-
zioni cognitive richiedeva un’esatta collocazione delle funzioni all’interno di precise
aree cerebrali. Per contro, alcuni modelli “antilocalisti” prevedono il superamento delle
precedenti posizioni modulari, a favore dell’esistenza di una corrispondenza tra modu-
li e struttura anatomica sottostante in base a circuiti complessi, i quali chiamano in causa
diverse aree cerebrali [5]. La neuropsicologia cognitiva moderna presuppone l’esisten-
za di una corrispondenza tra moduli cognitivi e struttura neurale a livello di network
corticali che interessano probabilmente più aree cerebrali. Secondo tali modelli varreb-
be anche il principio opposto, secondo cui una stessa struttura cerebrale sarebbe in
grado di svolgere più funzioni cognitive (polifunzionalità delle aree cerebrali), interve-
nendo, cioè, in differenti processi cognitivi con funzioni, di volta in volta, diverse.
Come abbiamo osservato, considerato pur nella sua complessità, l’approccio localista
sembra essere applicabile a funzioni comunicative semplici (ad esempio, la rappresen-
tazione fonologica di un input linguistico). Di gran lunga più difficile è individuare pre-
cise localizzazioni cerebrali per funzioni complesse, come quella relativa alla program-
mazione del discorso, alle funzioni di controllo e monitoraggio o, ancora, all’integra-
zione dei sistemi verbale e non-verbale di comunicazione.

2.2.2 Modularità strutturale, funzionale e rappresentazionale

Nel presente contesto introduciamo il concetto di modulo e di modularità conside-


rando l’evoluzione che esso ha subito nel corso del tempo, in funzione di differen-
2. Metodi e strumenti di analisi della neuropsicologia applicata al linguaggio 53

ti modelli cognitivi assunti dai ricercatori. Differenti approcci teorici si sono succe-
duti nel corso degli ultimi decenni, da una versione “forte” del modularismo, secon-
do cui si suppone l’esistenza di sottosistemi funzionali isolabili sul piano anatomi-
co, in grado di funzionare indipendentemente l’uno dall’altro, anche se non allo
stesso livello di efficienza che in condizioni di interazione [8], a posizioni “mode-
rate” (o “deboli”) di modularismo, che chiamano in causa una più complessa archi-
tettura cerebrale sottostante alle diverse funzioni cognitive [4, 9].
Secondo la concezione modularista classica, l’architettura dei processi mentali
umani è costituita da componenti distinte. Adottando la definizione di Marr [10] ogni
processo cognitivo deve essere suddiviso in una serie di sottoprocessi, indipendenti e
specializzati, definiti modularmente. I moduli sono meccanismi geneticamente deter-
minati, che operano su rappresentazioni specifiche e sono associati a strutture neura-
li localizzate. In secondo luogo, in quanto processi che agiscono in modo veloce e
automatico, sono poco influenzabili da altre componenti del sistema (per cui sono
definiti “incapsulati informazionalmente”) e per tale ragione possono essere parago-
nati a dei riflessi automatici, scarsamente accessibili ai processi coscienti (per un
approfondimento del concetto di modulo si veda [11]). Complessivamente, il concet-
to di modulo coincide con la rappresentazione di un sottosistema funzionale isolabi-
le, che può cioè funzionare indipendentemente da un altro. Secondo Fodor [8] tutta-
via la struttura modulare interesserebbe solo le parti più periferiche del sistema cogni-
tivo (quelle guidate cioè dalle funzioni sensoriali), mentre il nucleo centrale della
macchina cognitiva non mostrerebbe la modularità dei suoi sistemi: pertanto i proces-
si periferici sarebbero modulari, mentre quelli centrali no.
In ogni caso per entrambe le accezioni di modularismo si ipotizza che esista
una corrispondenza tra struttura neurale e organizzazione funzionale della mente,
supportata sperimentalmente dalla rilevazione di correlazioni tra lesioni in sistemi
neurali discreti e deficit per una specifica funzione psichica (si veda anche il para-
grafo 2.3, seguente). Abbiamo tuttavia già evidenziato in precedenza (si veda il
Capitolo 1) che, benché in alcuni casi sia possibile rilevare differenti funzioni cogni-
tive strettamente correlate a specifiche aree cerebrali, per i processi cognitivi di più
alto ordine la localizzazione sembra essere meno vincolante [12]. Ad esempio, con-
siderando la rappresentazione cerebrale delle funzioni sensoriali o motorie, si può
osservare che l’area motoria primaria e l’area sensoriale sono condizionate in termi-
ni locali dalla presenza di specifiche fibre afferenti ed efferenti [6]. Al contrario, le
funzioni di alto livello, tra cui le funzioni comunicative, presentano una maggiore
variabilità rispetto alla propria localizzazione cerebrale. Pertanto, benché nei singo-
li individui tali funzioni possano essere più o meno localizzate (con una certa varia-
bilità interindividuale), è possibile che per molte delle funzioni proprie del processo
comunicativo non vi sia a priori una localizzazione univocamente definita.
Recenti sviluppi del concetto di modularismo vanno nella direzione di una ride-
finizione della modularità di sistemi nei termini di una modularità rappresentazio-
nale piuttosto che semplicemente funzionale [13, 14]. In altri termini, la modulari-
tà si esprimerebbe non per facoltà su larga scala, come, ad esempio, la percezione
del linguaggio, ma piuttosto per processi integrativi e inferenziali. Ovvero la speci-
ficità di dominio dei processi mentali ha a che fare con ciò a cui le rappresentazio-
ni hanno accesso o da cui derivano. Si tratta di una modularità che riguarda proces-
54 M. Balconi

si integrativi (ad esempio, il processo messo in atto dal parser sintattico che, data
una sequenza di categorie lessicali, costruisce una struttura sintattica pienamente
specificata), o processi di natura inferenziale (come nel caso di una traduzione di
una rappresentazione complessiva da un formato rappresentazione ad un altro).

2.2.3 Localizzazione funzionale e frazionamento funzionale

Occorre tuttavia esplicitare ulteriori distinzioni concettuali proprie del dominio


neuropsicologico al fine di comprenderne a fondo la natura. In particolare, introdu-
ciamo un’ulteriore distinzione tra il concetto di localizzazione funzionale e di fra-
zionamento funzionale. Il concetto di localizzazione funzionale introduce un prin-
cipio analogo al “funzionalmente segregato” [15]. Ovvero, obiettivo della concet-
tualizzazione è quello di mappare le operazioni cognitive in substrati neurali fun-
zionalmente specializzati. In genere, tali operazioni sono intrinsecamente legate
allo studio dei deficit derivati da lesioni in cui le basi neurali per differenti funzio-
ni cognitive sono inferite a partire dalla localizzazione delle lesioni che causano
una compromissione selettiva sul piano cognitivo di tali funzioni [16]. È compren-
sibile, pertanto, che le recenti applicazioni con strumenti di rilevazione come il neu-
roimaging funzionale (si veda il paragrafo 4.5) occupino un ruolo principale in
ambito neuropsicologico, in particolare per le funzioni cognitive di alto livello.
Infatti, in aggiunta agli strumenti di rilevazione clinici (si veda il paragrafo 3.1), gli
strumenti di rilevazione funzionali consentono di esplorare un’ampia gamma di
regioni cerebrali, anche quelle precedentemente poco analizzate. A titolo esempli-
ficativo riportiamo gli studi effettuati recentemente sull’insula, poco considerata
seppure essa svolga un ruolo importante nella produzione del linguaggio parlato
[17]. In secondo luogo il neuroimaging funzionale consente di fornire informazio-
ni circa la dinamica dell’attività neurale, ovvero diviene possibile non solo consi-
derare la localizzazione dell’attività neurale associata a specifiche operazioni
cognitive, ma anche rispetto alle modalità con cui tale attività evolve nel tempo e
alla natura delle interazioni che hanno luogo tra differenti aree cerebrali. Ciò rende
possibile formulare complesse concettualizzazioni circa i rapporti tra operazioni
cognitive e substrati neurali sottostanti rispetto ai più tradizionali approcci correla-
zionali deficit-lesioni, con l’assunto di una relazione uno-a-uno tra operazioni
cognitive e popolazioni neurali funzionalmente specializzate.
Rispetto al concetto di frazionamento funzionale anche in questo caso è possibi-
le riconoscere un ruolo di primo piano all’introduzione di tecniche di neuroimaging
nell’identificare operazioni cognitive distinte. Mediante tali metodi di rilevazione è
infatti possibile mappare specifiche operazioni cognitive in rapporto a un altrettanto
specifico substrato neurale: se due manipolazioni sperimentali danno origine a pat-
tern qualitativamente distinti di attività neurale, si può concludere che essi implichi-
no operazioni cognitive funzionalmente distinte. Il frazionamento funzionale delle
abilità cognitive nelle proprie operazioni costituenti viene realizzato in due differen-
ti modi. In primo luogo nello studio di soggetti normali, supponendo che se due
compiti supportano differenti operazioni cognitive vi siano differenze nella perfor-
2. Metodi e strumenti di analisi della neuropsicologia applicata al linguaggio 55

mance dei soggetti su questi stessi compiti. Ad esempio, la frequenza di comparsa di


un termine incide sulle parole aperte ma non su quelle chiuse, fatto che induce a rite-
nere che tali categorie di termini siano elaborate in modi funzionalmente distinti. In
secondo luogo, il frazionamento cognitivo agisce in modo analogo nel caso di
pazienti con deficit cerebrali. L’esistenza di una doppia dissociazione per alcuni pro-
cessi comunicativi (ad esempio, nella comprensione di enunciati ironici vs. metafo-
rici) può rendere conto dell’esistenza di processi di comprensione differenziati, uno
specifico per il linguaggio ironico e uno per quello metaforico.

2.3 Metodi di analisi della neuropsicologia cognitiva

2.3.1 Metodi sperimentali e metodi clinici

Storicamente lo studio delle funzioni cognitive sottese al linguaggio e alla comuni-


cazione è stato condotto su singoli soggetti che presentavano deficit circoscritti e
localizzati, come per la lettura di parole o la comprensione di frasi [18]. Tra i van-
taggi principali forniti dalla metodologia clinica vi è la possibilità di dimostrare
l’indipendenza di operazioni cognitive attraverso la prova dell’esistenza di disso-
ciazioni o doppie dissociazioni funzionali (al riguardo si veda il paragrafo prece-
dente [1]). In secondo luogo, l’analisi del funzionamento anomalo di specifiche
unità può consentire la comprensione del funzionamento di quella stessa unità in
condizioni normali [19]. In altri termini, a partire dalle evidenze empiriche su sog-
getti con deficit è stato possibile evidenziare l’organizzazione funzionale dei pro-
cessi nella loro normale modalità di funzionamento. Solo in una fase più recente si
è proceduto ad analizzare il funzionamento cognitivo utilizzando direttamente cam-
pioni di soggetti sani, utilizzando tecniche di ricerca tipicamente sperimentale [20].
Alla luce dell’evoluzione che la disciplina neuropsicologica ha avuto, introducia-
mo la distinzione tra metodi di analisi in base alla tipologia sperimentale e clinica.
Quale presupposto comune ai due approcci è posto lo sviluppo del modello cogniti-
vo, che si prefigge di decomporre l’intero processo comunicativo in una ipotetica
sequenza di fasi processuali, in cui le informazioni, in differenti formati rappresenta-
zionali, fluiscono da una componente processuale all’altra, grazie a specifiche trasfor-
mazioni [11]. Occorre sottolineare, infatti, che la neuropsicologia cognitiva si pone
l’obiettivo di scomporre le funzioni cognitive nelle sue componenti essenziali [3]. Nel
caso della neuropsicologia sperimentale, in genere l’analisi verte su soggetti normo-
dotati e sulle qualità dei processi sottesi per determinate operazioni comunicative (ad
esempio, la comprensione di anafore). Essa prevede la predisposizione di un com-
plesso apparato empirico che può avvenire sia in ambiente protetto (esperimenti di
laboratorio), sia sul campo (esperimenti in ambiente naturale), così come processi
simulati (simulazione). Nel caso della neuropsicologia clinica il metodo più larga-
mente impiegato è quello correlazionale anatomo-clinico e di attivazione cerebrale,
focalizzati sullo studio di casi singoli che presentano deficit cerebrali e una concomi-
tante compromissione di una o più funzioni cognitive.
56 M. Balconi

In particolare i metodi clinici hanno alcune finalità precipue:

– individuare lo spazio dei principali deficit linguistici e comunicativi;


– estendere le implicazioni teoriche all’ambito dei soggetti normodotati;
– unificare i risultati ottenuti dallo studio di soggetti normali e con danno all’in-
terno di un modello plausibile e possibilmente onnicomprensivo di come la
comunicazione è prodotta.

La qualità e la validità dei metodi adottati si declina in funzione di alcuni para-


metri che li caratterizzano: i sottostanti modelli neurologici; la qualità del disegno
sperimentale, il grado di risoluzione utilizzato per individuare i correlati anatomici,
così come gli strumenti comunemente impiegati per valutare gli effetti di danni cere-
brali sui processi in gioco [2]. Rispetto agli strumenti utilizzati è possibile distingue-
re, ad esempio, tra quelli che si prefiggono di considerare il ruolo delle lesioni cere-
brali mediante rilevazione di neuroimaging: l’analisi delle lesioni costituisce l’ele-
mento focale di tale metodo, in quanto esso consente il confronto delle strutture
cerebrali lesionate in pazienti con i deficit cognitivi precedentemente rilevati. Un
secondo insieme di strumenti è finalizzato a valutare in dettaglio la gamma di abili-
tà cognitive compromesse, con l’intento di ottenere un profilo dei deficit presenti. In
questo caso lo strumento principalmente impiegato è la batteria testistica (per una
rassegna si veda il paragrafo 2.4.1). Sul piano metodologico la somministrazione di
test si inserisce nel contesto della valutazione neuropsicologica, finalizzata a verifi-
care il grado di compromissione delle funzioni comunicative a seguito di un danno
al sistema nervoso centrale. Nel processo di valutazione è possibile esaminare anche
gli eventuali progressi riscontrati in individui nel corso del tempo.
In aggiunta agli strumenti impiegati è possibile caratterizzare i differenti meto-
di a partire dalla definizione del campione di soggetti esaminati. In alcuni casi gli
studi si limitano a prendere in considerazione il caso singolo, in altri casi essi esa-
minano gruppi di soggetti che mostrano deficit simili per una determinata operazio-
ne cognitiva [21]. Esperimenti con soggetti singoli o con gruppi di soggetti, sia nor-
mali sia patologici, sono stati grandemente impiegati negli ultimi anni nello studio
del linguaggio e della comunicazione. Confrontiamo più in dettaglio i due approc-
ci con caso singolo e con gruppi di soggetti.

– Studi su caso singolo. Secondo tale approccio, disordini specifici in alcune fun-
zioni cognitive (come, ad esempio, la comprensione della prosodia emotiva) pos-
sono dipendere da lesioni cerebrali localizzate, rilevabili dall’analisi dei singoli
casi patologici studiati. Tale prospettiva ha dato impulso storicamente alla crea-
zione di modelli localisti delle funzioni cerebrali a fini osservativi e curativi.
– Studi su gruppi di soggetti. Prevedono il confronto tra soggetti sani e cerebrole-
si, con metodi quantitativi (generalmente test). In particolare, lo studio sui grup-
pi rispetto allo studio su caso singolo sembra offrire il vantaggio di consentire
un’adeguata analisi di tipo statistico, ovviando ai limiti degli studi classici di
neuropsicologia [22]. Finalità di tali studi consiste nella determinazione di spe-
cifici e differenti livelli di deficit che focalizzano determinate modalità comuni-
cative, componenti o fasi del processo. Grazie agli sviluppi nella diagnosi psico-
2. Metodi e strumenti di analisi della neuropsicologia applicata al linguaggio 57

logica generalmente sono incluse procedure controllate di valutazione, mediante


l’impiego di strumenti psicometrici, che consentono la selezione di categorie
omogenee di soggetti. Ma come avviene la creazione di un gruppo? Un primo
criterio adottato tiene conto della consonanza della sintomatologia presente nei
soggetti. Tuttavia, tale criterio rischia di non tenere conto di altri importanti fat-
tori intervenienti che potrebbero incidere sulla sintomatologia del paziente o
mascherare quella esistente. Un secondo criterio considera la sede della lesione
cerebrale. In questo caso l’analisi verte sulla presenza o sull’assenza di un parti-
colare disturbo quando si è di fronte a un danno di una data area cerebrale.

La distinzioni tra studi su gruppi di soggetti o su caso singolo pone alcuni impor-
tanti problemi con ricaduta sull’oggetto di analisi. In particolare, alcune assunzioni
metodologiche, che ipotizzano la necessità di ricorrere esclusivamente all’analisi su
caso singolo (in virtù della non diretta comparabilità tra soggetti anche in presenza di
sintomatologie simili), appaiono riduttive [23]. D’altra parte l’omogeneità dei siste-
mi cognitivi implicati per gruppi con deficit omologhi appare in molti casi discutibi-
le, così come il presupposto della generalizzabilità dei risultati ottenuti su un gruppo
di individui a un’intera popolazione, per la formulazione di un modello teorico di rife-
rimento. Parallelamente, l’omogeneità strutturale del danno cerebrale sul gruppo di
soggetti appare una questione non sempre dimostrabile in via definitiva.

2.3.2 Simulazione

Introduciamo questa sezione relativa ai recenti sviluppi delle tecniche di analisi


mediante simulazione, procedura che consente di implementare modelli teorici
mediante utilizzo di supporti informatici. Essa, diversamente dai metodi preceden-
temente considerati, presenta una serie di vantaggi relativi alla possibilità di verifi-
care o falsificare il modello teorico, imponendo al contempo la formalizzazione di
concetti a un livello decisamente superiore rispetto a quanto si verifica nei classici
contesti sperimentali.
L’approccio simulativo è stato recentemente declinato nell’ambito del connes-
sionismo, con importanti applicazioni anche per i processi linguistici e comunicati-
vi [24]. Mediante il supporto dell’intelligenza artificiale e grazie allo sviluppo di
metodi di studio dell’architettura della mente che ambiscono a fornire un modello
astratto e generale della struttura cognitiva del cervello, il modello del connessio-
nismo fornisce una simulazione su computer dei processi mentali con l’intento di
corroborare, o, al contrario, di falsificare teorie esistenti. Il modello connessionista
è stato ampiamente applicato allo studio del linguaggio nei classici lavori di
Rumelhart e McClelland [25], finalizzati a introdurre il concetto di elaborazione
parallela e distribuita, che prevede l’impiego sia di informazioni dal livello inferio-
re (bottom-up) sia dal livello superiore (top-down). Un esempio di applicazione è
costituito dal processo di lettura di parole che fa ricorso a informazioni sia del livel-
lo inferiore (le lettere), sia del livello superiore (le informazioni contestuali) per
poter essere attuato.
58 M. Balconi

I modelli connessionisti svolgono la loro attività computazionale (di elaborazio-


ne delle informazioni) in modo simile all’attività neurale e la metafora del compu-
ter viene utilizzata per rappresentare l’attività cerebrale sottostante. L’unità fonda-
mentale di attivazione è una sorta di “neurone astratto” che riceve o invia segnali
ad altri neuroni. È possibile distinguere tre differenti tipologie di neuroni:

– unità neurali d’ingresso (input) che ricevono segnali da sorgenti esterne al siste-
ma (stimoli sensoriali o da altri sistemi che fanno parte del modello);
– unità neurali di uscita (output) che inviano segnali fuori dal sistema (ad esem-
pio, direttamente al sistema motorio o ad altri sistemi interni);
– unità neurali nascoste (hidden) le cui afferenze ed efferenze sono situate all’in-
terno del sistema.

Pertanto, le reti artificiali sono un modello astratto dei circuiti neurali reali for-
mati da dendriti e assoni. Per la rappresentazione di un sistema connessionista è
inoltre, necessaria una rappresentazione dello stato di attivazione delle varie com-
ponenti della rete, nonché occorre specificare la funzione di attivazione delle unità,
l’organizzazione delle connessioni e il loro peso. In particolare, la funzione sinap-
tica è simulata dai pesi modificabili, associati a ogni connessione, e il segnale elet-
trico in uscita da ogni neurone è espresso da un numero che rappresenta la sua atti-
vità. Lo schema (Fig. 2.1) seguente riporta le principali unità di attivazione e le loro
reciproche relazioni.

Vanno, inoltre, definite le procedure attraverso cui la rete neurale può


apprendere un compito e riuscire a svolgerlo con stimoli nuovi. L’addestramento
della rete è fatto inviando segnali appropriati alle unità d’ingresso e calcolando

Fig. 2.1 Rappresentazione di una rete connessionista, costituita da differenti livelli di unità di
input, nascoste e di output
2. Metodi e strumenti di analisi della neuropsicologia applicata al linguaggio 59

di quanto il segnale in uscita si discosta da quello voluto. Sulla base dell’errore


si modifica il peso delle connessioni e la procedura viene ripetuta finché la rete
non apprende a svolgere il compito in questione al livello di accuratezza deside-
rato. Ad esempio, secondo la procedura detta della back-propagation, l’informa-
zione dell’errore commesso dalla rete è propagata all’indietro dallo strato di out-
put fino a quello di input, per determinare le modificazioni appropriate dei pesi
delle connessioni.

2.4 Misurazione

La definizione di indici di misura nell’ambito della neuropsicologia della comuni-


cazione deve tenere conto di un doppio asse categoriale: uno relativo alla natura
degli indici considerati, che valuta la specifica unità di analisi che viene conside-
rata dallo sperimentare. Distinguiamo, al proposito, indici di tipo osservativo o
comportamentale, che considerano come unità di analisi il comportamento manife-
sto del soggetto in determinate condizioni. Una seconda categoria si riferisce alle
modificazioni corporee presenti nel soggetto ma non manifeste, di natura psicofi-
siologica e neurobiologica in senso stretto, che si avvalgono dei correlati neurali
prodotti dal soggetto in risposta a fonti di stimolazione interne o esterne. Un secon-
do asse è relativo alla modalità più o meno diretta di rilevazione degli indici da
parte dello sperimentatore [26]. Tra i metodi comportamentali precedentemente
introdotti accanto agli indici di risposta (come i tempi di reazione o gli indici di
comunicazione non-verbale) è possibile considerare misure di tipo autovalutativo
(le cosiddette misure di self-report), che implicano la possibilità per il soggetto di
monitorare consapevolmente e direttamente la loro manifestazione. Tra le misure
psicofisiologiche è possibile considerare gli indici di attivazione autonomica (come
l’aumento della conduttanza cutanea in risposta a stimoli emotivi), che manifesta-
no modificazioni fisiologiche come marcatori dei processi sottostanti, o indici
“cognitivi” come i potenziali evento-correlati (ERP), che rendono conto della qua-
lità del processo cognitivo oggetto di analisi.
Tali categorie si differenziano grandemente in funzione delle modalità con cui
vengono indagati i costrutti: è infatti molto diverso rilevare la prestazione di un
soggetto cui viene richiesto di comprendere un enunciato (ad esempio, una frase
ironica) dal rilevare le modificazioni dei correlati psicofisiologici (le variazioni
del tracciato EEG) prodotte in risposta a quello stesso stimolo enunciativo.
Parallelamente vi sono differenze metodologiche rilevanti nel valutare la risposta
di un soggetto con deficit a una batteria testistica per il comportamento non-ver-
bale dal valutare la maggiore o maggiore compromissione delle competenze
cognitive in seguito all’osservazione della comunicazione non-verbale in un con-
testo sperimentale.
Tralasciando le possibili implicazioni metodologiche legate all’utilizzo di diffe-
renti misurazioni (per una rassegna completa si veda [27]), ci soffermiamo in par-
ticolare sulle principali categorie di indici esistenti per lo studio della comunicazio-
ne, con specifica attenzione agli indici psicofisiologici e neuropsicologici.
60 M. Balconi

2.4.1 Indici di misura psicometrici

Consideriamo in primo luogo gli indici di risposta che derivano dalla somministra-
zione di batterie testistiche e le scale di self-report, entrambe applicabili sia su cam-
pioni di soggetti normali sia con deficit specifici.

Assessment neuropsicologico, batterie testistiche e misure di self-report

La valutazione delle competenze linguistiche e comunicative consente di definire il


grado generale di funzionamento delle singole funzioni, che includono le proprietà
fonatorie-articolatorie, grammaticali, morfologiche, sintattiche, semantiche e prag-
matiche [28]. Per la categoria fonatoria ci riferiamo in particolare alla capacità di
articolare i suoni, mentre nel caso delle competenze morfologiche facciamo riferi-
mento alle competenze di produzione delle unità linguistiche. Sul piano grammati-
cale viene valutata l’applicazione adeguata di regole per costruire la forma corret-
ta delle parole nel contesto enunciativo (con riferimento alle componenti tempora-
li, dell’uso della persona, del singolare/plurale). Le componenti sintattiche riguar-
dano la conoscenza e la corretta applicazione di regole di congiunzione di parole-
frase frase-frase all’interno di un periodo, nonché dell’uso di una sequenza ordina-
ta di parole nell’enunciato, mentre il piano semantico riguarda l’utilizzo corretto
dei “significati”, ovvero del linguaggio nella sua valenza semiotica (includente, ad
esempio, la capacità di impiegare un vocabolario ampio e pertinente). Infine la
pragmatica riguarda l’uso delle funzioni comunicative o del linguaggio nel conte-
sto, comprendendo un insieme di competenze ampie, quali i registri non verbali, i
significati figurati o la capacità di formulare metarappresentazioni (per la definizio-
ne dei livelli precedenti si rimanda al Capitolo 1).
In ambito più specificamente clinico l’assessment neuropsicologico costituisce
una procedura largamente impiegata [2]. Obiettivo complessivo dell’intero proces-
so è costituito dal descrivere la performance del soggetto in relazione alle principa-
li componenti che intervengono nel sistema linguistico e comunicativo. Tale proce-
dura consente non solo di valutare la presenza e l’ampiezza di un deficit, ma anche
di verificare sul piano qualitativo la capacità del soggetto di fare fronte al deficit
mediante strategie compensative delle funzioni danneggiate [29]. È bene sottoli-
neare che un atteggiamento ecologicamente valido implica la necessità di compie-
re un’analisi che possa prendere in considerazione i molteplici sistemi linguistici e
comunicativi. L’assessment in genere include una valutazione più generale ad
ampio spettro e una successiva valutazione più specifica relativa alle funzioni dan-
neggiate. Al termine della somministrazione viene formulata una sintesi dettaglia-
ta dell’esito della prova. Quest’ultima fase si inserisce in una procedura definita da
una serie di step sequenziali, tra cui l’anamnesi, il colloquio clinico, la valutazione
vera e propria e il possibile intervento riabilitativo.
Generalmente gli strumenti presenti nel panorama testistico applicati allo studio
della comunicazione consentono di misurare solo determinate componenti funzio-
nali, essendo perlopiù incentrati su alcuni livelli e non altri, ovvero le componenti
morfosintattiche, lessicali, fonologiche e semantiche. Di gran lunga trascurata nel
2. Metodi e strumenti di analisi della neuropsicologia applicata al linguaggio 61

panorama attuale è, al contrario, la componente pragmatica, anche in conseguenza


dello sviluppo più recente di tale ambito di ricerca. Appare, inoltre, rilevante sotto-
lineare la necessità di integrazione tra le misure psicometriche con misure di diver-
sa natura, poiché l’uso di test normativi non appare sufficiente a discriminare con
precisione le competenze funzionali o disfunzionali del soggetto [29]. Occorre, ad
esempio, aggiungere ai dati psicometrici indici relativi alla prestazione dei sogget-
ti per compiti specifici (ad esempio, indici comportamentali rilevati in laboratorio).
È necessario, inoltre, sottolineare la necessità di correlare i risultati testistici non
solo ai valori rilevati per un campione di riferimento normativo, ma occorre anche
valutare le effettive prestazioni dei soggetti per un dato compito comunicativo nei
termini di frequenza e modalità con cui esse si manifestano. Un’ulteriore distinzio-
ne può essere fatta in merito alla tipologia di soggetti cui la misurazione può esse-
re applicata, rispetto ai parametri: normali/deficitari; in fase di sviluppo/in età adul-
ta (per una rassegna completa di rimanda a [30]). Infine è necessario distinguere tra
test finalizzati ad analizzare una specifica competenza linguistica e comunicativa
dai test ad ampio spettro, che vertono su competenze più generiche.
Distinguendo tra il piano delle competenze linguistiche e quello delle competen-
ze comunicative, è possibile rilevare che la categoria dei test linguistici è comples-
sivamente più ricca. Quest’ultima è ulteriormente divisibile in tre tipologie differen-
ti: i test di screening; i test complessivi del funzionamento linguistico e i test su spe-
cifiche abilità linguistiche (per una rassegna dettagliata si veda [31]. Di particolare
interesse la categoria di test finalizzati a rilevare la fluenza verbale (come nel caso
del Test di Fluenza Verbale per Categorie, [32]). Esempi di interessanti ricerche con-
dotte con indici psicometrici sono quelli forniti da Hillis e Caramazza [33], che
riportano un confronto dettagliato di tipologie di deficit, consentendo la successiva
modellizzazione del funzionamento del linguaggio per quelle specifiche funzioni.
Fornendo un’eccellente descrizione di deficit a un elevato livello di analiticità, oltre
che una buona validità ecologica, il loro valore euristico consiste principalmente
nella possibilità di definire quale aspetto del sistema sia danneggiato. Al contrario
risultano essere di minore rilevo per spiegare esattamente come il sistema linguisti-
co sia deficitario per un determinato meccanismo.
Più recentemente è stato possibile impiegare strumenti di più stretta pertinen-
za dell’ambito delle funzioni comunicative di alto livello, che indagano perlopiù
un ampio spettro di competenze in condizioni deficitarie. Focalizziamo in modo
particolare quest’ultimo livello (per una sintesi si veda [30]). Una prima distinzio-
ne consente di raggruppare i Protocolli Pragmatici e i Test di Efficienza
Comunicativa [34]. I primi sono rivolti alla valutazione degli aspetti pragmatici
del linguaggio, come il Pragmatic Protocol [35], che indaga, attraverso 30 cate-
gorie comportamentali, le modalità di comunicare del soggetto (fluenza, prosodia,
componenti non verbali), l’azione propositiva (scelta e stili comunicativi), il piano
intenzionale (proprio e di feedback a carico dell’interlocutore); il Profile of
Communicative Appropriateness (PCA, [36]), che prevede un’interazione vis-à-
vis tra soggetto e sperimentatore, valutando successivamente la produzione spon-
tanea del soggetto mediante codifica attuata con l’ausilio di modelli di comunica-
zione testuale. Esso include, in particolare, l’analisi di competenze come la
responsività all’interlocutore, il controllo del contenuto semantico, la coesione tra
62 M. Balconi

unità informative del discorso, la fluenza verbale, la sensibilità al contesto sociale,


la comunicazione non-verbale. Citiamo, inoltre, il Comprehensive Test of Language
Functioning (PICA, [37, 38]), utilizzato al fine di quantificare la produzione e la
comprensione del linguaggio, le competenze di scrittura e lettura, l’analisi dei gesti
ecc. O, ancora, il Communicative Abilities in Daily Living (CADL, [39]), che con-
sente di stimare la capacità del soggetto di comunicare nelle situazioni quotidiane.
Tra quelli di maggiore interesse per le componenti conversazionali e del discorso
occorre citare il test di comprensione del discorso (Discourse Comprehension Test)
[40], che indaga la capacità di comprendere il contenuto di macrounità (al riguardo
si veda anche il Capitolo 1). In diverse occasioni è stato rilevato che pazienti con
lesioni emisferiche destre appaiono incapaci di rispondere correttamente, presumi-
bilmente per la difficoltà di sopprimere informazioni irrilevanti.
Infine, le cosiddette misure di self-report fanno riferimento alla dimensione
autovalutativa del soggetto [30]. Distinguiamo due principali tipologie, che si rife-
riscono da un lato ai resoconti verbali dei soggetti in concomitanza all’esecuzione
di un compito (verbal reports); dall’altro ai questionari di autovalutazione (que-
stionari di self-report in senso più specifico). Impiegati prevalentemente per com-
prendere le modalità di produzione e comprensione del linguaggio in contesti
reali, essi richiedono l’utilizzo congiunto di misure comportamentali al fine di stu-
diare i processi sottesi in modo esaustivo e completo. Inoltre, essi offrono interes-
santi vantaggi, in quanto costituiscono strumenti privilegiati per analizzare le
modalità con cui gli individui regolano e controllano i propri processi comunica-
tivi. Le misure di tipo autovalutativo presentano, tuttavia, alcuni limiti intrinseci,
tra cui la coincidenza tra soggetto osservato e soggetto osservatore, l’impossibili-
tà di avere riscontri “oggettivi” delle variazioni riportate, nonché l’estrema varia-
bilità soggettiva registrata nelle misure. Un secondo problema è relativo alla vali-
dità di costrutto, poiché gli strumenti autovalutativi fanno riferimento alla capaci-
tà di rendere conto di processi che hanno luogo all’interno del soggetto. In questa
prospettiva, l’applicazione congiunta di misure osservative e di protocolli di auto-
valutazione consente di studiare i processi mentali in modo più esaustivo e inte-
grato. Da un lato, infatti, gli strumenti di misura “oggettivi” consentono di rileva-
re l’effettiva prestazione del soggetto in un compito cognitivo, dall’altro gli stru-
menti di autovalutazione riflettono il modo con cui il soggetto stesso si rappresen-
ta e modula la propria attività comunicativa.

2.4.2 Indici osservativi

È utile sottolineare che un grosso vantaggio dei metodi osservativi è costituito dal
poter fornire utili informazioni circa il funzionamento dei meccanismi linguistici e
comunicativi durante il decorso del processo stesso. Al contrario, le misure prece-
dentemente illustrate vengono indicate come retrospettive, ovvero sono rilevabili
dopo che la prestazione ha avuto luogo, pertanto forniscono indicazioni circa il pro-
dotto di un determinato processo [26]. Le misure di tipo osservativo fanno riferi-
mento a indici rilevati perlopiù in contesti sperimentali, finalizzati a ottenere le
2. Metodi e strumenti di analisi della neuropsicologia applicata al linguaggio 63

modalità di risposta di un soggetto a particolari condizioni (variabili sperimentali),


al fine di trarre specifiche inferenze circa il funzionamento dei meccanismi cogni-
tivi sottostanti. Un secondo grosso vantaggio di tali rilevazioni è legato al conte-
sto sperimentale, che garantisce un ambiente protetto e controllato rispetto ad altri
ambiti. Gli indici osservativi in senso stretto sono basati sulla rilevazione delle
occorrenze (frequenze) con cui si verifica un certo comportamento sulla base della
creazione di categorie di osservazione esaustive (modalità di comparsa del feno-
meno studiato).
Prendiamo in considerazione gli indici osservativi relativi alla comunicazione
verbale (indici linguistici) e non-verbale (indici di comunicazione non verbali)
che utilizzano l’osservazione del comportamento mimico, gestuale e delle compo-
nenti vocali, e gli indici di natura cognitiva, come i tempi di reazione (TR) e i
movimenti oculari.

Indici verbali e non verbali

In questo paragrafo prendiamo in considerazione gli indici di tipo comportamenta-


le impiegati nello studio dei correlati linguistici e comunicativi, con particolare
attenzione a questi ultimi. Nel caso del linguaggio, sono state predisposte rilevazio-
ni di specifiche abilità verbali, come compiti di riconoscimento di parole, di lettu-
ra, di denominazione [41]. Di particolare interesse è lo studio dell’organizzazione
del linguaggio utilizzando gruppi di soggetti differenziati in funzione di caratteri-
stiche specifiche, come soggetti con deficit vs. soggetti normali, soggetti madrelin-
gui vs. bilingui [42] o soggetti appartenenti a differenti fasce di età (per un review
si veda [43]). Una ricca fonte di informazioni circa il processo linguistico nella
popolazione normale proviene dallo studio degli errori e dei fenomeni di esitazio-
ne naturalmente commessi dai parlanti. Noti sono gli studi sugli errori compiuti dai
bambini, che hanno consentito di rilevare l’acquisizione precoce di regole necessa-
rie a spiegare la produzione degli errori stessi (errori rule-based) [44]. In generale,
lo studio dei meccanismi legati alla comunicazione in contesti sperimentali è rile-
vante poiché consente di limitare il numero di possibili modelli formulabili circa
l’organizzazione del linguaggio: l’omogeneità degli errori rilevati in campioni
adulti e di bambini ha permesso, ad esempio, di rilevare importanti elementi circa
l’architettura del linguaggio. Differenze e incongruenze tra campioni di soggetti di
differenti fasce di età hanno, al contrario, puntualizzato quali aspetti necessitino di
un processo evolutivo di acquisizione.
Sul versante della comunicazione non-verbale ci si avvale degli indici com-
portamentali rilevati attraverso griglie di osservazione dei diversi sistemi attiva-
ti. Rispetto a questi ultimi è possibile codificare una serie di segnali rappresenta-
tivi dei canali comunicativi, tra cui le componenti facciali e posturali, il sistema
gestuale e prossemico, le componenti vocali. In particolare, Ekman [45] ha messo
a punto uno strumento per codificare la comunicazione delle emozioni mediante
le espressioni facciali. Prendiamo in considerazione specificamente a fini esem-
plificativi lo strumento di decodifica delle espressioni facciali proposto dagli
autori (FACS, Facial Action Coding System), finalizzato a decomporre le unità
64 M. Balconi

Fig. 2.2 Riproduzione di stimoli mimici di emozioni secondo lo strumento FACS

muscolari ultime del volto e a individuarne il ruolo nell’espressione facciale delle


emozioni. La gestalt del volto è suddivisa in due differenti aree: un’area superio-
re (fronte, sopracciglia, occhi) e un’area inferiore (guance, naso, bocca mento).
Complessivamente sono state identificate 44 unità d’azione, differenti per inten-
sità e per modificazioni visibili nel viso. Queste ultime, singolarmente o in com-
binazione l’una con l’altra, rendono conto di tutte le possibili espressioni faccia-
li delle emozioni. L’analisi complessiva delle configurazioni mimiche ha consen-
tito di rilevare alcune varianti nella durata delle modificazioni dei singoli musco-
li, con range variabile da 0,5 a 4 sec e nella latenza di comparsa delle espressio-
ni (ad esempio, nel trasalimento – startle effect – le modificazioni sarebbero tem-
pestive al contrario delle modificazioni correlate alla tristezza). Interessanti inte-
grazioni di tali indici comportamentali provengono dalle misure di natura psico-
fisiologica e neuropsicologica mediante studi con potenziali evento-correlati (si
veda il paragrafo 4.3). La Figura 2.2 riproduce alcune tipiche espressioni delle
emozioni secondo il sistema FACS.

Tempi di risposta (TR)

I tempi di riposta (TR) costituiscono dati di tipo cronometrico, utilizzati soprattut-


to in relazione a compiti linguistici. Essi consentono di formulare una misura pre-
cisa del tempo necessario ai soggetti per produrre una risposta in relazione a uno
specifico compito sperimentale. Inoltre, i TR costituiscono misure indirette più sen-
sibili rispetto ad altre, poiché differenze di TR nell’elaborazione di specifici aspet-
ti della comunicazione possono essere documentate anche in assenza di differenze
nei punteggi psicometrici. Pertanto, tali indici consentono di rappresentare in modo
peculiare la presenza di processi qualitativamente differenti, poiché ne illustrano
l’effettiva modalità di funzionamento.
La rilevazione dei TR tiene conto di due componenti (anche dette fasi), che con-
sentono di decomporre il processo di riposta nei momenti salienti che lo contraddi-
stinguono:
2. Metodi e strumenti di analisi della neuropsicologia applicata al linguaggio 65

– una fase centrale destinata alla codifica dell’informazione sensoriale relativa a


un certo stimolo sino alla selezione di una possibile risposta;
– una fase periferica destinata ai processi finalizzati alla produzione motoria
(risposta mediante un tasto, ad esempio).

Le variazioni dei TR generalmente sono utilizzate come misura indiretta della


difficoltà del compito, sulla base dell’assunto che un compito che richiede maggio-
re elaborazione richieda anche più tempo per essere eseguito [26]. Nello studio dei
processi comunicativi tale indice è stato impiegato per confrontare la prestazione di
soggetti normali e con specifici deficit. Ad esempio, tale misura è stata utilizzata
ampiamente per testare la risposta del soggetto per processi di lettura o di compren-
sione di frasi, per compiti di natura semantica come testare l’ambiguità semantica
di un termine, la polisemia, o, ancora, a livello pragmatico, la discriminazione di
componenti soprasegmentali [46].
Per citare solo alcuni esempi di applicazioni al dominio linguistico, gli studi più
recenti, perlopiù realizzati con soggetti in età precoce, si sono focalizzati sul cam-
biamento della fluenza verbale e sull’analisi delle strategie utilizzate dai bambini per
la comprensione di frasi [47]. Entrambi i costrutti della comprensione e della fluen-
za sono infatti soggetti a un progressivo miglioramento, in funzione dello sviluppo
di strategie metacognitive per generare e comprendere materiale verbale. In riferi-
mento a campioni di soggetti con deficit, differenze dei TR sono state impiegate per
dirimere la presenza di specifiche operazioni compromesse, come nel processo di
decisione lessicale [46], di elaborazione sintattica [48] o per valutare i tempi di tra-
sferimento delle informazioni in bambini con disabilità nella lettura [49].

Indici discriminativi, di interferenza e di priming

Una categoria specifica di misure è rappresentata dagli indici discriminativi, in


grado di fornire informazioni di natura cronometrica e non, che consentono di rile-
vare una potenziale differenziazione nei tempi e nelle modalità di esecuzione delle
singole operazioni in assenza di risposta esplicita da parte del soggetto. In genere,
viene richiesto al soggetto di attuare una distinzione tra stimoli che differiscono per
esigue caratteristiche temporali. Tali misure consentono di analizzare eventuali
deficit per specifiche funzioni in assenza di un compito motorio (fase periferica
precedente), garantendo l’indipendenza dei due processi (l’uno cognitivo, l’altro
motorio appunto) e consentendo al contempo di testare differenze minime e di
“basso livello” tra processi difficilmente rilevabili mediante altri metodi di analisi.
Ad esempio, la richiesta fatta a un soggetto di distinguere tra due stimoli linguisti-
ci ambigui può consentire di rilevare non solo differenze temporali sottostanti ma
anche di testare la qualità della rappresentazione attivata, nonché le possibili reti
associative esistenti fra i significati. Costituiscono esempi di possibili applicazioni
delle misure discriminative gli studi di Caplan [28] relativi alla confusione di fone-
mi in pazienti afasici o lo studio di Arguin e colleghi [50] sul rapporto tra la com-
plessità degli stimoli e l’organizzazione semantica in pazienti con anomia catego-
ria-specifica per frutti e vegetali.
66 M. Balconi

Alla medesima categoria possono essere associate le misure di priming e di


interferenza. Il priming viene generalmente utilizzato per facilitare (priming posi-
tivo) o inibire (priming negativo) l’accesso di un secondo stimolo (target), colle-
gato al precedente sul piano lessicale, sintattico o semantico. Il grado di facilita-
zione o di interferenza esercitato dal priming (misurato attraverso i TR per il
secondo stimolo) è utilizzato per rilevare il legame e la natura della relazione che
intercorre tra prime e target. Applicazioni recenti sono state realizzate, ad esem-
pio, nel caso di difficoltà di accesso lessico-semantico di diversa natura, ad esem-
pio, in pazienti con Alzheimer [51]. L’effetto di interferenza è, invece, paragona-
bile a quello prodotto dall’effetto Stroop [52]. Lo studio di Arguin e colleghi [50],
grazie all’impiego del paradigma del priming, ha mostrato evidenze a favore del
fatto che un incremento nel numero di dimensioni variabili per una classe di sti-
moli interferisce con l’accesso alle informazioni semantiche circa quella classe,
nel caso di un paziente agnostico.
Occorre, tuttavia, sottolineare che i metodi del priming e dell’interferenza pos-
sono fornirci esclusivamente informazioni circa il corso temporale e l’estensione
dell’interferenza tra processi cognitivi in competizione o tra rappresentazioni di sti-
moli differenti. Essi non consentono, al contrario, di configurare con esattezza in
che cosa consistano tali processi o rappresentazioni, come essi funzionino o come
si facilitino o si ostacolino reciprocamente. In sostanza, occorre essere cauti nel for-
mulare conclusioni circa il significato funzionale del priming o dell’interferenza e
circa il contributo delle componenti neurobiologiche sottostanti [26].

Movimenti oculari

La misurazione dei movimenti oculari consente di stimare, attraverso una rile-


vazione comportamentale, i processi cognitivi sottostanti alla comprensione del
significato di un testo scritto [53, 54]. Generalmente essi vengono monitorati
grazie all’impiego di strumenti di registrazione (come videocamere) con funzio-
ni di scanning. In particolare, consentono la rilevazione delle variazioni EOG
(elettroculogramma) che monitorano i movimenti orizzontali e verticali compiu-
ti dall’occhio. In ambito empirico tale misura è stata perlopiù impiegata per
misurare una serie di variabili, che sono riconducibili alle variazioni delle fissa-
zioni di un determinato termine, del numero di ricorsioni e della loro durata.
Specificamente le fissazioni di brevissima durata (pochi millisecondi) sono
intercalate alle saccadi (spostamenti rapidi degli occhi) che segnalano il livello
di comprensione di un testo. La rilevazione dei movimenti saccadici è conside-
rata un indice del processo di elaborazione del significato che consente di defi-
nire i piani di comprensione e l’eventuale difficoltà di attribuzione di significa-
to all’unità testuale. Gli indici di misura generalmente impiegati sono ricondu-
cibili alle rilevazioni della latenza, dell’ampiezza, della direzione del movimen-
to ecc. I movimenti oculari sono controllati da sistemi corticali e sottocorticali
in congiunzione con i nervi cranici e un insieme di muscoli oculari. In partico-
lare, sia la corteccia frontale sia quella occipitale sono coinvolte nell’attività
oculare: più specificamente le fissazioni sono controllate dalla corteccia premo-
2. Metodi e strumenti di analisi della neuropsicologia applicata al linguaggio 67

toria dei lobi frontali, mentre il collicolo superiore è coinvolto nella produzione
delle saccadi.
Studi precedenti hanno rilevato un rapporto diretto tra movimenti oculari e atti-
vità cognitiva svolta dal soggetto, rispetto alla maggiore o minore complessità del
compito di elaborazione. Continue ricorsioni possono, cioè, segnalare la necessità
per il soggetto di rivedere parti di maggiore complessità o ambiguità, essendo per-
tanto una misura indiretta della generale difficoltà di comprensione [55]. Per que-
sta ragione tali indici sono applicabili sia ad alcuni processi linguistici classici
(come la lettura di parole o frasi) sia più generalmente alla comprensione semanti-
ca del testo. Occorre, tuttavia, sottolineare che il processo di lettura in sé e il pro-
cesso o i processi cognitivi sottostanti non sono facilmente separabili, come, ad
esempio, nel caso della comprensione o della decisione lessicale. Evidentemente il
tipo di compito previsto per il soggetto (di comprensione, di associazione o di
memorizzazione ecc.) può costituire un fattore altamente discriminante nel defini-
re la natura del processo indagato.
I movimenti oculari sono direttamente legati a ulteriori fenomeni di interes-
se per la psicologia della comunicazione, come la chiusura spontanea delle pal-
pebre (blinks oculari) in stretta relazione alla cosiddetta risposta di startle (star-
tle response). Essa è intesa come risposta attiva, rapida, a uno stimolo inatteso,
poiché l’aumento dei blinks segnala propriamente il sopraggiungere di tale sti-
molazione imprevista. È stato rilevato che i processi attentivi ed emotivi pos-
sono modulare il riflesso di startle e, più in generale, che esiste un rapporto
diretto tra le variazioni di arousal dell’organismo e l’incremento o la diminu-
zione dei blinks [56]. Rispetto agli studi effettuati nell’ambito dei processi lin-
guistici e comunicativi, le applicazioni recenti riguardano soprattutto lo studio
delle componenti non verbali della comunicazione e la produzione e la com-
prensione di correlati emotivi. La figura seguente riporta un esempio di varia-
zione dei blinks (Fig. 2.3).

Fig. 2.3 Ampiezza media della risposta di blink elicitata da uno startle di origine acustica (stimo-
lo probe) durante la visione di immagini emotive positive, neutre o negative
68 M. Balconi

2.4.3 Indici psicofisiologici: misure neurovegetative

Qualsiasi organismo vivente produce un complesso “sistema di segnalazioni” fisio-


logiche connesse al funzionamento dell’organismo stesso: tali unità di informazio-
ni sono chiamate biosegnali [57]. In funzione della natura di tali segnali è possibi-
le individuare due grandi categorie: i segnali elettrici (biopotenziali: elettrocardio-
gramma -ECG-; elettroencefalogramma – EEG; elettromiogramma – EMG) e i
segnali non elettrici (modificazioni pressorie, volumetriche, termiche ecc.) [2].
Tre sono i principali ambiti di rilevazione dell’attività elettrofisiologica del sog-
getto: l’attività elettrica della cute, relativa all’attivazione del sistema neurovege-
tativo; l’attività elettrica dell’occhio, costituita dall’attività elettrica della retina e
dei movimenti oculari; infine, per l’attività cerebrale è registrata la presenza di
variazioni elettriche prodotte dallo scalpo come indice di attivazione dello stesso.
In particolare esploreremo nel presente paragrafo i meccanismi legati all’attività
neurovegetativa dell’individuo, riservando uno spazio apposito agli indici corticali
(indici cognitivi) nel paragrafo successivo. L’attivazione del sistema nervoso auto-
nomico è, infatti, di particolare interesse per le componenti non verbali della comu-
nicazione [58]. Tale attività assume un ruolo di primo piano nello studio dei processi
comunicativi, soprattutto in relazione alla regolazione delle risposte emotive all’inter-
no dell’interazione comunicativa. Occorre focalizzare alcuni parametri, tra cui attivi-
tà elettrica del muscolo e dell’occhio; gli indici di attivazione cutanea (come la rispo-
sta e il livello di conduttanza); il ritmo cardiaco e la pressione sanguigna.

Elettromiografia

L’elettromiografia è la tecnica utilizzata per misurare i potenziali elettrici associati


alla contrazione delle fibre muscolari. La risposta elettromiografica del soggetto
appare direttamente legata alle componenti di attivazione generale (variazioni di
arousal). Una serie di studi ha, inoltre, collegato la risposta elettromiografica ai TR:
un aumento della risposta muscolare è generalmente collegato a una riduzione dei
TR [59]. Nell’ambito del linguaggio tale indice è stato applicato principalmente ai
processi di lettura, ad esempio, nello studio del linguaggio sublocale che si rileva
durante la lettura [60]. In particolare, è stato osservato che maggiori sono i tempi
richiesti a un soggetto per la lettura di un testo, maggiore è l’ampiezza dell’attività
muscolare attivata in relazione al linguaggio subvocalico [61]. Alcune applicazioni
dell’EMG riguardano anche l’ambito della comunicazione non-verbale, come nello
studio delle modificazioni di pattern mimici in relazione a specifiche emozioni. Tra
gli altri, gli studi di Ekman [62] si sono posti l’obiettivo di definire configurazioni
di modificazioni muscolari emozione-specifiche. In aggiunta ai pattern muscolari
che definiscono le risposte emotive dei soggetti (come nel caso dei muscoli corru-
gatori o zigomatici) è possibile verificare la presenza di specifici pattern neurali
che guidano la produzione di specifiche emozioni (si veda al riguardo anche il
Capitolo 9). Nel programma neuroculturale di Ekman è stata ipotizzata la presenza
di specifici network neurali per pattern di espressioni emotive e, in secondo luogo,
tali pattern sarebbero comuni a differenti contesti culturali (estendibilità cross-cul-
2. Metodi e strumenti di analisi della neuropsicologia applicata al linguaggio 69

turale). La mimica emotiva può essere intesa come sistema comunicativo finalizza-
to alla gestione dell’interazione comunicativa ed essa può essere indagata sia come
canale espressivo sia come canale comunicativo di risposta a stimoli interni o ester-
ni. Studi recenti [63] hanno, infatti, evidenziato la presenza di un effetto comunica-
tivo detto di “contagio” secondo cui i soggetti di fronte a stimoli mimici emotivi
risponderebbero modificando il proprio pattern facciale con modalità congruenti
allo stimolo osservato. In particolare, i soggetti risponderebbero con pattern mimi-
ci di emozioni positive a stimoli mimici positivi e in direzione opposta per stimoli
negativi. Dimberg ha testato tale ipotesi [64] analizzando se individui esposti a sti-
moli con volti della gioia e della rabbia potessero essere influenzati nell’organizza-
zione del proprio pattern mimico: i volti della rabbia in particolare aumentano l’at-
tività del muscolo corrugatore, mentre, volti della gioia aumentano l’attività del
muscolo zigomatico. Un secondo quesito che è stato posto nell’ambito della psico-
logia della comunicazione è relativo all’effetto che stimoli mimici possono eserci-
tare sull’umore dei soggetti, con interessanti effetti per il reciproco rapporto tra
esperienza emotiva e manifestazione della stessa negli individui [65].

Variazioni del diametro pupillare

Anche le variazioni del diametro pupillare costituiscono un valido indice impie-


gato nell’analisi della comunicazione non-verbale. Tale indice si riferisce all’au-
mento o alla diminuzione del diametro della pupilla (seppure per variazioni di
scala ridotta che va da 0 a 10 mm). Recentemente è stato introdotto l’indice di
misura definito come “risposta pupillare al compito”, ottenuto a partire dal pro-
filo medio dei cambiamenti registrati in risposta a certi eventi o compiti cogni-
tivi [66]. Cambiamenti di ordine così ridotto possono essere rilevati in relazio-
ne a un baseline predefinito, che costituisce la condizione neutra o di riposo del
soggetto. In particolare, le dimensioni pupillari sono state studiate in relazione
alle risposte del soggetto per stimoli a carattere emotivo [67], poiché tale indice
è un marcatore diretto dell’attività del sistema nervoso autonomo. Gli studi si
sono focalizzati, ad esempio, sul rapporto tra variazione pupillare e valore degli
stimoli per il soggetto o il grado di novità intrinseca degli stessi; la riposta alla
paura o l’eccitazione sessuale dei soggetti. Sul piano della comunicazione non-
verbale un aumento del diametro pupillare è stato collegato all’aumento del-
l’arousal del soggetto da un lato e alla rilevanza del contesto-stimolo per il sog-
getto dall’altro. È stato inoltre rilevato che esso aumenta progressivamente in
relazione al contenuto positivo degli stimoli emotivi e, al contrario, una sua
riduzione è direttamente proporzionale al valore negativo degli stimoli. Alcuni
filoni di ricerca hanno indagato più direttamente il rapporto tra variazione del
diametro pupillare e attività della memoria a breve termine o l’intervento di pro-
cessi di natura percettiva [68]. Più in generale, tale indice appare direttamente
correlato all’elaborazione del linguaggio. Alcuni studi hanno rilevato che le
variazioni pupillari appaiono essere direttamente proporzionali alla complessità
del contenuto elaborato [69]. Ad esempio, è stato osservato che la modificazio-
ne della struttura sintattica degli enunciati (ad esempio, con l’introduzione di un
70 M. Balconi

ordine casuale delle parole nella frase) può avere un effetto diretto sul diametro
pupillare, con un aumento della risposta fisiologica. Tali modificazioni riflette-
rebbero il diverso grado di elaborazione delle informazioni in funzione dell’in-
vestimento cognitivo dei soggetti [53].

Tecniche di indagine dell’attivazione cutanea

L’attività elettrica cutanea che deriva dall’azione del sistema nervoso simpatico è
utilizzata come indice del livello di attivazione o di reazione emotiva dell’organi-
smo. Essa è anche indicata come riflesso psicogalvanico, o come attività fasica
della pelle, contrapposta all’attività tonica di base [70]. La registrazione può esse-
re relativa alle variazioni spontanee del potenziale elettrico tra due elettrodi appli-
cati sulla pelle (detta endogena o del potenziale cutaneo) oppure alla registrazione
della resistenza opposta dalla pelle al passaggio di una corrente debole fra gli elet-
trodi (detta esogena o della conduttanza cutanea). Generalmente gli elettrodi ven-
gono posti sulla pelle delle dita o del palmo della mano o del braccio.
La risposta elettrocutanea (EDA, Electro Dermal Activity) si pone quale indi-
ce attendibile del livello di vigilanza e del riflesso di orientamento prodotto dal
soggetto. Tale attività è stata studiata particolarmente nel caso della comunicazio-
ne delle emozioni, poiché essa rappresenta un indice delle risposte emozionali
inconsce in assenza di elaborazione consapevole. Studi specifici hanno indagato,
in particolare, la possibilità di una specializzazione emisferica delle risposte emo-
zionali e specificamente dell’emisfero destro [71]. A conferma di tale ipotesi è
stato rilevato che la risposta elettrocutanea dei soggetti con lesioni cerebrali
destre è assente in presenza di stimoli emotigeni (parole con forte valore emoti-
geno). L’emisfero destro sarebbe, pertanto, determinante per la produzione della
reazione emozionale appropriata e per la comunicazione di tale reazione. Nello
studio della comunicazione non-verbale delle emozioni, in particolare, è stato
rilevato un rapporto diretto tra manipolazione della risposta emotiva e livelli di
conduttanza. In particolare, ai soggetti veniva chiesto di esagerare o ridurre la
propria risposta per stimoli a carattere emotivo [72], osservando come nel caso di
accentuazione i soggetti mostravano un incremento di conduttanza, al contrario
della condizione di riduzione che presentava un concomitante decremento della
risposta conduttanza. Il significato non-verbale della regolazione delle emozioni
appare così supportato da modificazioni psicofisiologiche specifiche e, più in
generale, l’indice EDA costituisce un marcatore del valore emotivo dello stimo-
lo per il soggetto. Interessanti applicazioni dell’indice EDA riguardano anche
l’elaborazione non conscia delle emozioni per stimoli di diversa natura (volti,
oggetti, script complessi ecc.). In particolare, Tranel e Damasio [73] hanno rile-
vato in soggetti con danno cerebrale, incapaci di elaborare consapevolmente sti-
moli mimici, un incremento di conduttanza nel caso di stimoli familiari. Inoltre,
è stato rilevato un incremento del livello di EDA per stimoli emotivi di natura
negativa vs. positiva, in linea con quanto rilevato per l’elaborazione consapevo-
le degli stimoli. Ciò fa supporre che i soggetti abbiano preservato una conoscen-
za, seppure implicita, degli stimoli e del loro valore semantico.
2. Metodi e strumenti di analisi della neuropsicologia applicata al linguaggio 71

Attività del sistema cardiocircolatorio

Un interessante indice di natura psicofisiologica è costituito dall’attività cardiaca. In


particolare, l’indice relativo al battito cardiaco è definito come numero di battiti del
muscolo cardiaco rilevato per unità temporale [70]. Interessanti correlazioni sono
state individuate tra l’accelerazione del battito e la comunicazione delle emozioni. Un
aumento del battito si rileva in concomitanza a vissuti emotivi negativi e, più in gene-
rale, a una maggior complessità cognitiva ed emotiva del contesto/evento. Inoltre, è
stato individuato un rapporto diretto tra attività cardiovascolare e attività somatica
(muscolare) da un lato e attività cardiovascolare e attività centrale (corticale), dall’al-
tro. Ricerche recenti hanno individuato una correlazione stretta tra attività cardiaca e
tempi di reazione, poiché a un aumento del battito si accompagna in genere, una ridu-
zione dei TR [57]. Interessanti applicazioni all’ambito dello studio del linguaggio
riguardano il rapporto tra attività cardiaca e apprendimento di stimoli verbali, con un
sensibile aumento dell’attività cardiaca in relazione all’apprendimento degli stimoli,
in particolare in stretta relazione alla complessità degli stessi. Per la comunicazione
non-verbale, tra gli studi condotti quelli di Ekman hanno evidenziato lo stretto rap-
porto esistente tra aumento dell’indice di attività cardiaca e risposta a stimoli mimici
a contenuto emotivo. Nello specifico, rabbia e paura mostrano una maggiore attiva-
zione cardiaca rispetto a gioia e disgusto [74]. Interessanti risultati riguardano, inol-
tre, il rapporto tra lateralizzazione e regolazione dell’attività cardiaca. Una serie di
studi ha rilevato, infatti, il maggior contributo destro rispetto alla capacità di regola-
re il ritmo cardiaco nei soggetti [75].
D’altro canto, è stato osservato anche come l’attività cardiovascolare sia stret-
tamente legata all’attività cerebrale, dal momento che il ritmo cardiovascolare può
mediare l’impatto degli stimoli esterni sul sistema nervoso centrale. Anche la pres-
sione sanguigna costituisce una delle principali variabili psicofisiologiche indaga-
te nell’ambito della comunicazione delle emozioni. In particolare, l’indice presso-
rio è stato correlato all’encoding e al decoding delle componenti emotive: un incre-
mento di pressione è stato rilevato per stimoli a elevato contenuto emotivo o più in
generale in condizioni di aumento di stress per l’organismo. Le variazioni presso-
rie sono state indagate anche in funzione di alcune variabili che caratterizzano
diversi contesti comunicativi. Ad esempio, modificazioni interessanti sono state
rilevate in contesti conversazionali in relazione ad alcune variabili quali lo status
dei soggetti, il numero di individui coinvolti nello scambio, il loro genere ecc. [76].

2.4.4 Attività elettrica corticale

Particolare attenzione è rivolta allo studio dei metodi elettroencefalografici di inda-


gine dell’attività corticale dei soggetti, poiché quest’ultima è stata ampiamente
impiegata negli ultimi anni per lo studio della produzione e della comprensione del
linguaggio (si veda anche il Capitolo 3) e, più recentemente, per l’analisi delle com-
ponenti pragmatiche della comunicazione. Tale tecnica di rilevazione, diversamente
da quelle precedentemente analizzate, consente un’analisi più diretta dei processi
72 M. Balconi

cognitivi chiamati in causa. Infatti, essa consente la scansione dell’attività cognitiva


in intervalli temporali minimi e ha il vantaggio di rapportare con maggiore precisio-
ne l’attivazione corticale a specifici compiti cognitivi cui il soggetto è sottoposto.

Elettroencefalogramma

L’EEG consente di registrare le variazioni corticali relative al voltaggio in varie


parti dello scalpo in relazione a un comune sito di riferimento (considerato spesso
il lobo dell’orecchio o il valore medio di tutti gli elettrodi). Le variazioni elettroen-
cefalografiche prodotte dall’attività corticale possono essere a loro volta distinte in
due differenti tipologie di indici: l’EEG e i potenziali evocati corticali (o ERP,
Event Related Potentials). Il primo è largamente impiegato per definire l’attività
sincrona dei neuroni rispetto all’attività di base [57]. L’attività elettrica così regi-
strata prende l’aspetto di una serie di onde di frequenza variabile, trasformata gra-
ficamente in tracciato per mezzo del poligrafo. Distinguiamo di seguito le princi-
pali bande di frequenza di maggiore interesse per l’ambito neuropsicologico.
Innanzitutto si rileva una banda di frequenza di voltaggio relativamente alto (50
microvolt) con una frequenza media di circa 10 cicli/sec (onde α), tipica del sog-
getto adulto rilassato e con gli occhi chiusi e onde di voltaggio minore e di frequen-
za maggiore, circa 18-30 cicli (onde β). Il passaggio da una condizione di riposo a
occhi chiusi a una condizione di allerta fa rilevare il blocco o desincronizzazione
del ritmo, con sostituzione delle onde α con onde β. A queste due bande se ne
aggiungono due di altro tipo: le onde δ costituite da frequenze di oscillazione molto
basse, inferiori a 4 cicli/sec ed elevato voltaggio (100 microvolt), tipicamente regi-
strate nelle condizioni di sonno profondo; il ritmo θ, di frequenza compresa tra i 4
e gli 8 cicli e di grande ampiezza (circa 100 microvolt).
Le principali ricerche condotte in ambito neuropsicologico hanno considerato
come centrale l’attività di tipo α: tipicamente la procedura prevede l’esecuzione di
un’analisi spettrale che permetta di individuare la proporzione di attività elettrica
generale attribuibile alle varie bande di frequenza [77]. La proporzione dell’attivi-
tà α rispetto all’attività elettrica complessiva è il miglior indice di attivazione cor-
ticale, dal momento che qualsiasi impegno mentale comporta una diminuzione di
tale componente o un aumento della componente β1. La Figura 2.4 riporta alcuni
tracciati caratterizzati da attività sincrona o desincronizzata in funzione dell’attivi-
tà svolta dal soggetto.
Ad esempio, durante lo svolgimento di un compito di valutazione di stimoli a
contenuto emotivo si registra una minore attività nell’emisfero sinistro rispetto a
quello destro. Una condizione opposta si verifica nel caso di compiti linguistici, con
una minore attività dell’emisfero destro [78]. Pertanto, dovrebbe essere possibile
stabilire quale emisfero sia più impegnato in un processo cognitivo confrontando il
livello di attivazione elettroencefalografica evidenziata rispettivamente nei due
emisferi. Il vantaggio di tale tecnica è legato, inoltre, alla possibilità di rilevare
variazioni circostanziate ad aree corticali definite e non solo a interi emisferi. In
relazione all’analisi topografica dell’EEG sono state definite mappe cerebrali com-
puterizzate, che comprendono la mappatura spaziale e l’analisi temporale e statisti-
2. Metodi e strumenti di analisi della neuropsicologia applicata al linguaggio 73

Fig. 2.4 Tracciati EEG in differenti


condizioni del soggetto (dal coma alla
veglia attiva)

ca dell’attività registrata. Mediante analisi computerizzata è possibile, infatti, rile-


vare l’attività elettrica nel suo contenuto in frequenza, analizzando la consistenza
nel tempo di tale attività per ciascun elettrodo, creando una mappa della distribu-
zione spaziale dell’attività (per una trattazione completa delle bande di frequenza
si rimanda a [57]).

Potenziali evocati (ERP) esogeni ed endogeni

Maggiore attenzione viene dedicata nel paragrafo al secondo indice di rilevazione


elettroencefalografica, ovvero il parametro relativo ai potenziali evocati corticali.
Tale indicatore, diversamente dall’analisi dello spettro EEG, consente di analizza-
re l’attivazione neurale del soggetto in relazione a stimoli esterni ripetuti [79].
L’attività neurale considerata per il calcolo dell’ERP medio tiene conto di stimoli o
compiti reiterati sottoposti al soggetto. I potenziali evocati corticali vengono defi-
niti come attività di risposta neurale (la risposta sinaptica dei dendriti delle cellule
piramidali) a stimolazione di breve durata. Per tale ragione essi sono largamente
impiegati per la rilevazione di processi cognitivi di base. La registrazione avviene
sul cuoio capelluto e consente di osservare le variazioni di potenziale elettrico che
si verificano in concomitanza di stimolazioni sensoriali, di processi motori o cogni-
tivi. La Figura 2.5 riporta la disposizione di alcuni elettrodi collocati sullo scalpo
secondo la notazione internazionale [80].
L’analisi verte sui profili d’onda prodotti dallo scalpo, poiché le diverse compo-
nenti riflettono stadi diversi di elaborazione dell’informazione. È possibile distin-
guere componenti primarie relative all’analisi percettiva dello stimolo, che include
la rilevazione delle proprietà fisiche dello stesso (potenziali evocati percettivi o
esogeni, a breve latenza) e componenti secondarie relative alle operazioni cogniti-
74 M. Balconi

Fig. 2.5 a, b Rappresentazione della


collocazione degli elettrodi sullo
scalpo secondo il sistema internazio-
nale. Da [80]

ve (potenziali evocati cognitivi o endogeni, a lunga latenza). Più recentemente a


tale distinzione è stata sostituita una nuova classificazione che evidenzia una diffe-
rente risposta agli stimoli, di tipo automatico con potenziali precoci, di tipo cogni-
tivo e di natura strategica con potenziali endogeni [81]. Tali potenziali riflettono
l’attività di un numero consistente di neuroni della struttura nervosa che si somma
all’attività di base evidenziata dall’EEG. Pertanto, è indispensabile separare i
potenziali evocati dall’attività EEG registrata dalle stesse strutture nervose,
mediante una procedura di sommazione computerizzata dell’attività elettrica spon-
tanea e di quella indotta dall’evento registrato. Ciò consente di separare l’attività
non correlata all’evento (variazioni casuali) all’attività specifica per quel compito
cognitivo (variazioni sistematiche). Mediante la procedura di sommazione, l’attivi-
tà elettrica spontanea non legata all’evento tende ad annullarsi, mentre viene a esse-
re evidenziata per sommazione l’attività elettrica legata all’evento oggetto di stu-
dio. Inoltre, in ciascun potenziale evocato è possibile distinguere differenti compo-
nenti, dette onde, di valore positivo o negativo, caratterizzate, oltre che dal segno
di variazione del potenziale, da un’ampiezza e da una latenza, ovvero il tempo che
intercorre dall’evento alla comparsa dell’onda.
Tali parametri e le loro relative variazioni forniscono le principali informazioni
rispetto all’attività corticale sottostante. Lo studio dei processi cognitivi che impie-
ga i parametri di ampiezza e tempo dell’onda ha come presupposto implicito che
ogni processo cognitivo possa essere letto come la somma di una combinazione
sequenziale (e in alcuni casi parallela) di subprocessi. L’organizzazione in sotto-
componenti può essere ritenuta una suddivisione arbitraria, legata al particolare
modello cognitivo adottato [82]. L’ipotesi sottostante all’utilizzo dell’analisi dei
potenziali evocati è che l’attività elettrica transitoria evidenziata dai potenziali
2. Metodi e strumenti di analisi della neuropsicologia applicata al linguaggio 75

rifletta i processi nervosi sottostanti e i processi cognitivi implicati nello svolgi-


mento del compito. Da ciò ne conseguirebbe, inoltre, che le caratteristiche spazio-
temporali dei potenziali permettono di fare inferenze relativamente alle regioni cor-
ticali che intervengono in tali processi cognitivi e circa il succedersi nel tempo delle
loro componenti elementari [83].
Alcuni aspetti salienti dell’approccio adottato consentono di definire meglio le
caratteristiche del potenziale.

– Gli eventi mentali non possono essere misurati direttamente ma devono essere
inferiti a partire da misurazioni di tipo comportamentale e neurale associate a
essi. Il metodo dei potenziali evocati medi (averaged) assume che le sottocom-
ponenti sottostanti a uno specifico processo cognitivo siano elementi invarianti
nel tempo e rispetto a compiti identici reiterati.
– L’onda media del potenziale è considerata come un insieme di componenti
che si sommano temporalmente e spazialmente, generate da sistemi neurali
differenti.

Potenziali evocati e attività cognitive

Lo studio dei processi cognitivi (percezione, memoria, emozione, attenzione, lin-


guaggio e pensiero) mediante la tecnica dei potenziali evocati è stato condotto sotto
l’egida metodologica e teorica dell’indirizzo cognitivista. Tre punti principali con-
sentono di riassumere la prospettiva cognitivista ai fini della nostra trattazione:

– l’indagine è focalizzata sui processi psichici superiori;


– la mente viene concepita come una struttura organizzata in stadi e livelli con
l’obiettivo di elaborare l’informazione in entrata e in uscita;
– i risultati delle ricerche condotte in ambito comportamentale sono confrontati
con i risultati delle neuroscienze, assumendo che i processi mentali siano fun-
zioni complesse del cervello.

Uno degli aspetti più rilevanti di tale approccio è costituito dalla possibilità di
analizzare le variazioni delle risposte del soggetto non tanto in relazione allo stimo-
lo ma piuttosto al processo cognitivo attivato per l’elaborazione dell’informazione.
Infatti, la neuropsicologia cognitiva pone al centro della propria disamina fonda-
mentalmente i processi fisiologici e cognitivi nella loro dinamica piuttosto che
come semplice effetto o risultato di tale processo. La tendenza prevalente delle
ricerche sugli ERP come indici dei processi cognitivi coincide con lo studio delle
variazioni elettroencefalografiche correlate alle operazioni svolte dal soggetto,
dipendenti non tanto dalle caratteristiche dello stimolo, quanto dalle condizioni
sperimentali, dalle aspettative e dalle strategie del soggetto stesso.
Pertanto, la risposta prodotta sotto forma di potenziale viene intesa come indice
di quanto avviene in vari stadi o livelli dell’elaborazione dell’informazione, a parti-
re dall’analisi primaria degli stimoli. In particolare, nell’analisi dei fenomeni comu-
nicativi l’approccio dei potenziali evocati offre indubbi vantaggi. Innanzitutto, la sua
76 M. Balconi

non invasività, a fronte di un’enorme quantità di dati forniti relativamente ai proces-


si di elaborazione, costituisce un aspetto differenziale rispetto ad altre tecniche di
rilevazione. Inoltre, gli ERP consentono un esame dei processi rispetto a una speci-
fica “cronometria cerebrale”, consentendo un’elevata risoluzione in termini di rile-
vazione puntuale dei tempi di latenza delle componenti processuali.

ERP e studio dei processi linguistici e comunicativi

Definite le premesse circa il significato delle rilevazioni ERP per la moderna neu-
ropsicologia è necessario comprenderne le principali applicazioni allo studio del
linguaggio e della comunicazione [84].
Sono ormai molti gli studi sul linguaggio con applicazioni ERP. Basti citare gli
studi sulla comprensione dei processi fonologici, lessicali, sintattici o semantici. In
termini più analitici, lo studio mediante ERP ha consentito di verificare l’esistenza
di una reale distinzione dei processi di elaborazione di verbi e nomi; l’elaborazio-
ne fonologica vs. acustica delle parole; la distinzione tra parole funzione e conte-
nuto; la suddivisione tra i livelli di elaborazione sintattica e semantica [85, 86]. O
ancora, il possibile confronto tra acquisizione della prima e della seconda lingua; la
relazione longitudinale tra l’elaborazione del linguaggio nelle fasi iniziali dello svi-
luppo e la successiva acquisizione di competenze linguistiche nell’adulto.
Ci limitiamo in questo ambito a riportare due esempi di possibili applicazioni di
indici ERP per lo studio dei processi di comprensione sintattica e semantica (per un
approfondimento si veda il Capitolo 3). Costituiscono un esempio di applicazione
delle rilevazioni mediante ERP gli studi sulle variazioni a lunga latenza, quali la
deflessione negativa N400, che appare approssimativamente intorno ai 400 ms post-
stimolo in concomitanza all’identificazione di un’anomalia semantica, maggiormen-
te localizzata nelle aree posteriori bilaterali [87]. L’ampiezza di tale deflessione
appare direttamente proporzionale al grado di anomalia o inadeguatezza con il con-
testo dello stimolo linguistico (o non linguistico) [88, 89]. Essa appare rappresenta-
tiva di una più generale condizione di non congruenza stimolo-contesto. Per tale
ragione è stata rilevata anche per singole parole in aggiunta a stimoli enunciativi
(come per coppie di parole, parole ambigue, liste di termini ecc.). Ipotesi più recen-
ti considerano tale negatività come marcatore della necessità da parte dell’individuo
di rivedere le proprie aspettative (ciò che è atteso) sul piano della rappresentazione
semantica in senso più ampio [90] o come indice dello sforzo di elaborazione richie-
sto [91] o, ancora, come richiesta di intervento da parte della working memory [92].
La notevole varietà di prospettive esplicative adottate pone in evidenza il fatto che
tale indice può rendere conto di meccanismi differenti. Infatti, occorre tenere presen-
te che i processi linguistici e comunicativi non appaiono mai “isolati” ma piuttosto
prevedono l’integrazione di processi come l’attenzione, la memoria di lavoro ecc.
In secondo luogo, tale indice risulta essere particolarmente rilevante anche
per analizzare le componenti non verbali della comunicazione al fine di sonda-
re il rapporto che esse intrattengono con il contesto. Ad esempio, recenti ricer-
che hanno evidenziato un significativo incremento della deflessione N400 in
relazione ai cosiddetti fenomeni “non standard” del significato, come nel caso di
2. Metodi e strumenti di analisi della neuropsicologia applicata al linguaggio 77

elaborazione di enunciati metaforici [93, 94]. Sono stati considerati, inoltre, i


processi di convergenza e di sintonizzazione dei diversi sistemi di comunicazio-
ne non-verbale. Nello specifico è stata rilevata la presenza di una deflessione
negativa in condizioni di divergenza tra componenti vocali e mimiche nella
comunicazione delle emozioni [95, 96].
Un indice positivo di particolare interesse per lo studio del linguaggio è stato
rilevato in concomitanza alla violazione di vincoli sintattici, anche detta P600
[97, 98]. La variazione P600 è stata interpretata, tuttavia, in modi differenti. Secondo
una prima ipotesi, essa sarebbe il risultato della convergenza di più componenti
cognitive, correlate al processo di parsing sintattico [99]. Una seconda possibilità è
che tale variazione sia una componente della più ampia famiglia delle variazioni
positive di lunga latenza (P300), rilevate in concomitanza all’elaborazione di even-
ti inattesi ma rilevanti rispetto al compito [100]. Più recentemente è stata introdotta
una seconda componente negativa (effetto LAN, Left Anterior Negativity), di mag-
giore ampiezza nelle regioni anteriori dello scalpo e nell’emisfero sinistro (per una
discussione approfondita di tali indici ERP si rimanda a [84]).
Ma quali sono i reali vantaggi e gli svantaggi nell’utilizzo di tali tecniche?
Abbiamo già sottolineato la possibilità di rilevare in modo preciso la cronometria
mentale dei processi cognitivi indagati, consentendo contemporaneamente la
scomposizione dell’intero processo in sottocomponenti o in singole operazioni
mentali. Gli indici ERP sono in grado di monitorare il processo nel suo divenire,
offrendo la possibilità di fare inferenze circa i tempi di attivazione delle singole
componenti del processo stesso. Inoltre, essi consentono una rilevazione nel caso
in cui vi siano deficit che invalidano la produzione dei soggetti (come nel caso
delle afasie) o con soggetti in età precoce. Tra i principali limiti insiti nelle proce-
dure di rilevazione mediante ERP occorre annoverare in primis la ridotta risolu-
zione spaziale degli indici rispetto alle misure di neuroimaging. Inoltre, gli ERP
risultano poco adatti per compiti sperimentali che hanno durata superiore a pochi
minuti, non consentendo quindi di rendere conto di processi a lungo termine. In
aggiunta, al fine di limitare la presenza di artefatti nel tracciato è utile prevedere
la sospensione dell’attività motoria del soggetto, fatto che contribuisce a rendere
poco naturale e vincolante il contesto di rilevazione del potenziale [101]. Elementi
di natura tecnica, legati all’apparato di registrazione, possono avere, inoltre, un’in-
cidenza sull’output finale. Si pensi, ad esempio, al particolare tipo di montaggio
degli elettrodi che influenza direttamente il pattern di componenti ERP osservate.
O, ancora, le caratteristiche dell’amplificatore (cutoff) incidono sulla rilevazione
del segnale (nei termini di rilevazione delle basse frequenze del segnale). Inoltre,
sul piano teorico, in molti casi i ricercatori focalizzano la propria attenzione su
particolari variazioni ERP già rilevate in precedenza (ad esempio, la componente
N400) trascurando al contempo altre variazioni presenti nel tracciato, potenzial-
mente rilevanti. Tale scelta può indurre a sottostimare la presenza di componenti
nuove, a favore di componenti note in risposta a specifiche variabili sperimentali.
Le recenti applicazioni dell’approccio di analisi multivariato (come l’analisi della
Componenti Principali) possono ovviare a tale problema, consentendo di indivi-
duare quali componenti rendano conto effettivamente della maggior quota di
varianza dell’ERP [102].
78 M. Balconi

Magnetoencefalografia (MEG)
e stimolazione magnetica transcranica (TMS)

Abbiamo precisato come sia possibile cogliere la variazione time-by-time dell’attivi-


tà cerebrale associata a un particolare evento cognitivo non invasivamente nella
forma delle variazioni di voltaggio rilevate sulla superficie dello scalpo, definite
come potenziali evento-correlati (ERP). Tuttavia questi ultimi non sono in grado di
fornire sufficienti informazioni circa la localizzazione precisa delle sorgenti delle
variazioni di voltaggio rilevate. Un indice in grado di compensare in parte tale limite
è rappresentato dalla MEG (magnetoencefalografia). In quanto tecnica non invasiva,
essa è impiegata in misura sempre più consistente, in particolare per lo studio del lin-
guaggio [103]. Inoltre, essa offre l’indubbio vantaggio di fornire un’ottima risoluzio-
ne sia spaziale sia temporale, pur rilevando unicamente l’attività superficiale cortica-
le e non quella degli strati più profondi. Essa è in grado di rilevare mediante apposi-
ti sensori le piccole variazioni di campi magnetici prodotti dall’attività elettrica dei
neuroni (con campi non solo tangenziali ma anche radiali), grazie alla rilevazione di
cambiamenti nel campo magnetico generati all’interno del cervello, sincronizzati a
stimoli o eventi esterni. La MEG si avvale dell’impiego di un neuromagnetometro,
con l’intento di rilevare i campi magnetici prodotti dall’attività di aree molto piccole.
Al fine di aumentare il rapporto segnale-rumore delle rilevazioni magnetiche si pre-
vede di registrare più rilevazioni MEG in risposta a reiterazioni dell’evento sperimen-
tale, ottenendo un profilo medio delle variazioni. Per tale ragione, gli indici prodotti
sono indicati come campi magnetici evocati, parallelamente agli ERP.
Uno degli scopi principali della MEG è costituito dalla definizione della sorgen-
te dell’attivazione cerebrale associata a un particolare stimolo, al fine di delineare
un modello adeguato della sorgente sottostante. Tuttavia la definizione di tali sor-
genti è resa problematica dalla difficoltà di calcolo dei parametri delle sorgenti
intracraniche (ovvero le loro coordinate spaziali, la loro forza e il loro orientamen-
to) a partire dalla distribuzione dei campi magnetici misurati sulla superficie dello
scalpo. Tale problema è in parte risolto grazie al contributo e all’integrazione delle
rilevazioni MEG con informazioni ottenute da altri paradigmi di ricerca, come gli
studi su lesioni o altre tecniche di neuroimaging funzionale. Disponendo di sistemi
di amplificazione molto potenti, tale tecnica combinata consente di rappresentare le
variazioni dei campi magnetici sull’immagine anatomica del soggetto ottenuta tra-
mite risonanza magnetica, fornendo un complessivo quadro anatomo-funzionale di
una specifica area.
Tra i maggiori vantaggi della MEG occorre sottolineare, in aggiunta alla sua
ridotta invasività, una risoluzione temporale migliore rispetto alle tecniche di neu-
roimaging. Inoltre, essa offre la possibilità di interpretare i dati ottenuti anche in
assenza di confronto con altri soggetti, senza cioè ricorrere alla costruzione di un
“profilo medio” (richiesto, ad esempio, dalla fMRI). In sintesi, essa consente di
integrare un’elevata risoluzione, tipica degli ERP, con elevata capacità di localizza-
zione generata all’interno di regioni cerebrali sufficientemente piccole.
Tra i principali esempi di ricerca applicata all’ambito della comunicazione,
citiamo lo studio di Basile e colleghi [104], che ha individuato regioni distinte della
corteccia frontale implicate nella preparazione ed esecuzione di differenti compiti
2. Metodi e strumenti di analisi della neuropsicologia applicata al linguaggio 79

non verbali. Interessanti rilevazioni di campi magnetici relati a eventi (Event-


Related Magnetic Fields) sono state effettuate da Salmelin e colleghi [105] nello
studio di compiti di denominazione di parole. Nello studio, data l’ottima risoluzio-
ne spaziale dell’ouput, è stato possibile evidenziare come nel processo di elabora-
zione di parole siano dapprima attivate le aree visive e successivamente alcune
strutture neurali con specifiche competenze linguistiche. Anche per lo svolgimento
di compiti cognitivi complessi è possibile evidenziare l’utilità della MEG. Citiamo
come esempio il compito di individuazione di una categoria semantica per stimoli
uditivi (parole) [106]. Nello studio è emersa la presenza di una deflessione negati-
va (N100m) in entrambi gli emisferi, seguita da un campo di massima ampiezza
intorno ai 400 ms (N400m) dopo l’onset dello stimolo, con una localizzazione più
posteriore per l’emisfero sinistro rispetto al destro. Più recentemente, alcuni studi
hanno cercato di correlare in modo diretto indici ERP e MEG (come per la N400 e
N400m) con interessanti risultati (si veda, ad esempio, [107]).
Anche la stimolazione magnetica transcranica (TMS, Trans Magnetic
Stimulation) costituisce una recente tecnica che impiega campi magnetici al fine di
intervenire sul processo di produzione linguistica [20]. Questa tecnica, più moderna
e meno invasiva, è basata sul principio dell’induzione elettromagnetica, secondo cui
un impulso di corrente elettrica che passa attraverso una bobina di metallo è in grado
di generare un campo magnetico con direzione perpendicolare a quella del campo
elettrico. Gli apparecchi più moderni impiegano una bobina stimolante contenente
una spirale che viene appoggiata sullo scalpo ed è connessa a un condensatore. Il
campo elettrico così generato induce un campo magnetico di elevata potenza e breve
durata (in genere 180-300 ms) che attraversa i tessuti cutanei, muscolari e ossei del
cranio, raggiunge la corteccia e, in condizioni di stimolazione prolungata, blocca
temporaneamente le funzioni dell’area corticale sottostante (nel punto in cui è posi-
zionata la bobina). Rispetto all’utilizzo in abito comunicativo, la TMS consente, ad
esempio, di intervenire direttamente sulla produzione dell’eloquio inducendo l’inter-
ruzione del processo [108, 109]. Essa può essere anche impiegata con l’intento di
produrre un effetto opposto, ovvero di stimolare la produzione verbale del soggetto
nei casi di deficit come per la produzione di nomi e di verbi [110]. Esistono, tutta-
via, alcune controindicazioni nell’uso dello strumento (si veda il carattere epiletto-
geno dello stesso nel caso di stimolazioni di lunga durata a elevata frequenza), oltre
che limiti intrinseci, tra cui l’impossibilità di indagare i tessuti sottocorticali.

2.4.5 Neuroimaging: tecniche morfologiche e funzionali

In anni recenti è stato possibile osservare l’emergere di nuovi e potenti mezzi per
studiare le funzioni cerebrali. Lo studio analitico dell’attività cerebrale è stato reso
possibile grazie allo sviluppo di tecnologie di rilevazione in vivo mediante bioim-
magine [111]. Distinguiamo, in particolare, due differenti tipologie di tecniche che
consentono di evidenziare aspetti differenti dell’attività cognitiva degli individui:
gli strumenti di rilevazione strutturali e gli strumenti di rilevazione funzionali.
Ciascuno di tali metodi misura particolari aspetti della fisiologia del cervello, come
80 M. Balconi

il flusso sanguigno, il consumo di ossigeno e glucosio o la corrente intracellulare


all’interno dei neuroni. Tali tecniche hanno consentito di individuare con estrema
precisione eventi cerebrali all’interno di regioni anatomiche molto piccole. La sup-
posizione è che ogni immagine funzionale riveli operazioni o meccanismi propri
della comunicazione, in quanto indice del grado di attivazione di una popolazione
di neuroni. Ovvero esse mostrano attività di strutture supportanti sistemi funziona-
li che mediano operazioni comunicative.
Nello studio della comunicazione, i metodi strutturali e funzionali sono stati
ampiamente utilizzati, in particolare per analizzare il ruolo di specifiche aree cor-
ticali e sottocorticali nei processi comunicativi. Specificamente è stato conside-
rato il contributo dei due emisferi nell’elaborazione delle componenti verbali e
non verbali. A titolo esemplificativo possiamo riportare i recenti studi sulla late-
ralizzazione destra per l’elaborazione delle componenti soprasegmentali della
comunicazione [112].

Strumenti di rilevazione strutturali

Consideriamo due principali tecniche morfologiche largamente impiegate con fina-


lità cliniche e di ricerca negli ultimi anni: la Tomografia Assiale Computerizzata
(TAC) e la Risonanza Magnetica Nucleare (RMN). TAC e RMN forniscono
entrambe un’immagine strutturale e non funzionale del cervello [6]. Ciò significa
che, in presenza di una lesione, ciò che viene visualizzato dall’analisi si riferisce
all’alterazione della struttura macroscopica, senza alcun riferimento alle eventua-
li alterazioni funzionali determinate da tale lesione. Più specificamente, la TAC è
uno strumento utilizzato al fine di analizzare le strutture cerebrali in vivo. Tale tec-
nica consente di valutare la densità dei vari tessuti cerebrali tramite misurazione
dei valori di assorbimento di un fascio di raggi X. I valori individuati vengono suc-
cessivamente tradotti in diverse tonalità di grigio a seconda del livello di assorbi-
mento del tessuto studiato. Riportiamo un esempio di immagini con una TAC
(Figg. 2.6a e 2.6b).
Si noti in particolare la presenza di un’area più scura nella regione opercolare
frontale. In seguito a trauma, si è verificata infatti una perdita di tessuto, che ora
appare scuro poiché riempito di fluido cerebrospinale. Al contrario la RMN si basa
sull’uso di apparecchiature in grado di generare campi magnetici di intensità varia-
bile. Essa sfrutta la proprietà di alcuni nuclei atomici che, posti in un campo magne-
tico e stimolati da onde radio di lunghezza definita, riemettono parte dell’energia
assorbita sottoforma di segnale radio [113]. Lo studio del comportamento degli
atomi e le informazioni relative al tempo impiegato da questi ultimi per ritornare in
una condizione normale può essere usato per creare un’immagine dell’anatomia
corticale. Le immagini ottenute mediante TAC e RMN sono tipicamente rappresen-
tate sul piano bidimensionale (in genere la TAC) e tridimensionale (specialmente la
RMN). Ciascun elemento che definisce un punto sul piano (con coordinate x e y) è
definito pixel, mentre l’elemento che definisce un punto nello spazio tridimensio-
nale (coordinate x, y, z) si definisce voxel. Pixel e voxel costituiscono, pertanto, le
unità di misura di tali immagini.
2. Metodi e strumenti di analisi della neuropsicologia applicata al linguaggio 81

Fig. 2.6 a, b Rappresentazione di un


danno cerebrale mediante TAC (a).
Rappresentazione del danno prece-
dente mediante le corrispondenti aree
di Brodman (b)

Tecniche di neuroimaging funzionale

Metodi di neuroimaging funzionale possono essere impiegati per studiare l’orga-


nizzazione e le basi neurali delle funzioni cognitive come la comunicazione e il lin-
guaggio. In particolare, facciamo riferimento ai metodi di misurazione non invasi-
va dell’attività cerebrale, con particolare attenzione alle misure basate su variabili
emodinamiche come la tomografia a emissione di positroni (PET) e la risonanza
magnetica funzionale (fMRI). Vista la complessità e il livello tecnico degli stru-
menti presentati di seguito, ci limitiamo a fornire alcune indicazioni generali sul
loro funzionamento, focalizzando maggiormente gli aspetti di utilità e i limiti a essi
intrinseci (per un approfondimento si veda anche [114]).
In quanto metodi di natura emodinamica, essi presuppongono che esista una
relazione stretta tra cambiamenti del livello di attività delle popolazioni neurali
coinvolte e cambiamenti nella richiesta di sangue. Tali strumenti si basano sul prin-
cipio che la quantità di sangue che irrora un dato tessuto e il suo metabolismo
dipenda dall’attività svolta da quel tessuto in relazione a uno specifico compito:
maggiore è l’attività funzionale svolta da un tessuto, maggiore dovrà essere il suo
metabolismo e l’apporto di sangue. Pertanto, il flusso dinamico regionale cerebra-
le è usato come misura indiretta di un aumento di attività neurale. È bene sottoli-
82 M. Balconi

neare che il cambio di flusso avviene solo nel caso di variazione generale della
richiesta metabolica dei neuroni e non in caso di variazione temporale dell’attività
dell’insieme di neuroni (ad esempio, da asincrono a sincrono), che non ha contro-
parte emodinamica dato lo scarso significato funzionale di tale cambiamento.
Presentiamo le principali misure emodinamiche utilizzate, come la CBF,
SPECT, PET e fMRI.
Distinguiamo, in particolare, differenti tecniche di rilevazione funzionale, la
misurazione del Flusso Ematico Cerebrale (CBF), la Tomografia a Emissione di
Singoli Fotoni (SPECT), la Tomografia a Emissione di Positroni (PET) e la
Risonanza Magnetica Funzionale (fMRI).
La prima delle tecniche elencate (CBF) è impiegata in studi di attivazione fun-
zionale durante l’esecuzione di un determinato compito. Mediante CBF è possibi-
le rilevare l’aumento di perfusione in specifiche aree, correlato al compito in que-
stione. Essa consiste nell’iniezione di un isotopo radioattivo (Xeno 133) nel circo-
lo cerebrale. Successivamente viene misurata la distribuzione dell’isotopo, median-
te strumenti che consentono di rilevare le radiazioni gamma emesse dall’isotopo. In
tale modo, è possibile valutare le variazioni di concentrazione dell’isotopo nel
tempo e la sua distribuzione nelle diverse regioni cerebrali. Tale tecnica ha il van-
taggio, attraverso la correlazione con le immagini morfologiche ottenute, ad esem-
pio, mediante TAC, di evidenziare come le aree di alterata perfusione siano spesso
più ampie rispetto alla lesione strutturale. Infatti, il contributo più rilevante fornito
da tale tecnica consiste nell’aver consentito di evidenziare come l’esecuzione di un
compito cognitivo non sia legata esclusivamente all’attivazione di un’unica regio-
ne cerebrale, bensì al funzionamento di una rete di aree interconnesse.
Attraverso la tecnica delle tomografie computerizzate è possibile determinare la
distribuzione di un tracciante radioattivo in un tessuto al fine di ricavarne informa-
zioni morfologiche e funzionali. Ad esempio, mediante la SPECT, che impiega iso-
topi a emissione di raggi gamma, è possibile realizzare studi di flusso cerebrale ema-
tico che consentono di visualizzare la distribuzione del tracciante radioattivo attra-
verso un sistema rotante di rilevamento (gammacamera). L’apporto del computer
consente di tramutare i segnali che giungono dalla gammacamera in immagini simi-
li alla TAC. In tale modo, è possibile avere dati di tipo sia funzionale sia strutturale.
La PET offre il vantaggio di poter studiare in modo più diretto rispetto al flusso
sanguigno le funzioni dell’encefalo attraverso l’analisi del suo metabolismo (nella
maggior parte degli studi PET è studiato il metabolismo del glucosio). Il principio
alla base di tale tecnica è che qualsiasi compito richiede al cervello risorse energeti-
che per essere eseguito, con conseguente aumento del flusso ematico e del metabo-
lismo, misurabile con gli strumenti sopra descritti. Infine, la risonanza magnetica
funzionale (fMRI) consente di misurare le modificazioni emodinamiche dovute
all’attività neurale durante l’attività cerebrale. Le variazioni dell’attività neurale
sono associate ai cambiamenti delle richieste energetiche. Ciò produce una locale
vasodilatazione, un aumento di flusso sanguigno e un conseguente aumento della
concentrazione di emoglobina ossigenata. Attraverso il cosiddetto metodo BOLD, si
procede a confrontare la quantità di emoglobina ossigenata con la quantità di emo-
globina deossigenata. Pertanto, è possibile misurare un aumento della concentrazio-
ne relativa di emoglobina ossigenata e quindi un aumento dell’attività neurale. Le
2. Metodi e strumenti di analisi della neuropsicologia applicata al linguaggio 83

due emoglobine hanno proprietà magnetiche diverse e rispondono diversamente a un


campo magnetico esterno, dando luogo a differenti immagini RM.
Le maggiori applicazioni di tali tecniche emodinamiche riguardano le funzioni
linguistiche e comunicative colte nella loro organizzazione strutturale (al contrario,
per le ragioni già sottolineate, la dimensione temporale appare ridotta), con riferi-
mento alle principali componenti del linguaggio (fonologico, morfologico, sintatti-
co, e semantico) fino al più complesso livello della comprensione di frasi. Gli studi,
ormai molto numerosi, hanno consentito di ridefinire in termini di mappe corticali
il contributo delle diverse aree per le funzioni linguistiche e comunicative, superan-
do l’originaria bilocazione Broca-Wernicke (per una rassegna si veda [115]). A fini
esemplificativi possiamo citare l’ormai classico lavoro con metodologia PET di
Petersen e colleghi [116] per elaborazione di singole parole in tre distinte condizio-
ni: semplice lettura di parole; ripetizione a voce alta delle stesse; associazione paro-
le-verbi a esse appropriati. Tutte e tre le condizioni venivano testate in modalità sia
visiva sia uditiva. Il confronto di ciascuna condizione con il livello precedente
secondo una “modalità sottrattiva” ha consentito di definire mappe differenziate per
i tre compiti linguistici.
Occorre, comunque, sottolineare che le tecniche di neuroimaging presentano
indubbi limiti legati ai vincoli posti dagli stessi strumenti di rilevazione. In partico-
lare, la risoluzione temporale risulta essere molto ridotta, nonostante le migliorie
introdotte negli ultimi tempi (ad esempio, per indagine PET) in relazione all’ordi-
ne di scala dei processi cognitivi (minori di 1 secondo). Anche le tecniche di rile-
vazione neurofunzionale, quali la fMRI, appaiono limitate rispetto alla capacità di
rendere conto di processi microtemporali, seppure esse presentano un indubbio
vantaggio rispetto ad altre (come la PET), consentendo di rilevare un ampio nume-
ro di misurazioni separate di segnali funzionalmente significativi in un breve perio-
do di tempo. Questo è un indubbio vantaggio che consente alla fMRI di operare con
compiti sperimentali più articolati, in cui è possibile ripetere le rilevazioni varian-
do sensibilmente il compito fornito al soggetto [5].
Occorre, inoltre, sottolineare che in alcuni casi il metodo di rilevazione utilizza-
to è esso stesso oggetto di discussione. Si pensi all’ampio dibattito circa la validità
del metodo sottrattivo utilizzato nell’analisi fMRI. Nei paradigmi classici si ipotiz-
za che l’attivazione corticale prodotta da due compiti diversificati in base a una spe-
cifica operazione cognitiva (ad esempio, compiti di decisione fonologica e di deci-
sione lessicale) possa essere confrontata “sottraendo” l’una dall’altra e individuan-
do così le aree specifiche per un determinato compito e non per l’altro (per una ras-
segna si veda [114]). Tuttavia, occorre tenere presente che nelle situazioni cognitive
più complesse è difficile sostenere che il risultato ottenuto dalla “sottrazione” tra due
compiti isoli “il” correlato neurale di una particolare componente linguistica, dal
momento che quest’ultima è ritenuta essere presente in un compito e assente nell’al-
tro. Il quadro di riferimento appare essere spesso cognitivamente più complesso e
non riducibile in via semplicistica a differenze tra operazioni cognitive. Si pensi, ad
esempio, ai complessi contesti comunicativi o ai compiti di natura pragmatica, in cui
sono in gioco contemporaneamente più fattori. Una valida alternativa al metodo sot-
trattivo proposto in precedenza è costituita dall’applicazione dell’approccio correla-
zionale, come, ad esempio, l’analisi delle componenti principali [117]. Friston e col-
84 M. Balconi

Tabella 2.1 Raffigurazione dei principali vantaggi e limiti dei metodi di rilevazione elettrofisio-
logico ed emodinamico

Punti di forza Punti di debolezza

Elettrofisiologico Misura diretta dell’attività neurale Campioni solo parziali delle


Alta risoluzione temporale operazioni rilevate
Facilità nell’ottenere dati relativi Scarsa risoluzione spaziale
a una performance

Emodinamico Campionamento omogeneo (PET) Misura indiretta dell’attività neurale


o quasi omogeneo (fMRI) di Bassa risoluzione temporale
attivazioni relative a un compito Difficoltà nell’ottenere dati relativi
Elevata risoluzione spaziale a una performance
Difficoltà nel distinguere tra effetti
dovuti allo stato del soggetto
o allo stimolo

leghi [118, 119] al riguardo sottolineano la rilevanza dei metodi correlazionali per lo
studio di network funzionali sottostanti alle funzioni linguistiche. Tali metodi posso-
no essere utili per descrivere dati acquisiti con tecniche differenti (come PET, fMRI
e l’elettrofisiologia), utilizzando al contempo scale temporali diverse. Infine occor-
re tenere presente che i metodi sopra elencati condividono una proprietà specifica, il
cosiddetto effetto emodinamico tempo-costante: la grandezza della risposta emodi-
namica evidenziata da un cambiamento dell’attività neurale aumenta in funzione
della durata del cambiamento [120]. Da ciò consegue che una risposta emodinami-
ca di durata pari a 100 ms sarà indubbiamente più ridotta di una risposta di durata
maggiore (ad esempio, 1000 ms). Cambiamenti dell’attività neurale sostenuti sono
pertanto più facilmente individuabili di cambiamenti transitori e più brevi.
Riportiamo nella tabella i principali vantaggi e svantaggi delle differenti tecni-
che di rilevazione (Tabella 2.1).
In sintesi, è evidente che le due metodologie di analisi, elettrofisiologica ed
emodinamica, costituiscono strumenti complementari e non esaustivi di per sé. Le
informazioni a elevata risoluzione temporale (elettrofisiologiche) e spaziale (emo-
dinamiche) necessitano di un’integrazione, al fine di definire le principali caratte-
ristiche dei processi linguistici e comunicativi.

2.5 Conclusioni

L’estrema varietà di strumenti di misura e l’eterogeneità delle procedure di rileva-


zione hanno consentito di analizzare in modo sempre più approfondito le compo-
nenti anatomo-funzionali dei processi linguistici e comunicativi. In particolare,
l’integrazione delle misure di natura psicofisiologica con quelle di neuroimaging ha
posto in evidenza il contributo di molteplici strutture corticali e sottocorticali per
l’elaborazione e la comprensione dei significati. Nonostante ciascuno di questi stru-
menti non sia esime da critiche rispetto ai parametri e alle procedure di rilevazione
2. Metodi e strumenti di analisi della neuropsicologia applicata al linguaggio 85

adottate, la possibilità di monitorare livelli di analisi differenti, di volta in volta, i


correlati comportamentali e gli indici di risposta, la variazioni ERP e le rilevazioni
dell’attivazione corticale in vivo, forniscono un quadro ampio delle principali ope-
razioni e dei meccanismi sottostanti alla comunicazione umana. Da questo punto di
vista, una sempre più crescente convergenza di prospettive e di metodologie offre
l’opportunità di analizzare i costrutti del linguaggio e della comunicazione come
oggetti multicomponenziali.

Bibliografia

1. Vallar G (2006) Metodi di indagine. In: Cacciari C, Papagno C (eds) Psicologia generale e
neuroscienze cognitive. Il Mulino, Bologna
2. Banich MT (1997) Neuropsychology: The neural bases of mental function. Houghton Miffin
Company, Boston New York
3. McCarthy RA, Warrington EK (1990) Cognitive neuropsychology: A clinical introduction.
Academic Press, San Diego
4. Brown CM, Hagoort P (1999) The neurocognition of language. Oxford University Press,
Oxford New York
5. Rugg MD (1999) Functional neuroimaging in cognitive neuroscience. In: Brown CM, Hagoort
P (eds) The neurocognition of language. Oxford University Press, Oxford New York, pp. 37-79
6. Làdavas E, Berti AE (1995) Neuropsicologia. Il Mulino, Bologna
7. Hellige JB (1998) Unity of language and communication: interhemispheric interaction in the
lateralized brain. In: Stemmer B, Whitaker HA (eds) Handbook of Neurolinguistics. Academic
Press, San Diego London, pp. 405-414
8. Fodor JA (1983) The modularity of mind. The MIT Press, Cambridge Mass.
9. Shallice T (1988) From neuropsychology to mental structure. Cambridge University Press,
Cambridge
10. Marr D (1976) Early visual processing. Philos T Roy Soc B 275:483-524
11. Marraffa M, Meini C (2005) La mente sociale: Le basi cognitive della comunicazione.
Laterza, Roma-Bari
12. Gazzaniga M (1995) The cognitive neuroscience. The MIT Press, Cambridge Mass.
13. Jackendoff R (2000) Fodorian modularity and representational modularity. In: Grodzinsky Y,
Shapiro LP, Swinney D (eds) Language and the brain: Representation and processes.
Academic Press, San Diego London, pp. 3-30
14. Levelt WJM (1989) Speaking: From intention to articulation. The MIT Press, Cambridge Mass
15. Frith CD, Friston KJ (1997) Studying brain function with neuroimaging. In: Rugg MD (ed)
Cognitive neuroscience. Psychology Press, Hove, pp. 169-195
16. Mesulam MM (2000) Principles of behavioral and cognitive neurology. Oxford University
Press, New York
17. Price C, Wise RJS, Frackowiak RSJ (1996) Demonstraiting the implicit processing of visual-
ly presented words and pseudowords. Cereb Cortex 6:62-70
18. Atkinson RL, Atkinson RC, Smith E et al (1999) Hilgard’s introduction to psychology.
Harcourt Brace & Company, Orlando
19. Olson A, Caramazza A (1991) The role of cognitive theory in neuropsychological research.
In: Boller F, Grafman J (eds) The Handbook of Neuropsychology. Elsevier, Amsterdam,
pp. 287-309
20. Whitaker HA (1998) Neurolinguistics from the Middle Ages to the Pre-Modern era: histori-
cal vignettes. In: Stemmer B, Whitaker HA (eds) Handbook of Neurolinguistics. Academic
Press, San Diego London, pp. 27-54
21. Aglioti SM, Fabbro F (2006) Neuropsicologia del linguaggio. Il Mulino, Bologna
86 M. Balconi

22. Denes G, Pizzamiglio L (1996) Manuale di neuropsicologia. Zanichelli, Bologna


23. Caramazza A (1984) The logic of neuropsychological research and the problem of patient
classification in aphasia. Brain Lang 21:9-20
24. Churchland PM (1989) A neurocomputational perspective. The MIT Press, Cambridge
25. Rumelhart DE, McClelland JL (1986) Microstruttura dei processi cognitivi. Il Mulino,
Bologna
26. Westbury C (1998) Research strategies: Psychological and psycholinguistic methods in neu-
rolinguistics. In: Stemmer B, Whitaker HA (eds) Handbook of Neurolinguistics. Academic
Press, San Diego London, pp. 83-93
27. Vallar G (1999) I metodi di indagine nell’uomo. In: Umiltà C (ed) Manuale di neuroscienze.
Il Mulino, Bologna, pp. 461-512
28. Caplan D (1992) Language: Structure, processing and disorders. The MIT Press, Cambridge
MassLanguage and Cognitive Processes
29. Viggiano MP (2004) Valutazione cognitiva e neuropsicologica nel bambino, nell’adulto e
nell’anziano. Carocci, Roma
30. Commodari E (2002) Disturbi del linguaggio: I deficit della comunicazione orale: strumenti
di valutazione e riabilitazione. Città Aperta, Enna
31. Lezak MD (1995) Neuropsychological assessment, Oxford University Press, New York
32. Spinnler H, Tognoni G (1987) Standardizzazione e taratura italiana di test neuropsicologici.
Ital J Neurol Sci 6:suppl.
33. Caramazza A, Hillis A (1989) The disruption of sentence production: some dissociations.
Brain Lang 36:625-650
34. Carlomagno S, Labruna L, Blasi V (1998) La valutazione pragmatico-funzionale dei
disturbi del linguaggio nel cerebroleso adulto. In: Carlomagno S, Caltagirone C (eds) La
valutazione del deficit neurologico e comportamentale nella pratica neurologica. Global
Services, London
35. Prutting C, Kirchner D (1987) A clinical appraisal of the pragmatics aspects of language. J
Speech Hear Disord 52:105-119
36. Penn C (1988) The profiling of sintax and pragmatics in aphasia. Clin Linguist Phonet 2:179-
207
37. Porch BE (1971) Porch Index of Communicative Ability. Vol 1. Theory and development.
Consulting Psychology Press, Palo Alto
38. Porch BE (1981) Porch Index of Communicative Ability. Vol. 2. Administration, scoring and
interpretation (3rd ed). Consulting Psychology Press, Palo Alto
39. Holland A (1980) Communicative abilities in daily living. University Park Press, Baltimora
40. Brookshire RH, Nicholas LE (1993) Discourse comprehension test. Communication Skill
Builders, Tucson
41. Hillis AE, Caramazza A (1991) Category specific naming and the comprehension impaire-
ment: a double dissiociation. Brain 110:613-629
42. Perani D, Paulesu E, Galles NS et al (1998) The bilingual brain. Proficiency and age of acqui-
sition of the second language. Brain 121:1841-52
43. Gernsbacher M (1994) Handbook of psycholinguistics. Academic Press, San Diego
44. Gropen J, Pinker S, Hollander M et al (1991) Syntax and semantic in the acquisition of loca-
tive verbs. J Child Lang 18:115-151
45. Ekman P (1992) An argument for basic emotion. Cognition Emotion 6:169-200
46. Münte T, Heinze H (1994) Brain potentials reveal deficits of language processing after clo-
sed head injury. Arch Neurol-Chicago 51:482-493
47. Newport EL (1990) Maturational constraints on language learning. Cognitive Sci 14:11-28
48. Obler L, Fein D, Nicholas M et al (1991) Auditory comprehension and aging: Decline in syn-
tactic processing. Appl Psycholinguis 12:433-452
49. Davidson R, Leslie S, Saron C (1990) Reaction time measures of interhemispheric transfer
time in reading disabled and normal children. Neuropsychology 28, 471-485
50. Arguin M, Bub D, Dudek G (1996) Shape integration for visual object recognition and its
implication in category-specific visual agnosia. Vis Cogn 3:221-275
2. Metodi e strumenti di analisi della neuropsicologia applicata al linguaggio 87

51. Chertkow H, Bub D, Bergman H et al (1994) Increased semantic priming in patients with
dementia of the Alzheimer type. J Clin Exp Neuropsyc 16:608-622
52. Revonsuo A (1995) Words interact with colors in a globally aphasic patient: Evidence from
a Stroop-like task. Cortex 32:377-386
53. Just M, Carpenter P (1993) The intensity dimension of thought: Pupillometric indices of sen-
tence processing. Can J Exp Psychol 47:310-339
54. Liversedge SP, Findlay JM (2000) Saccadic eye movements and cognition. Trends Cogn Sci
4:7-14
55. Rayner K (1998) Eye movements in reading and information processing: 20 years of rese-
arch. Psychol Bull 124:372-422
56. Tecce JJ (1992) Psychology, physiology and experimental psychology. In: Ed. McGraw-Hill
yearbook of science and technology, McGraw-Hill, New York, pp. 375-377
57. Andreassi JL (2000) Psychophysiology: Human Behavior and Physiological Response,
Erlbaum, Mahwah
58. Öhman A, Hamm A, Hugdahl K (2000) Cognition and the autonomic nervous system:
Orienting, anticipation and conditioning. In: Cacioppo JT, Tassinary LG, Berntson GG
(eds) Handbook of psychophysiology. Cambrige University Press, New York, pp. 522-
575
59. Haagh SS, Brunia CH (1984) Cardiac-somatic coupling during the foreperiod in a simple
reaction-time task. Psychol Res 46:3-13
60. McGuigan FJ (1973) Electrical Measurement of covert processes as an explication of “higher
mental events”. In: McGuigan FJ, Schoonover RA (eds) The psychophysiology of thinking.
Academic Press, New York, pp. 343-385
61. McGuigan FJ (1981) Review of Andreassi’s “Psychophysiology: Human behavior and phy-
siological response”. Am J Psychol 94:359-362
62. Ekman P (1984) Expression and the nature of emotion. In: Scherer KR, Ekman P (eds)
Approaches to emotion. Erlbaum, Hillsdale, pp. 176-198
63. Dimberg U (1990) Facial electromiography and emotional reactions. Psychophysiology
27:481-494
64. Dimberg U (1982) Facial reactions to facial expressions. Psychophysiology 19:643-647
65. Sirota AD, Schwartz GE (1982) Facial muscle patterning and lateralization during elation
and depressed imagery. J Abnorm Psychol 91:25-34
66. Stern JA, Dunham DN (1990) The ocular system. In: Cacioppo JT, Tassinary LG (eds)
Principles of psychophysiology. Cambridge University Press, Cambridge, pp. 193-215
67. Hess EH (1972) Pupillometrics. In: Greenfield NS, Sternbach RA (eds) Handbook of psycho-
physiology. Holt, Rinehart & Wintson, New York, pp. 491-531
68. Granholm E, Asarnow RF, Sarkin AJ, Dykes KL (1996) Pupillary responses index cognitive
resource limitations. Psychophysiology 33:457-461
69. Beatty J (1982) Task-evoked pupillary responses, processing load, and the structures of pro-
cessing resources. Psychol Bull 91:276-292
70. Cacioppo JT, Tassinary LG, Berntson GG (2000) Handbook of psychophysiology. Cambridge
University Press, New York
71. Balconi M (2006) Neuropsychology and cognition of emotional face comprehension. Research
Sign Post, Kerala
72. Moser JS, Haycak J, Bukay E et al (2006) Intentional modulation of emotional responding to
unpleasant pictures: An ERP study. Psychophysiology 43:292
73. Tranel D, Damasio AR (1988) Non-conscious face recognition in patients with face agnosia.
Behav Face Res 30:235-249
74. Ekman P, Levenson RW, Friesen WV (1984) Autonomic nervous system activity distingui-
shes among emotions. Science 22:1208-1210
75. Weisz J, Szilagyi N, Lang E et al (1992) The influence of monocular viewing on heart period
variability. Int J Psychophysiol 12:11-18
76. Lawler KA (1998) Individual differences and cardiovascular responsivity. Int J
Psychophysiol 28:113-116
88 M. Balconi

77. Shaw JC (1996) Intention as a component of the alpha rhythm response to mental activity.
Int J Psychophysiol 24:7-24
78. Sperry RW (1982) Some effects of diconnetting the cerebral hemispheres. Science 217:1223-
1226
79. Handy TC (2005) Event-related potentials: A methods handbook. The MIT Press, Cambridge
80. Jaspers HH (1958) The ten-twenty electrode system of the International Federation. Electroen
Clin Neuro 10:371-375
81. Polich J (1993) Cognitive brain potentials. Curr Dir Psychol Sci 2:175-179
82. Zani A, Mado Proverbio A (2000) Elettrofisiologia della mente. Carocci, Roma
83. Rugg MD, Coles MGH (1995) Electrophysiology of mind. Oxford University Press; Oxford
84. De Vincenzi M, Di Matteo R (2004) Come il cervello comprende il linguaggio. Laterza, Roma Bari
85. Hillis AE, Caramazza A (1995) Representation of gramartical categories of words in the
brain. J Cognitive Neurosci 7:396-407
86. Segalowitz SJ, Chevalier H (1998) Event-related potential (ERP) research in neurolingui-
stics: Part II: Language processing and acquisition. In: Stemmer B, Whitaker HA (eds)
Handbook of Neurolinguistics. Academic Press, San Diego London, pp. 111-123
87. Kutas M, Hillyard SA (1983) Event-related brain potentials to grammatical errors and seman-
tica anomalies. Memory Cognition 11:539-550
88. Olivares E, Bobes MA, Aubert E et al (1994) Associative effects with memories of artificial
faces. Cogn Brain Res 2:39-48
89. Balconi M, Pozzoli U (2003) ERPs (event-related potentials), semantic attribution, and facial
expressions of emotions. Consciousness and Emotion 4:63-80
90. Kutas M, Van Petten CK (1994) Psycholinguistics electrified: Event-related potential inve-
stigations. In: Gernsbacher MA (ed) Handbook of psycholinguistics. Academic Press, San
Diego, pp. 83-143
91. Kluender R, Kutas M (1993) Bridging the gap: Evidence from ERPs on the processing of
unbounded dependencies. J Cognitive Neurosci 5:196-214
92. Gunter T, Jackson J, Mulder G (1995) Language, memory and aging: An electrophysiological
exploration of the N400 during the reading of memory-demanding sentences. Psychophysiology
32:215-229
93. Coulson S, Van Petten C (2002) Conceptual integration and metaphor: an event-related
potential study. Mem Cognition 30:958-68
94. Tartter VC, Gomes H, Dubrovsky B et al (2002) Novel metaphors appear anomalous at least
momentarily: evidence from N400. Brain Lang 80:488-509
95. Balconi M (2003) Conscious and unconscious in emotional face processing. JINS 2:304-305
96. Balconi M, Carrera A (2006) Cross-modal perception of emotional face and voice. A neurop-
sychological approach. Paper presented at the “2th Meeting of the European Societies of
Neuropsychology” (18-20 October), Toulouse, France
97. Osterhout L, Holcomb PJ (1990) Syntactic anomalies elicit brain potentials during sentence
comprehension. Psychophysiology 27:suppl 5
98. Neville H, Nicol J, Barss A et al (1991) Syntactically based sentence processing classes:
Evidence from event-related brain potentials. J Cogn Neurosci 3:152-165
99. Münte TF, Heinze H-J, Mangun GR (1993) Dissociation of brain activity related to syntac-
tic and semantic aspects of language. J Cogn Neurosci 5:335-344
100. Coulson S, King JW, Kutas M (1998) Expect the unexpected: event-related brain response to
morphosyntactic violations. Lang Cognitive Proc 13:21-58
101. Picton T, Lins O, Sherg M (1995) The recording and analysis of event-related potentials.
In: Boller F, Grafman J (eds) Handbook of neuropsychology. Elsevier, Amsterdam, vol 10,
pp. 3-73
102. Dien J, Frishkoff GA (2006) Principal components analysis of ERP data. In: Handy TC (ed)
Event-related potentials: A methods handbook. The MIT Press, Cambridge, pp. 189-207
103. Papanicolaou AC, Panagiotis GS, Basile LFH (1998) Applications of magnetoencephalography
to neurolinguistic research. In: Stemmer B, Whitaker HA (eds) Handbook of Neurolinguistics.
Academic Press, San Diego London, pp. 143-158
2. Metodi e strumenti di analisi della neuropsicologia applicata al linguaggio 89

104. Basile LFH, Rogers RL, Bourbon WT et al (1994) Slow magnetic fields. In: Coulson S, King
JW, Kutas M (1998) Expect the unexpected: event-related brain response to morphosyntac-
tic violations. Lang Cognitive Proc 13:21-58
105. Salmelin R, Hari R, Lounasmaa OV et al (1994) Dynamics of brain activation during pictu-
re naming. Nature 368:463-465
106. Hari R, Hämäläinen M, Kaukoranta E et al (1989) Selective listening modifies activity in the
human auditory cortex. Exp Brain Res 74:463-470
107. Simos PJ, Basile LFH, Papanicolaou AC (1997) Source localization of the N400 response in
a sentence-reading paradigm using evoked magnetic fields and magnetic resonance imaging.
Brain Res 762:29-39
108. Pascual-Leone A, Grafman J, Clark K et al (1991) Procedural learining in Parkinson’s disease
and cerebellar degeneration. Ann Neurol 34:594-602
109. Stewart L, Walsh V, Frith U et al (2001) Transcranial magnetic stimulation produces speech
arrest but not song arrest. Ann NY Acad Sci 930:433-435
110. Cappa SF, Sandrini M, Rossini PM et al (2002) The role of the left frontal lobe in action
naming: rTMS evidence. Neurology 59:720-723
111. Vallar G (1990) I fondamenti metodologici della neuropsicologia. In: Denes G, Pizzamiglio
L (eds), Manuale di neuropsicologia, Zanichelli, Bologna, pp. 136-159
112. Zaidel E (1998) Language in the right emisphere following callosal disconnection. In:
Stemmer B, Whitaker HA (eds) Handbook of Neurolinguistics. Academic Press, San Diego
London, pp. 369-383
113. Castiello U (1995) Tecniche sperimentali di ricerca in psicologia. Piccin Démonet, Padova
114. Démonet JF (1998) Tomographic brain imaging of language functions: prospects for a new
brain/language model. In: Stemmer B, Whitaker HA (eds) Handbook of Neurolinguistics.
Academic Press, San Diego London, pp. 132-143
115. Démonet JF, Thierry G, Cardebat D (2005) Renewal of the neurophysiology of language:
Functional neuroimaging. Physiol Rev 85:49-95
116. Petersen SE, Fox PT, Posner MI et al (1989) Positron emission tomographic studies of the
processing of single words. J Cognitive Neurosci 1:153-170
117. Frith CD, Friston KJ, Liddle PF et al (1991) A PET study of word finding. Neuropsychology
29:1137-1148
118. Friston KJ, Frith CD, Liddle PF et al (1993) Functional connectivity: The principal-compo-
nent analysis of large (PET) data sets. J Cerebr Blood F Met 13:5-14
119. Friston KJ (1997) Imaging cognitive anatomy. Trends Cogn Sci 1:21-27
120. Rosen BR, Buckner RL, Dale AM (1998) Event-related fMRI: Past, present and future. P
Natl Acad Sci 95:773-780
Capitolo 3

Elettrofisiologia del linguaggio.


Meccanismi di comprensione del linguaggio
attraverso i potenziali elettromagnetici
correlati a eventi
Alice Mado Proverbio

3.1 Modelli di comprensione e produzione del linguaggio

In questo capitolo descriveremo i processi che sottostanno alla comprensione del


linguaggio, sia nella modalità visiva della lettura sia nella modalità acustica del-
l’ascolto, soffermandoci sui principali stadi di analisi dell’informazione linguistica,
dai più sensoriali a quelli più simbolici.
Data la specificità della tecnica di misurazione utilizzata, non tratteremo la
natura dei meccanismi di produzione linguistica. Questi, nell’eloquio spontaneo,
per esempio, si basano sulla capacità di formulare un pensiero, accedendo alla rap-
presentazione dei concetti, e di strutturarlo in modo corretto dal punto di vista les-
sicale (del significato) e sintattico (del sequenziamento), di accedere alla forma
fonologica e fonemica delle varie parti del discorso (parole, verbi, parole-funzio-
ne), di preprogrammare i movimenti muscolari e articolari responsabili della fona-
zione e di implementare tali comandi eseguendo in modo fluente e con la giusta
prosodia l’emissione di fonemi linguistici appropriati.
I dati neurologici su pazienti con lesioni focali unilaterali in diverse regioni cor-
ticali, secondo il modello di Wernicke-Lichteim-Geschwind [1], indicano la regio-
ne deputata alla produzione del linguaggio fluente e all’articolazione fonemica nel
piede della terza circonvoluzione frontale di sinistra (il cui danno produce un’afa-
sia di Broca); la regione deputata alla comprensione del linguaggio e alla rappre-
sentazione della forma uditiva delle parole nella corteccia temporale (il cui danno
produce un’afasia di Wernicke); la regione che contiene la rappresentazione dei
concetti (necessaria all’eloquio spontaneo e alla comprensione delle parole, ma non
alla ripetizione passiva di materiale udito) nella corteccia parietale, giro angolare e
sopramarginale; la connessione tra l’area di Broca e quella di Wernicke nel fasci-
colo arcuato (la cui interruzione produce un’afasia di conduzione, con incapacità di
ripetere materiale udito).
I meccanismi di comprensione della parola scritta sono stati oggetto di largo
interesse da parte degli studiosi. Negli studi cognitivi sul linguaggio vengono spes-
so utilizzati paradigmi di presentazione di stimoli linguistici visivi, che includono:

M. Balconi (ed.), Neuropsicologia della comunicazione. © Springer 2008


92 A. Mado Proverbio

– le parole, che possono variare secondo il loro grado di frequenza d’uso, di con-
cretezza/astrattezza e di valore di immagine, ad esempio: ARANCIA;
– le pseudoparole, che sono stringhe di lettere senza senso assemblate rispettan-
do le regole ortografiche (dette legali), ad esempio: MORLEDIO;
– le stringhe illegali, che sono stringhe di lettere assemblate senza rispettare le
regole di concatenazione (illegali), ad esempio: PQERLZFTQ;
– i falsi caratteri, che sono stringhe di simboli non linguistici ma che possono o
meno assomigliare a delle lettere, ad esempio:  .

Secondo il cosiddetto modello a due vie della lettura di Coltheart [2] l’elabora-
zione di uno stimolo visivo linguistico può essere effettuata mediante l’attivazione
di una via “lessicale”, fondata sul riconoscimento globale e immediato degli stimo-
li familiari, e di una via “fonologica”, fondata sulla conversione di grafemi in fone-
mi. Si ipotizza che le parole ad alta frequenza d’uso vengano riconosciute diretta-
mente come unità visive globali, mentre le pseudoparole e le parole a bassa fre-
quenza verrebbero elaborate attraverso la via fonologica. L’evidenza dell’esistenza
di queste due vie di lettura è supportata dall’esistenza di pazienti con compromis-
sioni specifiche di una sola di esse.
Il modello di lettura di Coltheart è poi stato modificato per includere una terza
via, detta diretta (non semantica), che è stata inserita per poter spiegare il processo
di lettura nei pazienti con iperlessia, i quali mostrano una lettura accurata di paro-
le in assenza di comprensione.
Secondo il modello standard il primo stadio d’analisi nella lettura è costituito
dall’elaborazione sensoriale visiva della stringa di lettere e delle sue caratteristiche
fisiche (luminanza, grandezza, colore, forma, orientamento), seguita dall’eventua-
le riconoscimento delle singole lettere. Da questo livello d’elaborazione partono tre
vie in parallelo: la via visiva, la via fonologica e la via diretta. Nella via lessicale il
riconoscimento visivo dello stimolo avviene attraverso l’accesso al lessico ortogra-
fico d’ingresso. Da lì è possibile accedere al sistema semantico che contiene i signi-
ficati delle parole. Il primo stadio della via fonologica permette l’accesso alla forma
fonologica di uno stimolo (stringhe, non parole, oppure parole a bassa frequenza)
secondo le regole di trasformazione grafema/fonema della lingua in uso.
I principali disturbi di lettura osservati dai neuropsicologi sono stati interpreta-
ti come specifiche compromissioni delle varie vie della lettura postulate dal model-
lo standard. In particolare, la dislessia superficiale descritta da Marshall e
Newcombe [3], più facilmente riscontrabile nelle lingue non trasparenti come l’in-
glese piuttosto che nell’italiano, è caratterizzata da errori di regolarizzazione di
parole irregolari (consistenti in italiano nell’assegnazione incorretta dell’accento) e
dal fallimento nel test dell’omofonia silente: per esempio non si distingue tra paro-
le la cui forma visiva è diversa ma la cui forma fonologica è simile (in italiano si
ha difficoltà a distinguere item come “l’ago” e “lago”). I dislessici superficiali si
comportano come se fossero incapaci di riconoscere la parola a prima vista e leg-
gessero applicando a ogni parola le regole di conversione grafema/fonema. Questo
quadro clinico si può spiegare attraverso la compromissione della via lessicale. A
causa di quest’interruzione il paziente legge sia le parole sia le non parole attraver-
so la via fonologica, applicando le regole di trasformazione grafema/fonema.
3. Elettrofisiologia del linguaggio. Meccanismi di comprensione del linguaggio 93

Questo tipo di dislessia, se acquisito in seguito a lesione o trauma, è spesso asso-


ciato a una lesione temporale sinistra.
Viceversa, la dislessia fonologica, descritta per esempio da Temple e Marshall [4],
consiste sostanzialmente nell’incapacità di leggere le non-parole, le parole sconosciu-
te e le parole funzione (e, se, per), mentre viene conservata la capacità di leggere le
parole che fanno parte del vocabolario usuale del paziente. Questo quadro si può spie-
gare ipotizzando una compromissione della via fonologica. Di conseguenza il pazien-
te riesce a riconoscere le parole familiari attraverso la via lessicale ma non è più in
grado di applicare le regole di trasformazione grafema/fonema per item non ricono-
sciuti visivamente. Spesso i pazienti affetti da dislessia fonologica hanno lesioni
parieto-occipitali sinistre includenti il giro angolare, il quale è anche coinvolto, come
vedremo nel paragrafo 3.5, nel mapping grafema/fonema.

3.2 Elettrofisiologia del linguaggio

La Figura 3.1 mostra il decorso temporale dell’informazione linguistica secondo le


attuali conoscenze derivanti dall’applicazione della tecnica di registrazione dell’at-
tività cerebrale evocata elettromagnetica (ERP e MEG, magnetoencefalogramma ).
In particolare, i potenziali correlati a eventi (ERP, dall’inglese: Event-Related
Potentials) rappresentano uno strumento estremamente utile di studio e analisi dei
diversi stadi d’elaborazione delle informazioni, poiché uniscono la tradizionale non-
invasività della tecnica di registrazione elettroencefalografica (i segnali ERP deriva-
no dalla somma d’epoche EEG sincronizzate con l’evento o lo stimolo d’interesse,
ad esempio, parole, immagini ecc.) a un’ottima risoluzione temporale (inferiore al
ms). La risoluzione spaziale degli ERP è abbastanza buona, soprattutto in combina-
zione con tecniche di localizzazione del generatore intracorticale (come la LORE-
TA, Low Resolution Electro-Magnetic Tomography, la modellizzazione dei dipoli –
dipole modelling –, MUSIC, la combinazione con dati fMRI, Fig. 3.1).
Rimandando ad altre sedi una trattazione più dettagliata delle origini e della natu-
ra del segnale elettromagnetico [5, 6], ricordiamo che gli ERP si ottengono per media-
zione (procedimento di averaging) di centinaia di segmenti EEG allo scopo di ampli-
ficare il minuscolo segnale evocato, nascosto tra le oscillazioni spontanee di grande
voltaggio, relativo alla specifica elaborazione cerebrale in risposta al dato evento. La
latenza temporale d’insorgenza di una data deflessione, o picco (variazione di voltag-
gio positiva o negativa), nella forma d’onda del potenziale evocato sarebbe, quindi,
indice della comparsa di un’attività elaborativa cerebrale associata all’evento. Per
esempio, la comparsa a circa 70-80 ms di una variazione di potenziale sulla corteccia
visiva primaria indica l’arrivo di un segnale visivo in corteccia e la corrispondente
attivazione della popolazione neurale implicata nell’elaborazione delle varie proprie-
tà sensoriali dello stimolo (BA 17). Allo stesso modo, la comparsa di un’ampia
deflessione negativa intorno ai 400 ms in risposta a stimoli semanticamente incom-
prensibili, indica il verificarsi di processi di analisi del significato delle parole.
La tecnica degli ERP si presta molto bene all’analisi dei meccanismi di com-
prensione del linguaggio parlato e della lettura silente, mentre i meccanismi di pro-
94 A. Mado Proverbio

Fig. 3.1 Decorso temporale di attivazione cerebrale durante l’elaborazione di materiale linguisti-
co, come indicato dalla latenza di insorgenza della varie componenti ERP. Intorno ai primi 100 ms
post-stimolo avviene l’analisi sensoriale pre-linguistica dello stimolo (componente P1); tra i 150
e i 200 ms si verifica l’analisi ortografica di parole scritte (componente N1 posteriore; componen-
te N170 per aspetti strutturali) tra i 200 e i 300 ms si svolge l’analisi fonologico/fonetica, come
evidenziato dalla negatività da mismatch fonologica (pMMN temporale e anteriore) in risposta a
incongruenze fonologiche sia visive sia uditive; intorno ai 400 ms si osserva un’ampia negatività
centroparietale destra (N400) da incongruenza semantica, testimoniante lo svolgersi di processi di
analisi lessicale; la comprensione di frasi di senso compiuto raggiunge la coscienza tra i 300 e i
500 ms (componente P300); infine, l’analisi sintattica di secondo grado è indicata dalla compar-
sa di una componente positiva tardiva (P600) intorno ai 600 ms di latenza post-stimolo

duzione verbale sono difficilmente studiabili tramite registrazione EEG, giacché


ogni movimento muscolare (come quelli impiegati nella fonazione e nell’eloquio)
produce un segnale elettromiografico di notevole ampiezza, in grado di maschera-
re qualunque variazione di voltaggio cerebrale sincronizzata. I segnali bioelettrici
cerebrali di superficie derivano, invece, da potenziali post-sinaptici extracellulari
eccitatori e inibitori di popolazioni neurali che, oltre a essere attive in modo sincro-
no, hanno dendriti apicali orientati perpendicolarmente alla superficie di registra-
zione (per l’EEG) o parallelamente a essa (per la MEG). L’ottima risoluzione spa-
ziale della MEG, riflettente le variazioni dei campi magnetici indotte dai dipoli
bioelettrici, e ortogonali a essi, deriva dal fatto che i segnali magnetici non vengo-
no distorti al passaggio dei vari tessuti, materia grigia e bianca, liquidi, membrane,
meningi e ossa craniche, mantenendo quindi una chiara corrispondenza tra genera-
tore intracorticale e distribuzione di superficie (Fig. 3.2).
3. Elettrofisiologia del linguaggio. Meccanismi di comprensione del linguaggio 95

Fig. 3.2 Corrispondenza tra picco delle risposte magnetiche correlate a eventi e localizzazione del
generatore intracorticale. A sinistra, si osserva una risposta sensoriale visiva aspecifica intorno ai
100 ms di latenza post-stimolo che interessa la corteccia occipitale. Al centro, l’insorgenza di un
picco negativo intorno ai 170 ms indica la probabile attivazione del giro fusiforme sinistro depu-
tato all’analisi ortografica. A destra, compare un’ampia risposta negativa riflettente il mancato
riconoscimento semantico di non-parole rispetto a parole esistenti (intorno ai 400 ms), da parte
della corteccia parieto/temporale. Da [7], con autorizzazione

L’utilizzo degli ERP nello studio dei meccanismi di comprensione del linguaggio
è stato applicato per la prima volta verso la fine degli anni Settanta dai californiani
Steve Hillyard e Marta Kutas, famosi elettrofisiologi, e co-fondatori insieme ad altri
cognitivisti, psicologi, neurologi, ingegneri, fisici, linguisti, filosofi della scienza e
neuroscienziati (come Emmanuel Donchin, Terence Picton, Michael Posner, Michael
Gazzaniga, Leslie Ungerleider, Antonio Damasio, Steve Petersen, Marcus Raichle o
Robert Rafal) della disciplina ora nota come “Neuroscienza Cognitiva”. Nel 1968
Sutton aveva scoperto che il cervello emetteva un’ampia risposta positiva a stimoli,
per il resto identici ad altri, cui il soggetto in quel momento prestava particolarmente
attenzione. Questo significava che sarebbe stato possibile studiare i processi mentali
osservando la loro manifestazione neurofisiologica.
Per studiare il linguaggio, Marta Kutas sviluppò due diversi paradigmi speri-
mentali. Il primo, detto della presentazione seriale visiva rapida (RSVP, Rapid
Series Visual Presentation) consisteva nella presentazione consecutiva di parole
singole al centro dello schermo [8] per simulare un processo di lettura spontaneo di
una frase e poter monitorare l’andamento dei processi di comprensione semantica
96 A. Mado Proverbio

e sintattica nel tempo, evitando i movimenti oculari orizzontali che normalmente


accompagnano la lettura del testo. Infatti, qualunque paradigma di registrazione
degli ERP prevede l’assoluta immobilità dello sguardo, allo scopo di evitare la con-
taminazione dell’EEG a opera del segnale elettromiografico.
Un altro paradigma molto utilizzato è quello detto della parola terminale [9] che
prevede la presentazione di un contesto semantico o sintattico di varia complessità
o natura, seguito da una certa parola terminale, su cui viene sincronizzato il poten-
ziale evocato, e che può essere più o meno congruente con il contesto o rispettoso
delle varie regole di concatenazione del linguaggio in una data lingua. Un esempio
di questo paradigma è dato dalle frasi riportate nella Figura 3.1. Nei paragrafi
seguenti illustreremo in maggior dettaglio i vari stadi d’analisi dell’informazione
linguistica, da quella ortografica fino all’analisi sintattica, e osserveremo anche
componenti più complesse non illustrate nella Figura 3.1 come la ELAN, la LAN,
o la variazione sintattica positiva (SPS, Syntactic Positive Shift).

3.3 Analisi ortografica

Una questione molto dibattuta nella recente letteratura di neuroimmagine [10-13]


riguarda l’esistenza di un area cerebrale specializzata nell’analisi visiva di stimo-
li ortografici e parole, chiamata la regione per la forma visiva della parole (VWFA,
Visual Word Form Area), che sarebbe localizzata nella corteccia inferotemporale
di sinistra e più precisamente nel giro fusiforme (Fig. 3.3). Studi neurofunzionali
hanno mostrato come questa regione risponda con un’attivazione maggiore a sti-
moli linguistici (stringhe alfabetiche) piuttosto che a stimoli non linguistici (come
scacchiere, e a caratteri reali piuttosto che a falsi caratteri o a stringhe di simboli
o di icone [10, 12, 14-18]).
Sembra inoltre che la VWFA mostri una qualche sensibilità sublessicale alle
regolarità ortografiche con cui le lettere formano le parole. Infatti, dati fMRI [14]
hanno mostrato come questa regione sia più attiva in risposta a stringhe di lettere
ben strutturate (pseudoparole legali) piuttosto che a stringhe di lettere mal struttu-
rate (cioè stringhe illegali). Inoltre, sembra che la VWFA distingua le stringhe lega-
li significative (parole) dalle pseudoparole legali [11, 19].
Si può ipotizzare che livelli funzionalmente diversi di analisi possano essere
presenti in quest’area: ci potrebbe essere un primo livello di analisi in cui alcu-
ne micropopolazioni di neuroni riconoscono lettere dell’alfabeto, discriminan-
dole da codici simbolici sconosciuti (gli oggetti familiari sarebbero, in questo
caso, le lettere); quindi, un livello più complesso in cui i neuroni della VWFA,
con campi recettivi più ampi dei precedenti, discriminano le pseudoparole dalle
parole (gli oggetti familiari sarebbero in questo caso stringhe di lettere superap-
prese, e cioè parole).
Gli ERP rappresentano uno strumento estremamente prezioso allo studio dei
meccanismi di lettura, in quanto forniscono diverse indicazioni di ciò che si verifi-
ca nel cervello, millisecondo per millisecondo, a partire dall’onset dello stimolo:
dall’analisi delle caratteristiche visive sensoriali (linee curve o rette, angoli, cerchi),
3. Elettrofisiologia del linguaggio. Meccanismi di comprensione del linguaggio 97

Fig. 3.3 La visione passiva di parole (rispetto a stimoli non linguistici) attiva la corteccia occipi-
to/temporale di sinistra

all’analisi ortografica (riconoscimento delle lettere), fino all’analisi di configura-


zioni complesse (parole), della loro veste ortografica (ad esempio, lingua tedesca,
inglese o finlandese) e del loro significato.
Numerosi studi ERP e MEG hanno fornito chiare evidenze che la risposta ERP
N1 occipito/temporale (con una latenza intorno ai 150-200 ms) è specificamente
indice di processi di analisi ortografica degli stimoli [16, 20-25]. Per esempio,
Helenius e collaboratori [21] hanno registrato segnali magnetoencefalografici
(MEG) da individui adulti dislessici e di controllo mentre leggevano silenziosa-
mente parole o vedevano stringhe di simboli chiaramente visibili degradati con un
rumore gaussiano. I risultati mostrarono che mentre la prima risposta sensoriale (a
una latenza di 100 ms), originante nella corteccia extrastriata, era associata a varia-
zioni nel contrasto di luminanza e non mostrava di differire nei dislessici rispetto
agli adulti senza disordini di lettura, la prima componente sensibile a fattori orto-
grafici (N150), generata nella corteccia occipitotemporale inferiore di sinistra, e
quindi probabilmente nella cosiddetta VWFA (Fig. 3.4), non era rilevabile negli
individui dislessici.
Similmente, studi fMRI e MEG su persone adulte con dislessia evolutiva [25] o
bambini con deficit di lettura [26] hanno mostrato un’inadeguata o atipica/insuffi-
ciente attivazione di regioni posteriori sinistre durante la lettura.
In un recente studio [27] abbiamo messo a confronto gli ERP evocati da parole e
pseudoparole presentate nel loro orientamento normale con quelli elicitati da altre
parole e pseudoparole ruotate specularmente. Lo scopo era quello di appurare se l’in-
versione delle parole le privasse delle loro proprietà linguistiche. L’EEG è stato regi-
strato da 128 canali e sono stati presentati poco meno di 1300 stimoli, metà dei quali
erano parole, mentre i rimanenti pseudoparole. Il compito consisteva nel rilevare una
determinata lettera (che poteva essere inclusa o meno negli stimoli), che veniva
annunciata di volta in volta dallo sperimentatore. Sono stati messi a confronto gli
ERP elicitati da stimoli target e non-target, allo scopo di individuare l’esatto momen-
98 A. Mado Proverbio

Fig. 3.4 mN170 (elettromagnetica) in risposta a stringhe di lettere, lettere degradate e simboli
geometrici in individui adulti non-dislessici. Le mappe mostrano la localizzazione anatomica e la
forte asimmetria emisferica nell’attivazione della VWFA. Da [21], con autorizzazione

to temporale in cui vengono elaborate e riconosciute le lettere dell’alfabeto. La com-


ponente ERP interessata da questo processo si è rivelata essere la N70 occipitale late-
rale, di ampiezza maggiore per i target che per i non-target. Un’analisi LORETA (Low
Resolution Electromagnetic Tomography, tecnica che individua la sorgente anatomi-
ca del segnale bioelettrico) effettuata sull’onda ERP differenza, ottenuta sottraendo
dalla N1 alle lettere target quella registrata ai non-target, ha mostrato un forte focus
di attivazione nel giro fusiforme sinistro (BA 37; x = -29,5, y = -43, z = -14,3) sito
probabilmente corrispondente alla VWFA. Il confronto tra ERP elicitati da stimoli
ruotati vs. normali ha, invece, prodotto un effetto probabilmente non-linguistico
(sempre a livello della N1 occipito/temporale). La LORETA effettuata sull’onda dif-
ferenza, ottenuta sottraendo la N1 agli stimoli standard da quella agli stimoli ruotati,
ha individuato un focus d’attivazione per l’effetto di rotazione delle parole nel giro
occipitale mediale destro (BA 19; x = 37,7, y = -68,1; z = -4,6). Questo risultato mette
in evidenza l’attivazione di una regione visiva non linguistica per l’elaborazione di
stringhe più o meno familiari, e della VWFA solo per l’effettiva analisi ortografica
(riconoscimento di lettere). Esso mette quindi in guardia contro l’uso troppo disinvol-
to del paradigma di inversione di oggetti nelle neuroimmagini (usato per le facce, le
case, gli oggetti) allo scopo di investigare l’esistenza di regioni rispondenti a specifi-
che categorie semantiche o funzionali.

3.4 Analisi fonologico/fonetica

È ampiamente riconosciuto che il secondo stadio di analisi nel meccanismo di lettu-


ra è rappresentato dalla conversione della forma visiva in quella fonologica, detta
anche conversione grafema/fonema. Un recente studio fMRI correlato a eventi [28]
ha investigato tale meccanismo nella lettura di parole, trovando una maggiore atti-
vazione del giro frontale inferiore sinistro per la lettura di pseudoparole e una mag-
giore attivazione bilaterale delle aree occipito/temporali e del giro temporale media-
3. Elettrofisiologia del linguaggio. Meccanismi di comprensione del linguaggio 99

le posteriore sinistro (MTG) durante la lettura di parole e stringhe di lettere a circa


170-230 ms di latenza. Altri studi concordano sul ruolo della corteccia frontale
inferiore di sinistra nella lettura delle pseudoparole [29]. Questa regione potrebbe
far parte della cosiddetta via fonologica (phonologic route) che si occuperebbe di
assemblare segmenti fonologici (assembled phonology) durante la lettura. Lo stu-
dio magnetico di Simos e colleghi [30] ha confermato l’esistenza di due diversi
meccanismi coinvolti nell’elaborazione fonologica e nel riconoscimento visivo
delle parole. Un meccanismo supportante la fonologia assemblata per la lettura di
stringhe legali ma inesistenti, e dipendente dall’attivazione della parte superiore del
giro temporale superiore (STG), e un meccanismo supportante la fonologia indiriz-
zata alla lettura di parole reali, dipendente dal giro temporale mediale posteriore
sinistro (MTGp). Questi recenti studi di neuroimmagine sono coerenti con le pre-
dizioni del cosiddetto modello computazionale di lettura a due vie (per una rasse-
gna si veda [2]), il quale assume una routine che indirizza la pronuncia delle paro-
le conosciute dal lettore (la cosiddetta via lessicale-semantica), e un’altra routine
responsabile dell’assemblaggio della pronuncia di stringhe inesistenti, basata su
una corrispondenza grafema/fonema (spelling-suono), la cosiddetta via fonologica.
Nonostante si conoscano le basi neuroanatomiche dei processi di conversione
grafema fonema, solo i segnali elettromagnetici cerebrali, e principalmente gli ERP
possono determinare con precisione lo stadio temporale di analisi degli aspetti fone-
tico/fonologici nella lettura. E infatti gli ERP sono stati utilizzati in diversi studi tesi
a investigare il decorso temporale dello stadio di analisi fonologico/fonetico della
parola scritta, specialmente mediante il paradigma di giudizio di rime [20, 31, 32].
Con questa procedura, si chiede ai soggetti di valutare se una serie di parole fanno
rima tra loro (ad esempio, se CRICETO fa rima con VIOLETTA oppure con ROSE-
TO). Tipicamente, item incongruenti dal punto di vista fonologico, cioè non facenti
rima, elicitano una risposta negativa di mismatch la cui latenza indica lo stadio tem-
porale di elaborazione fonologica (intorno ai 250 ms).
In un famoso studio di Bentin e colleghi [20] sono stati comparati gli ERP elicitati
da parole e pseudoparole che rimavano con una data parola francese, con quelli che
invece non facevano rima con essa. I risultati mostrarono la presenza di una componen-
te negativa intorno ai 320 ms di latenza post-stimolo, che raggiungeva la sua massima
ampiezza sulla regione temporale mediale sinistra in risposta a item non-facenti rima.
Studi di neuroimmagine funzionale [33] hanno mostrato che le aree dorsali intorno al
giro di Heschl, bilateralmente, e in particolare il planum temporale e il giro temporale
superiore dorsolaterale mostrano un’attivazione maggiore durante l’elaborazione di toni
modulati in frequenza piuttosto che di rumore, suggerendo così il loro ruolo nell’elabo-
razione di semplice informazione uditiva codificata temporalmente. Al contrario, regio-
ni centrate sul solco temporale superiore sono più attive bilateralmente durante
l’ascolto di stimoli linguistici, siano essi parole, pseudoparole o linguaggio riprodotto
all’incontrario (inverted speech) piuttosto che toni, suggerendo il loro ruolo nell’elabo-
razione acustica prefonetica. Infine, regioni ventrali temporali e temporo/parietali sono
più attive durante l’elaborazione di parole e non parole; ciò indicherebbe il loro ruolo
nell’accesso alle proprietà fonologiche e semantiche delle parole.
Così, mentre gli studi di neuroimmagine ci mostrano il probabile substrato neu-
roanatomico dei meccanismi di analisi fonologica delle parole, gli studi elettroma-
100 A. Mado Proverbio

gnetici (ERP e MEG) forniscono l’indice temporale dello stadio di attivazione (250-
350 ms), come si può vedere nello studio di Proverbio e Zani [34] illustrato nella
Figura 3.5. Essa mostra la negatività da mismatch fonologica (pMMN) in risposta a
sillabe incongruenti rispetto a determinate parole mantenute in memoria per qualche
secondo. Ai volontari veniva chiesto di recuperare la forma fonologica di parole
descritte da una definizione univoca. ad esempio, “Fibra ottenuta dal vello delle
pecore: LANA” oppure “Fiorellini regalati per la festa della donna: MIMOSA”.
Successivamente veniva chiesto di stabilire se un trigramma presentato in un secon-
do tempo, dopo un certo intervallo, facesse o meno parte della parola pensata, pre-
mendo uno di due tasti per la risposta affermativa o negativa. Nell’esempio di cui
sopra MOS è presente in mimosa (tasto: SÌ), mentre LEN non è presente (tasto: NO).
In questo modo la rappresentazione fonologica delle parole non veniva fornita
secondo una data modalità sensoriale (visiva se scritta o uditiva se parlata), ma
secondo un codice mentale astratto (Fig. 3.5).
Se la pMMN in questo studio conferma la latenza media di occorrenza dei pro-
cessi di analisi fonologica del linguaggio (circa 250-250 ms), è stato osservato,
però, un esordio precedente dei meccanismi di conversione grafema/fonema della
parola scritta, e in particolare della sillaba. In questo studio, infatti, si è osservata
una MMN visiva durante il confronto di sillabe fonologicamente incongruenti sulla
corteccia visiva estrastriata, e più precocemente sull’emisfero sinistro, suggerendo
quindi un accesso alle proprietà fonologiche di sillabe e parole e un inizio di con-
versione grafema/fonema intorno ai 175 ms post-stimolo.

Fig. 3.5 pMMN in risposta a sillabe


fonologicamente incongruenti con la
forma fonologica di una parola recupe-
rata e tenuta in memoria dall’osserva-
tore. Si noti l’esordio molto precoce
della negatività, intorno ai 200 ms di
latenza post-stimolo. Da [34], con
autorizzazione
3. Elettrofisiologia del linguaggio. Meccanismi di comprensione del linguaggio 101

Un altro recente studio ERP ha approfondito proprio i meccanismi di conversio-


ne grafema/fonema [24], mettendo in evidenza il decorso temporale dei meccani-
smi di estrazione dell’informazione fonetica durante la lettura. Il paradigma era il
seguente: più di un migliaio di parole, pseudoparole e stringhe di lettere italiane
sono state mostrate ad alcuni studenti universitari italiani che avevano il compito di
stabilire se un dato fono era presente in una parola fornita visivamente. Il fono rap-
presenta l’implementazione acustica e fonetica di un dato fonema (e quindi grafe-
ma) e è recuperabile solamente se si conoscono esattamente le regole di pronuncia
e se non ci sono possibili ambiguità nemmeno per le pseudoparole o le stringhe di
lettere. Ad esempio, il grafema C si pronuncia sicuramente [t∫] sia nella parola
CIELO sia nella pseudoparola CERTUBIOLA o nella stringa MLHGWTOCIV,
come sa ogni parlante italiano che padroneggi le regole di conversione grafema
fonema dell’italiano, peraltro trasparenti (si veda la Tabella 3.1 per la lista dei foni
utilizzati come target e per quelli utilizzati come distrattori allo scopo di rendere il
compito più difficile). Sono stati quindi registrati gli ERP a tutte le categorie di sti-
molo a seconda che contenessero o meno i foni target (Tabella 3.1).

Tabella 3.1 Lista di stimoli target e non-target per l'esperimento di decisione fonetica. Lista di foni tar-
get a cui i soggetti dovevano rispondere in una certa sessione, insieme ai relativi distrat-
tori presenti per metà degli stimoli non-target. I distrattori potevano avere una similarità
di tipo ortografica o fonetica con i target. Da [24], con autorizzazione

Target Non-target

Fono Grafema Esempio Distrattori

[k] c cuore [t∫], [∫]


bacio, sciata,
[t∫] c cielo [k], [ ∫], [kw]
occhio, fascio,
[∫] sc pesce [s], [k], [t∫], [kw]
secchio, carta falce, eloquio
[z] s isola [s], [ts], [∫], [dz]
sodio, sensazione, uscita, zia
[s] s pasta [z], [ts], [∫],
causa, fazione,biscia
[ts] z pizza [s], [dz], [z]
bistecca, manzo, revisore
[dz] z zaino [ts], [s], [z]
polizia, sigaretta, riserva
[g] g gatto [η], [d3], [λ]
sogno, gesto, sveglia
[d3] g gente [λ], [η], [g]
voglia, prugna, ghiaccio
[λ] gl aglio [l], [g], [d3], [η]
palio, lingua, gioco, montagna
[η] gn pugno [n], [g], [d3], [λ]
banana, ghiacciolo, formaggio, sbaglio
[n] n brina [η], [λ]
ragno, boscaglia
102 A. Mado Proverbio

Uno dei dati più interessanti riguarda la dissociazione anatomico funzionale ante-
ro/posteriore osservata per una componente negativa intorno ai 250-350 ms, che era
di maggiore ampiezza sulle regioni frontali e prefrontali sinistre durante l’elaborazio-
ne fonemica di stringhe di lettere benformate (pseudoparole) o malformate e raggiun-
geva la massima ampiezza sulle regioni occipito/temporali di sinistra durante l’anali-
si fonemica di parole di alta o bassa frequenza d’uso [24]. Tale risultato ha conferma-
to la possibile esistenza di due circuiti funzionalmente distinti (una via visiva e una
via fonologica) per la conversione grafema/fonema, fornendo indicazioni sul decor-
so temporale di tali processi. Essi occorrerebbero parzialmente in parallelo con il
completamento del riconoscimento visivo delle parole da parte della VWFA e l’avvio
dell’accesso ai sistemi lessicali indicizzato dalla successiva componente N400, di
latenza variabile tra i 200 e i 600 ms. Il rapido accesso alla rappresentazione fonolo-
gico/fonetica delle parole ci consente di leggere con grande rapidità anche 5/6 paro-
le al secondo in brani di testo mai visti e complicati. La capacità di lettura si svilup-
pa, ovviamente, con l’esercizio e migliora dall’età scolare fino all’età adulta. Studi
fMRI [35] hanno mostrato che l’accesso rapido e accurato alla rappresentazione fono-
logica migliora significativamente nell’adulto rispetto al ragazzo prepubere (fino ai
14 anni), e che durante l’adolescenza avviene un raffinamento dell’abilità di lettura e
il consolidamento degli automatismi. In particolare Booth e colleghi [36] hanno evi-
denziato modificazioni legate allo sviluppo cerebrale e all’età nell’attivazione di aree
linguistiche cerebrali sinistre durante la lettura, in particolare a carico dell’area fron-
tale inferiore, del giro temporale superiore e del giro angolare. Durante compiti udi-
tivo/visivi intermodali (ad esempio, compiti di rima visiva come: “SOAP [s υp] fa e
rima con HOPE [h υp]?”) si registrava un’attivazione specifica del giro
e
angolare (BA39), coinvolto nel reperimento della corrispondenza tra rappresentazio-
ne ortografica e fonologica delle parole, sia nei ragazzi sia negli adulti. Ciò che è più
interessante notare è che nell’adulto l’attivazione automatica del giro angolare si
osservava anche durante compiti ortografici non richiedenti una conversione grafe-
ma/fonema, (come nel compito “VOTE [v υt] fa rima con NOTE [n υt]?”) Questa
e e
attivazione automatica non si osservava invece nei ragazzi di età inferiore ai 14 anni,
probabilmente a causa di differenze maturazionali nella sinaptogenesi, nel metaboli-
smo del glucosio, nella mielinizzazione e nello sviluppo della materia bianca cortica-
le, occorrenti tra i 10 e i 20 anni, specialmente nelle aree prefrontali. Questi dati di
Booth e colleghi [36] individuano dunque nel giro angolare e sopramarginale una
regione specializzata nel mapping ortografico/fonologico dell’informazione linguisti-
ca. Accanto a ciò, segnalano, nel periodo dalla pubertà all’età adulta, un miglioramen-
to nella trasmissione del segnale nervoso e nella rapida interconnessione di regioni
eteromodali durante la lettura.

3.5 Conversione grafema/fonema nel deficit di lettura (dislessia)

L’incapacità di lettura, intesa come deficit nel reperimento rapido della corrisponden-
za grafema/fonema, e quindi della forma grafemica nel dettato (come si scrive qualco-
sa che si è udito), e della forma fonetica nella lettura (come si pronuncia qualcosa che
3. Elettrofisiologia del linguaggio. Meccanismi di comprensione del linguaggio 103

si è letto) interessa una certa popolazione di bambini chiamati dislessici, per lo più
fonologici. Secondo alcuni dati, descritti nel paragrafo 1.1, taluni soggetti (probabil-
mente dislessici superficiali) potrebbero avere un’insufficiente/atipica attivazione
della VWFA [21], che, nello studio di Proverbio e collaboratori [34], abbiamo visto
essere in parte coinvolta nell’analisi grafemico/fonologica. Tuttavia, la maggior parte
delle teorie sulle basi neurobiologiche della dislessia fonologica fanno riferimento a tre
ipotesi principali che di seguito discuteremo sulla base di dati elettrofisiologici (esclu-
sa la cosiddetta ipotesi magnocellulare che ipotizza un coinvolgimento di strutture
legate ai movimenti oculari e al cervelletto, e che non discuteremo in questa sede).
La prima ipotesi sostiene che i dislessici abbiano un deficit nella capacità di
distinguere informazioni acustiche temporalmente complesse, ma diciamo subito
che è stato ampiamente dimostrato il contrario, mediante una stimolazione di tipo
non linguistico. La seconda asserisce che essi abbiano un deficit nella capacità di
discriminare i tempi di transizione delle formanti (specialmente quelli troppo brevi
vs. lunghi). La terza e, come vedremo, la più accreditata dai dati elettromagnetici e
di neuroimmagine, afferma che i dislessici abbiano un deficit di discriminazione
fonetica, dovuto a una percezione allofonica dei suoni linguistici. La percezione
allofonica è molto sensibile alle sottili variazioni fisiche della stimolazione sonora
a livello di tempi di transizione delle formanti, ma è accompagnata da una corri-
spondenza grafema/fonema poco stabile (confusioni nella categorizzazione della
forma globale dello spettro del segnale).
L’ipotesi del deficit di discriminazione temporale è stata disconfermata da
recenti studi di autori come Studdert-Kennedy [37] o Nittrouer che hanno mostra-
to come i deficit nella consapevolezza fonetica non dipendano da problemi nell’ela-
borazione uditiva di informazioni temporalmente complesse o rapide. Infatti, bam-
bini dislessici di seconda elementare, con problemi a distinguere le sillabe /ba/-/da/,
ottengono gli stessi risultati dei coetanei in compiti di discriminazione di sillabe
con un simile grado di complessità temporale nella transizione delle formanti, ma
foneticamente più distintive per luogo e tipo di articolazione (com /ba/-/sa/ o /fa/-
/da/). Allo stesso modo, dimostrano di eseguire, altrettanto correttamente dei bam-
bini di pari età, ma senza deficit di lettura, compiti in cui è richiesta una sensibili-
tà a brevi segnali transitori del linguaggio sintetizzato, o la discriminazione di onde
sonore non linguistiche ma simili alla seconda e terza formante delle sillabe /ba/-
/da/. In conclusione, i bambini dislessici avrebbero problemi di confusione percet-
tiva tra fonemi foneticamente simili, piuttosto che una difficoltà a percepire rapidi
cambiamenti nello spettro dell’informazione acustica [37].
Queste ipotesi sono state confermate da studi elettrofisiologici facenti uso di
linguaggio sintetizzato. Un tipo di paradigma che ha messo in luce nei bambini
dislessici un deficit di tipo fonologico e non acustico/fonetico è quello del priming
implicito fonologico. Esso si realizza in compiti di decisione lessicale (decidere se
uno stimolo è una parola o una non-parola) presentando una precedente parola che
può essere o meno fonologicamente legata ai target successivi. Ad esempio, la
parola MATTINA agisce da prime (agente facilitante) fonologico alla pseudoparo-
la BATTINA ma non alla pseudoparola LEBANTI. Quello che tipicamente si ottie-
ne per un deficit di tipo fonologico è l’assenza/riduzione della pMMN agli item
non-associati fonologicamente rispetto a quelli associati al prime (Fig. 3.6).
104 A. Mado Proverbio

Fig. 3.6 Forme d’onda ERP registra-


te in individui dislessici e di control-
lo in risposta a pseudoparole fonolo-
gicamente associate o non con una
parola precedente (prime). La man-
canza di una risposta differenziata a
livello di N2 temporo/parietale per i
due tipi di item riflette un certo defi-
cit nell’elaborazione fonologica

Come abbiamo già detto, comunque, il deficit fonologico non sarebbe associa-
to a una mancanza di sensibilità acustico/fonetica, ma, anzi, a un’eccessiva sensi-
bilità a indicatori temporali piuttosto che spaziali (spettro). È stato dimostrato [39]
come i dislessici ottengano risultati migliori, rispetto al gruppo di controllo, in com-
piti di discriminazione intra-categorica tra sillabe artificiali ottenute modificando
impercettibilmente lungo un continuo due sillabe chiaramente distinguibili come
/da/ e /ta/. Al contrario, essi hanno una prestazione peggiore in compiti di discrimi-
nazione tra fonemi categoricamente diversi /da/ vs. /ta/. La Figura 3.7 mostra i
risultati di uno studio di categorizzazione fonemica effettuato con linguaggio sinte-
tizzato e mette in evidenza un’incompetenza dei bambini dislessici di 10 anni nello
stabilire una corrispondenza tra input fonologico e rappresentazione fonemica,
simile a quello di bambini non ancora in grado di leggere o peraltro estremamente
incerti nel mappaggio grafema/fonema.
Questa spiccata sensibilità a differenze nel continuum della stimolazione sonora
è stato chiamato “percezione allofonica” (Fig. 3.7) , in opposizione a percezione cate-
gorica. La prova che i dislessici siano più sensibili a livello di differenze fonetiche
deriva da studi ERP che utilizzano il paradigma della mismatch negativity (MMN).
Questo paradigma, sviluppato dallo scienziato finlandese Risto Näätänen [40, 41], si
basa sulla presentazione acustica di una serie ripetitiva di stimoli omogenei che è
seguita da uno stimolo deviante per una sola caratteristica fisica (ad esempio, la dura-
ta, l’intensità, la frequenza, lo spettro). Il confronto degli ERP elicitati dagli stimoli
standard con quelli elicitati dallo stimolo deviante mostra una negatività la cui laten-
za (150-300 ms) e localizzazione indica i meccanismi elaborativi della caratteristica
sensoriale deviante. I dati raccolti sui soggetti dislessici mostrano una maggiore
MMN sia precoce (340 ms) sia tardiva (520 ms) rispetto ai controlli in situazioni in
cui vengono messe a confronto serie di parole pronunciate in modo scandito, senza
glissare su certe lettere (ad esempio, TECNICO, ALREADY), con parole pronuncia-
te secondo regole di assimilazione (per esempio, TENNICO, A(L)READY). In defi-
nitiva, i controlli compenserebbero le differenze nell’informazione fonetica per giun-
gere a categorizzazioni finali simili. Al contrario, i dislessici sarebbero molto sensi-
3. Elettrofisiologia del linguaggio. Meccanismi di comprensione del linguaggio 105

Fig. 3.7 Confronto tra prestazioni


in un compito di categorizzazione di
fonemi artificiali tra gruppi di parlanti
di diversa età e competenza fonologi-
ca. I bambini dislessici hanno una pre-
stazione simile ai bambini che si tro-
vano all’inizio della scolarizzazione

bili alle differenze fonetiche della stimolazione, dando così luogo a maggiori negati-
vità da mismatch acustico/fonetica in risposta a parole come TENNICO (assimilato)
rispetto a TECNICO (scandito).
Un’altra prova della maggiore sensibilità dei soggetti dislessici a stimoli devian-
ti è stata offerta da uno studio elettrofisiologico di Pavo Leppänen e colleghi [42]
che ha messo a confronto le risposte evocate da parole standard o devianti per la
durata di una vocale o di una consonante. Ad esempio, la parola /tuli/ (fuoco) è stata
messa a contrasto con la deviante /tuuli/ (vento) differente da essa solamente per la
durata della vocale /u/; mentre il segmento standard /ata/ è stato messo a contrasto
con la versione più duratura /atta/. Questo importante studio longitudinale è stato
condotto su una popolazione di 100 neonati di 6 mesi appartenenti a famiglie senza
deficit di lettura, e quindi geneticamente non predisposti alla dislessia (controlli), e
altri 100 bambini appartenenti a famiglie con almeno 1 membro affetto da deficit di
lettura. I risultati hanno mostrato la presenza nei neonati a rischio di una MMN
molto più ampia, specialmente nella fase tardiva (600 ms) in risposta a stimoli
devianti. L’osservazione dei soggetti a rischio in età adulta ha poi mostrato che una
certa percentuale di individui sviluppava effettivamente un deficit di lettura. La
MMN registrata su soggetti dislessici (cioè lettori mediocri, del gruppo a rischio) in
risposta a stimoli come /ka/ standard e /kaa/ deviante era di ampiezza consistente,
ma prevalentemente osservabile sulle regioni emisferiche destre. La MMN registra-
ta su soggetti originariamente a rischio, ma che non avevano mai sviluppato proble-
mi di lettura (cioè, buoni lettori, a rischio), mostrava una notevole ampiezza sia su
regioni emisferiche destre, sia sinistre. Infine, la MMN registrata su buoni lettori del
gruppo non a rischio mostrava una sola MMN su regioni emisferiche sinistre.
Sembra quindi che una MMN destra fosse in qualche modo predittiva di una certa
facilità alla confusione nella categorizzazione dei fonemi. Questo dato potrebbe in
qualche modo essere legato all’evidenza che le persone con preferenza manuale
meno marcata hanno una maggiore probabilità di essere dislessiche rispetto agli
individui fortemente destrimani.
Studi anche elettrofisiologici hanno evidenziato un netto miglioramento delle
capacità di lettura in bambini di 5 anni con scarsa abilità nell’associare un suono a
una lettera (e appartenenti a famiglie geneticamente a rischio, cioè con almeno 1
membro dislessico) in seguito a specifico training intensivo. I dati ERP hanno mostra-
to una significativa correlazione tra miglioramento della capacità di leggere appro-
106 A. Mado Proverbio

priatamente le lettere e comparsa di una MMN precoce su regioni temporo/parietali


sinistre al contrasto standard/deviante per i fonemi tipo /ba/ /ga/ /da/.
Questo tipo di addestramento, studiato perché sia avvincente per un bimbo di
5/6 anni, si presenta sottoforma di videogioco chiamato graphogame. Il bambino
ascolta di volta in volta dei suoni tramite una cuffia mentre guarda lo schermo di
un computer. Per vincere il gioco deve cercare di catturare prontamente la versio-
ne ortografica corrispondente al suono di volta in volta udito (una lettera che cade
in verticale) prima che tocchi terra, spostando con il mouse un simpatico polipetto
con i tentacoli aperti a forma di U. Ci sono varie lettere che cadono contempora-
neamente per terra e il bambino deve fare presto a individuare e catturare quella
giusta, per superare i vari livelli del videogioco. Il graphogame, grazie ai suoi effet-
ti sulla plasticità cerebrale e sull’apprendimento, è utilizzato dal 2005 nell’ambito
del VI programma quadro dell’Unione Europea, per studiare i problemi di lettura
nelle lingue inglese, finlandese, olandese e tedesco, all’interno di progetto chiama-
to “Training grapheme-phoneme correlations with a child-friendly computer game
in preschool children with familial risk of dyslexia”.
In sintesi, imparare a leggere consisterebbe proprio nell’individuare una corri-
spondenza stabile e sicura tra grafema e fonema, che abbiamo visto in precedenza
essere un meccanismo che continua a migliorare anche dopo la pubertà, grazie
anche al ruolo decisivo del giro angolare e del giro sopra-marginale; al contrario,
sarebbe predisponente per la dislessia una debolezza nella codifica fonologica
(categorizzazione fonemica) di input fonetici.

3.6 Analisi lessicale

Dopo l’accesso alle proprietà fonologiche di una parola, il nostro cervello è in grado
di estrarne le proprietà semantico/lessicali intorno ai 300-400 ms di latenza post-sti-
molo. Mediante il paradigma della parola terminale è stato possibile determinare già
nel 1980 [9] l’esistenza di una componente degli ERP negativa di latenza intorno ai
400 ms (denominata N400) che compariva in risposta a parole semanticamente incon-
gruenti con il contesto, ma ortograficamente o fonologicamente corrette. Questa com-
ponente ha un’ampiezza maggiore sulla regione centroparietale destra del cervello; tut-
tavia, ciò non indica necessariamente la localizzazione anatomica delle funzione
semantica. Per esempio, studi di registrazione intracranica hanno mostrato in un caso
un generatore della N400 vicino al solco collaterale e al giro fusiforme anteriore.
Kutas, nel suo articolo originale del 1980, approfondisce le proprietà funzionali
della N400 distinguendo il concetto di incongruenza semantica da quello di aspetta-
tiva dell’osservatore sulla terminazione di una certa frase, nel paradigma della paro-
la terminale. Vi sarebbe un vincolo contestuale (contextual constraint) dato dal signi-
ficato semantico della frase, che da solo non basterebbe a spiegare l’insorgenza della
N400. Ma andiamo per gradi. Il contrasto tra la frase “Mise zucchero e limone nel suo
TÈ” e “Mise zucchero e limone nel suo STIVALE” produce una N400 di ampiezza
rilevante in risposta a STIVALE, a causa dell’incongruenza semantica della parola
terminale con il contesto di bevanda calda. Se si compara la risposta evocata dalla
3. Elettrofisiologia del linguaggio. Meccanismi di comprensione del linguaggio 107

frase “Mise zucchero e limone nel suo CAFFÈ” si osserva una N400 di ampiezza
minore rispetto allo STIVALE, in quanto il CAFFÈ è semanticamente più associato
al TÈ di quanto non sia lo STIVALE. Questo fenomeno riflette l’effetto del vincolo
contestuale (contextual constraint). La Kutas introduce il fattore della cloze probabi-
lity o “probabilità di chiusura”, intesa come la probabilità che un gruppo di parlanti
completi una certa frase con una determinata parola terminale, i cui effetti non si iden-
tificano completamente quelli del vincolo contestuale. ad esempio, la frase “Spedì la
lettera senza FRANCOBOLLO” viene completata dalla totalità dei soggetti in modo
uniforme e predicibile, a dimostrazione del fatto che possiede un’alta probabilità di
chiusura. Al contrario, la frase “Non c’era niente di rotto nel CONGELATORE” pos-
siede una bassa probabilità di chiusura, in quanto non molte persone statisticamente
completerebbero la frase nello stesso modo. Gli ERP elicitati da FRANCOBOLLO e
CONGELATORE nelle due frasi di cui sopra producono deflessioni molto diverse
(una P300 e una N400, rispettivamente), in quanto la parola CONGELATORE sor-
prende il lettore non meno di quanto potrebbe fare qualunque altra parola che rappre-
senti un oggetto il cui meccanismo può incepparsi, ed è quindi semanticamente con-
gruente, ma inaspettata. La N400 sarebbe, dunque, indice di meccanismi di integra-
zione semantica, e sarebbe sensibile alla difficoltà con cui il lettore/ascoltatore inte-
gra l’input con il contesto precedente, sulla base delle proprie aspettative.
Sebbene il massimo picco di risposta a parole incompatibili, inaspettate, o a bassa
probabilità di chiusura venga raggiunto intorno ai 400 ms, sono state mostrate rispo-
ste ERP più precoci sensibili ad alcune proprietà lessicali delle parole, come la fre-
quenza d’uso. King e Kutas [43] hanno descritto una componente negativa anteriore
chiamata negatività da elaborazione lessicale (LPN, Lexical Processing Negativity)
con una latenza di circa 280/340 ms, che era molto sensibile alla frequenza di occor-
renza delle parole. Questa componente è stata anche registrata nel già citato studio di
Proverbio [24] in un compito di decisione fonetica, come illustrato nella Figura 3.8.
In quest’ultima possiamo osservare la LPN registrata a varie categorie di stimoli di
diversa familiarità per il lettore (stringhe, pseudoparole e parole di alta e bassa fre-
quenza d’uso). Si noti come la diversa familiarità si riflette nell’ampiezza di tale com-
ponente negativa a livello delle componenti N3 e N4, anche se il compito, di natura
fonetica, non richiedeva un accesso a informazioni di tipo lessicale. Come si vede,
questi effetti lessicali sono già visibili a 250 ms di latenza post-stimolo sulle regioni
anteriori del cervello, e ancora prima (intorno ai 150 ms) sulla corteccia parietale, sot-
toforma di una modulazione dell’ampiezza della P150. Similmente, in un altro stu-
dio ERP, Schendan e colleghi [44] osservarono una componente centro/parietale
P150 che esibiva la massima ampiezza in risposta a stringhe di lettere e pseudolet-
tere, un’ampiezza intermedia in risposta a stringhe di icone, e, infine, una meno
ampia in risposta a oggetti e pseudo-oggetti. Gli autori conclusero che la P150 riflet-
tesse l’attivazione superficiale di un generatore localizzato nel giro fusiforme. In
questo studio, l’effetto più precoce di distinzione lessicale (parola/pseudoparola) si
osservò a circa 200 ms post-stimolo. Sembrerebbe, quindi, che i meccanismi di
accesso a proprietà lessicali si attivino in parallelo rispetto all’estrazione di proprie-
tà ortografiche e fonologiche. Alcuni studi mostrano una sensibilità lessicale a laten-
ze anche inferiori ai 150 ms in risposta a brevi parole familiari [45, 46] sulla regio-
ne centro/parietale di sinistra (Fig. 3.8).
108 A. Mado Proverbio

Fig. 3.8 Forme d’onda ERP registra-


te in risposta a parole, pseudoparole e
stringhe di lettere durante un compi-
to di decisione fonetica (come ad
esempio: il fono /k/ è presente in
ARANCIATA?). Da [24], con auto-
rizzazione

3.7 Analisi pragmatica

Così, come la P300 sarebbe indice di meccanismi di aggiornamento contestuale


(dall’inglese contextual updating), ovverosia di confronto tra input in entrata con
informazioni pregresse e aggiornamento delle conoscenze [47, 48], al contrario, l’in-
sorgere della N400 indicherebbe una difficoltà nell’integrazione di informazioni in
entrata con conoscenze preesistenti di tipo semantico, o procedurale nel caso dei
gesti, conoscenze sul mondo e pragmatiche, conoscenze sociali (scenari, convenzio-
ni, appropriatezza del comportamento). Esaminiamo separatamente alcuni esempi.
Prendiamo, ad esempio, il caso classico di una violazione del significato locale
o del vincolo semantico come quello dato dalla frase: “Jane disse a suo fratello
quanto egli fosse incredibilmente”, seguita da 3 possibili parole terminali come:

A. VELOCE Congruente
B. LENTO Congruente
C. PIOVOSO Incongruente

Come abbiamo visto ampiamente nel corso del paragrafo precedente, il caso C
determina l’insorgere della N400 Fig. 3.9, parte 1) in quanto la piovosità non è una
possibile proprietà di una persona, e ciò rende difficile integrare il significato della
parola terminale con la rappresentazione concettuale fornita dalla frase. Poiché
questa incongruenza si riscontra in assoluto, a prescindere dal contesto o dagli spe-
3. Elettrofisiologia del linguaggio. Meccanismi di comprensione del linguaggio 109

cifici parlanti, si parla di violazione del vincolo semantico (da distinguersi dalla
violazione della “probabilità di chiusura”).
Hagoort e collaboratori [49] hanno però scoperto che la N400 è anche sensibi-
le alla violazione del significato mediata dal contesto o dalle conoscenze sociali.
Consideriamo il contesto “Alle 7 del mattino il fratello di Jane si era già fatto la
doccia e si era anche già vestito” seguito dalla frase: “Jane disse a suo fratello quan-
to egli fosse incredibilmente”, completata dalle 2 possibili parole terminali:

A. VELOCE Congruente
B. LENTO Incongruente

Il caso B determina l’insorgere della N400 (Fig. 3.9, parte 2), in quanto la rap-
presentazione concettuale fornita dalla frase, e cioè quella di un fratello svelto e
mattiniero, è in stridente contrasto con il modo in cui egli viene qualificato dalla
sorella. L’incongruenza semantica si può estendere anche a conoscenze implicite o
pragmatiche come quelle sociali. Consideriamo la frase “La domenica di solito
vado al parco con” pronunciata con voce di:

1. bimbo
2. uomo adulto

e seguita dalle 2 possibili parole terminali:

A. PAPINO
B. MIA MOGLIE

Le combinazioni 1B e 2A elicitano un’ampia deflessione N400 (Fig. 3.9, parte 3)


in assenza di qualunque violazione del significato semantico locale o contestuale,
riflettendo, quindi, una violazione delle conoscenze pragmatiche e sociali (Fig. 3.9).
Un altro studio di Hagoort e colleghi [50] fornisce un parallelismo molto inte-
ressante tra violazione del vincolo semantico e violazione di conoscenze sul
mondo. Una tipica conoscenza sul mondo (detta world knowledge dallo psicologo

Fig. 3.9 ERP registrati in risposta a parole terminali che completano un precedente contesto (si
veda il testo per le frasi specifiche) producendo una violazione del significato locale (caso 1), del
significato contestuale (caso 2) o delle conoscenze pragmatiche (caso 3): linea punteggiata =
parola incongruente, linea continua = parola congruente. Tratta e modificata da vari studi del grup-
po di Hagoort e colleghi
110 A. Mado Proverbio

Norman) potrebbe essere, ad esempio, la direzione con cui si aprono le porte (quasi
sempre verso l’interno, ma verso l’esterno se antipanico), conoscenza che si
apprende implicitamente mediante ripetute esperienze nel mondo esterno.
Hagoort presentò comparativamente 3 tipi di frasi, di seguito elencate.

A. I treni olandesi sono gialli e molto affollati.


B. I treni olandesi sono bianchi e molto affollati.
C. I treni olandesi sono acidi e molto affollati.

Il caso B (violazione di conoscenze sul mondo) e il caso C (violazione seman-


tica) elicitarono N400 di ampiezza e distribuzione simile in soggetti olandesi, pur
essendo profondamente differenti. Tutti sanno che un treno non può essere acido
(conoscenza semantica). Allo stesso modo un olandese che abbia girato un po’ per
metropolitane ha appreso in modo implicito, ma altrettanto solidamente, che i treni
della sua città non sono bianchi. La difficoltà nell’integrare le informazioni fornite
dalle frasi B e C con le conoscenze preesistenti determina quindi processi mentali,
osservabili circa 400 ms dopo la parola target, la cui controparte neurofisiologica
nello studio di Hagoort e colleghi [50] è rappresentata dalla N400, e il cui genera-
tore venne identificato mediante fMRI nel giro frontale inferiore sinistro (BA 45)
per entrambe le situazioni.

3.8 Analisi sintattica di primo e di secondo livello

L’analisi sintattica di una frase, cioè l’analisi della relazione tra le varie parti del
discorso, sia esso in forma scritta che parlata, consiste in diversi livelli elaborativi più
o meno complessi che si svolgono parzialmente in parallelo con gli altri tipi di elabo-
razione del segnale linguistico, mano a mano che provengono output di riconosci-
mento dall’analisi ortografica, fonologica e semantica. Gli stadi iniziali sono più
automatici e meno influenzati da aspettative o rappresentazioni cognitive. Addirittura,
secondo Noam Chomsky [51], una certa capacità sintattica, la cosiddetta grammatica
universale (cioè la capacità di comprendere e poi di generare il discorso secondo certe
regole sintattiche), sarebbe innata e insita nell’architettura biologica dell’homo
sapiens sapiens. Gli studi ERP ci hanno consentito di distinguere 3 diversi tipi di ana-
lisi parzialmente consecutive, la cui manifestazione neurofisiologica è rappresentata
dalle componenti ELAN, LAN e P600 o SPS, che verranno descritte qui di seguito.
La ELAN (il cui acronimo sta per Early Left Anterior Negativity), si osserva tra
i 100 e i 300 sulle ragioni anteriori sinistre del cervello [52]. Riflette meccanismi di
assegnazione della struttura sintattica della frase e di integrazione sintattica, essen-
do molto sensibile alla categoria delle vari parti del discorso. Una frase come “Casa
a ragazza la tornò” elicita tipicamente una negatività precoce ELAN da violazione
sintattica, in quanto le varie parti del discorso non occupano la posizione che andreb-
be loro assegnata (articolo, sintagma nominale, sintagma verbale, preposizioni). La
ELAN rifletterebbe, quindi, un parsing di primo livello, guidato dalle regole di strut-
turazione della frase e da processi sintattici primari (parzialmente innati).
3. Elettrofisiologia del linguaggio. Meccanismi di comprensione del linguaggio 111

La LAN, che sta per negatività anteriore tardiva (Late Anterior Negativity) [53, 54],
è sempre una negatività anteriore da violazione sintattica, ma più tardiva (300-500
ms) e sensibile ad aspetti morfosintattici più complessi come la concordanza sog-
getto/verbo, verbo/articolo, le declinazioni e le coniugazioni. Una frase che tipica-
mente eliciterebbe una vistosa LAN è rappresentata dall’espressione “La ragazzi
avrà andate”.
L’ultimo e più sofisticato livello di analisi sintattica è indicato dalla comparsa
di una componente positiva chiamata P600 per via della latenza intorno ai 600 ms,
o anche Syntactic Positive Shift (SPS, variazione sintattica positiva) [55, 56].
Essendo successiva alla P300, compare dopo che si è acquisita una certa consape-
volezza del significato di una data frase. Questa positività tardiva rifletterebbe pro-
cessi linguistici relativamente controllati, sensibili all’informazione inflessionale e
associati a processi sintattici secondari, come la rianalisi di frasi complesse o incon-
gruenti, oppure processi inibitori di una rappresentazione non corretta della frase
dovuti a difficoltà di integrazione sintattica. Presumibilmente, per capire questa
frase avrete dovuto mettere in atto processi sintattici secondari la cui manifestazio-
ne ERP è data dalla P600. Ma consideriamo il caso della frase “Il giornalista rite-
neva l’oggetto del contendere…” e poniamo il caso che ci sia un certo intervallo
durante il quale il lettore o l’ascoltatore abbia il tempo di formarsi una rappresen-
tazione del significato e quindi una certa aspettativa sul tipo di parola terminale. A
questo punto, la presentazione della conclusione “in un posto sicuro” impone un
processo di rianalisi del significato della frase e in particolare della parola “ritene-
va”, che era stata probabilmente (statisticamente) interpretata come “considerava”,
poiché una delle proprietà dei giornalisti è quella di farsi un’opinione su determi-
nati fatti ed eventi. La conclusione inaspettata cambia il significato di “ritenere”
nella sua accezione semantica di “trattenere”, obbligando il lettere/ascoltatore a
processi di rianalisi della frase indicati appunto dalla SPS.
Vi sono, inoltre, altre componenti linguistiche interessanti, che sono molto
peculiari e riflettono sempre l’indicazione anatomica del ruolo della corteccia
frontale sinistra (area di Broca) nell’analisi sintattica. Ne è un esempio la negati-
vità anteriore sinistra da complessità sintattica, descritta da Kutas e colleghi [57].
In un loro studio, gli autori misero a confronto frasi sintatticamente complesse,
come quelle relative all’oggetto, con altre identiche in tutto e per tutto ma relati-
ve al soggetto e quindi meno complesse. Ad esempio, la frase “Il cronista che il
senatore attaccò violentemente ammise l’errore” (relativa all’oggetto) confronta-
ta con la frase “Il cronista che attaccò violentemente il senatore ammise l’errore”
(relativa al soggetto). Registrarono quindi gli ERP a un certo numero di persone,
e li divisero successivamente in due gruppi a seconda del grado di comprensione
della frase che avevano poi successivamente mostrato. L’assunto era che chi
avrebbe mostrato una comprensione successiva ottimale, avrebbe presentato, in
qualche modo, segni di un’elaborazione sintattica più approfondita durante l’ela-
borazione della frase. I risultati mostrarono che il gruppo contraddistinto da una
comprensione ottimale esibiva una maggiore negatività da complessità sintattica
per le frasi relative all’oggetto (piuttosto che al soggetto) sulla regione frontale
sinistra, mentre il gruppo caratterizzato da una successiva comprensione medio-
cre non esibiva tale negatività.
112 A. Mado Proverbio

3.9 Rappresentazione del linguaggio nel cervello multilingue:


interpreti e bilingui

Uno degli argomenti più dibattuti nelle neuroscienze cognitive riguarda il tema del
multilinguismo e, in particolare, la questione relativa al come le varie lingue siano
rappresentate nel cervello dei poliglotti [58], e quale grado di indipendenza o di
interferenza ci sia tra di esse. La ricerca di una rete di regioni cerebrali linguistiche
coinvolte nei diversi aspetti della comprensione, lettura e produzione del linguag-
gio è complicata da fattori quali il livello di competenza padroneggiato per le lin-
gue straniere e per la lingua madre, l’età di acquisizione (dalla nascita, entro i 5
anni, entro i 12 ecc.), le modalità e i tempi di esposizione ai vari contesti linguisti-
ci (ad esempio, a casa, a scuola, sul lavoro), il contesto socio-affettivo di acquisi-
zione (in famiglia o a scuola), nonché l’interazione tra tutti questi fattori [59].
Alcuni studi sembrano supportare l’idea che, a parità di competenza acquisita,
non vi siano differenze macroscopiche nel modo in cui le diverse lingue vengono
elaborate da bilingui precoci fluenti e, in particolare sembra che l’età di acquisizio-
ne non giochi un ruolo fondamentale [60-62]. Altri studi forniscono, invece, prove
di marcate differenze nel decorso temporale di attivazione e nel reclutamento di
aree anatomiche per l’elaborazione linguistica di lingue acquisite a diverse età e in
diversi contesti culturali [24, 59, 63-65]. Questi ultimi dati sono compatibili con
l’evidenza che gli interpreti simultanei, per quanto padroneggino perfettamente una
lingua, preferiscano comunque tradurre verso la lingua madre piuttosto che verso
la lingua straniera; essi mostrano inoltre pattern di asimmetria emisferica differen-
ti durante l’interpretazione verso la seconda lingua [66], nel senso di una riduzione
della lateralizzazione sinistra per le funzioni linguistiche. Questa differenza tra lin-
gua madre e lingue straniere, a parità, come abbiamo detto, di competenza lingui-
stica, sarebbe dovuta al fatto che la lingua madre si apprende contestualmente alla
formazione delle conoscenze concettuali (ad esempio, la nozione di cosa sia una
/´kjave /; che l’/´akkwa / è un liquido fresco da bere) e alle conoscenze pragmati-
che sul mondo (che le porte chiuse a /´kjave / non si possono aprire, che la pappa
con la pastina è /´bwona /ecc.). In altri termini la forma fonologica delle parole ver-
rebbe acquisita contestualmente all’acquisizione dei contenuti concettuali.
Diversamente, le parole di lingue apprese dopo l’età di 5 anni sarebbero in qualche
modo “tradotte” nella lingua nativa (“parassitismo” secondo Elizabeth Bates [67])
per trovare una corrispondenza nel sistema lessicale, e questo evidentemente pro-
duce una significativa differenza nella facilità d’accesso semantico tra L1 e L2.
Una prova elettrofisiologica di questa differenza ci viene da uno studio ERP che
abbiamo recentemente effettuato su interpreti simultanei professionisti [67]. Questi
individui rappresentano una categoria particolare di poliglotti che possiede il massi-
mo grado possibile di padronanza di più lingue, unito a una chiara differenza nell’età
di acquisizione delle stesse. Gli interpreti considerati avevano una padronanza for-
midabile dell’inglese, per la quale interpretavano per organismi della Comunità
Europea sia da sia verso l’italiano (interpretazione attiva e passiva IT<>EN). Essi
avevano anche una conoscenza del tedesco, ma meno approfondita (L3). Lo studio
dell’attività bioelettrica corticale degli interpreti consente, quindi, di studiare l’effet-
3. Elettrofisiologia del linguaggio. Meccanismi di comprensione del linguaggio 113

to dell’età di acquisizione della lingua madre rispetto a quelle straniere, a prescinde-


re dal fattore padronanza. In questo studio sono state presentate a interpreti simulta-
nee professioniste (donne, età media 40 anni) circa 800 stringhe di lettere di lun-
ghezza variabile tra 6 e 10 caratteri, metà delle quali erano parole di bassa frequen-
za d’uso (come: ECOGRAFIA o OBIEZIONE). Un terzo delle parole presentate
erano parole e non-parole italiane; vi erano inoltre parole e non parole inglesi e tede-
sche. Le pseudoparole erano chiaramente riconoscibili come appartenenti a un dato
linguaggio per via della loro veste ortografica e legalità. ad esempio, CHIUBANTO
e DOIGNESCA erano pseudoparole italiane, STIRBIGHT e SCROWFOND erano
pseudoparole inglesi, mentre BERNSTACK e MEUSCHÄND erano pseudoparole
tedesche. Analogamente le parole sono state selezionate affinché avessero una veste
ortografica facilmente riconoscibile. Il compito era di natura ortografica e consiste-
va nel riconoscere e premere un tasto alla presenza di una determinata lettera target
(annunciata all’inizio della prova dallo sperimentatore) che poteva essere presente o
meno (in metà delle prove) all’interno della stringa mostrata. Le interpreti non dove-
vano curarsi se la stringa fosse una parola reale o una non-parola di una qualsivoglia
lingua. I risultati mostrarono una negatività da selezione del target molto più ampia
per la lingua madre, piuttosto che per le lingue straniere, sulla regione occipito/tem-
porale sinistra intorno ai 200 ms post-stimolo, mostrando, quindi, un forte effetto
dell’età di acquisizione. Sull’area frontale è stata osservata la presenza di una com-
ponente negativa che era molto sensibile sia all’età di acquisizione sia alla padronan-
za della lingua e cioè la LPN già descritta nel paragrafo 3.6. Tale negatività, osser-
vabile nella Figura 3.10, era molto più ampia per le pseudoparole che per le parole,
indicando, quindi, la sua sensibilità alla familiarità di queste ultime. Ciò che è più
interessante notare è che essa variava in ampiezza in funzione della lingua anche per
le pseudoparole (item mai visti in quanto non esistenti); ciò suggerirebbe un effetto
di sensibilità differenziata alla veste ortografica di L1 (italiano), L2 (inglese), e di L3
(tedesco). La LPN, e di conseguenza la differenza tra risposta alle pseudoparole e
risposta alle parole, era molto maggiore per L1, piuttosto che per L2, e per L2 piut-
tosto che per L3. Quest’ultimo effetto mostra un chiaro segno della differenza di
padronanza tra le lingue (Fig. 3.10).
Un’analisi più approfondita della risposta delle interpreti alla lingua tedesca è
stata effettuata raggruppando le interpreti in 2 gruppi: coloro che effettivamente
avevano una conoscenza troppo superficiale di questa lingua (non-fluenti) e colo-
ro che la consideravano una terza lingua (L3) rispetto all’inglese, ma che erano pur
sempre fluenti anche in tedesco (fluenti). Le analisi condotte sulle variazioni dei
valori della LPN tra i due gruppi, in funzione anche della loro fluenza, ha permes-
so di osservare più da vicino l’effetto della padronanza. Come si vede dai dati
della Figura 3.11, la differenza tra pseudoparole e parole era molto più ampia per
il gruppo di fluenti che per i non fluenti; ciò identifica quindi nella LPN anteriore
un marker chiaramente predittivo del livello di padronanza di una lingua (Fig. 3.11).
Abbiamo visto come gli ERP possano indicare l’effetto dell’età di acquisizione
di varie lingue sulla risposta cerebrale a parole e non parole, anche durante un com-
pito di natura ortografica. Questo testimonia che l’accesso al lessico è un meccani-
smo automatico e che il vantaggio della lingua madre su quelle acquisite in età
superiore ai 5 anni è imprescindibile.
114 A. Mado Proverbio

Fig. 3.10 Forme d’onda degli ERP medi registrati in interpreti professionisti in risposta a parole
e pseudoparole di varie lingue (italiano =L1, inglese =L2, tedesco =L3) sugli elettrodi frontali
di sinistra (F3) e di destra (F4). La parte ombreggiata rappresenta l’aumento di negatività in rispo-
sta a stringhe non riconosciute come esistenti. La certezza di non-esistenza di una non-parola
diminuisce proporzionalmente alla padronanza della lingua (L2 vs. L3), ed è molto maggiore nella
lingua madre (L1) rispetto alla lingua straniera (L2), a parità di padronanza. Modificata da [68]

Vedremo, ora, l’esempio di un’altra componente ERP sensibile a fattori come il


multilinguismo nei processi di analisi sintattica, e cioè la P600 sintattica. In uno
studio condotto su bilingui precoci e fluenti italo/sloveni [23] abbiamo investigato
i meccanismi di analisi semantica e sintattica con il paradigma della parola termi-
nale. Il compito consisteva nello stabilire se le frasi fossero sensate o per qualche
motivo insensate premendo uno di due tasti con la mano sinistra o destra. I bilingui
considerati vivevano tutti nella zona intorno a Trieste, dove si trova una comunità
di lingua slovena. La lingua appresa in famiglia e parlata a casa e nel vicinato era
quindi lo sloveno (L1), mentre la lingua appresa a scuola e parlata nell’ambiente
professionale era, per lo più, l’italiano (L2). Abbiamo messo a confronto i bilingui
con un gruppo di italiani di pari età e livello culturale, residenti nella stessa provin-
cia ma appartenenti a famiglie italiane, che non conoscevano la lingua slovena.
Durante la registrazione EEG sono stati presentati 3 tipi di frasi: corrette (ad esem-
pio, “La luce filtrava dalle TAPPARELLE”), semanticamente incongruenti (ad
esempio, “La struttura della città era troppo INVIDIOSA”) o sintatticamente incon-
gruenti (ad esempio, “Insisteva perché voleva RIGUARDANTI”). Oltre a 200 frasi
in italiano, sono state predisposte altrettante frasi in sloveno di significato diverso
ma bilanciate per ogni fattore. I risultati sono stati molteplici. Tra i più interessan-
ti, una N170 ortografica che nei bilingui interessava soprattutto la corteccia occipi-
to/temporale sinistra per L1 ma coinvolgeva anche omologhe regioni dell’emisfero
3. Elettrofisiologia del linguaggio. Meccanismi di comprensione del linguaggio 115

Fig. 3.11 Ampiezza media della LPN


anteriore (in µV) registrata in rispo-
sta a parole e a non parole nelle inter-
preti professionisti in funzione della
loro fluenza per la lingua tedesca
(L3). Una maggiore fluenza è asso-
ciata a una maggiore negatività per le
non parole, e quindi a una maggiore
sensibilità lessicale

destro per L2, dimostrando una riduzione della lateralizzazione per le funzioni lin-
guistiche nella seconda lingua già a livello di analisi ortografica. Un analogo risul-
tato si ottenne per le componenti N400 e P600 riflettenti un’elaborazione di tipo
semantico e sintattico (Fig. 3.12).
Come si vede nella Figura 3.12, la N400 elicitata dalle frasi che mostravano una
violazione sintattica, ma che erano anche semanticamente incongruenti, mostrava la
classica distribuzione emisferica destra per i monolingui. Tale asimmetria diminuiva

Fig. 3.12 Grandi medie ERP registrate in un gruppo di monolingui italiani e di bilingui precoci
fluenti italo/sloveni in risposta a frasi corrette e sintatticamente incongruenti, sulla regione tem-
porale posteriore di sinistra e di destra. Da [23], con autorizzazione
116 A. Mado Proverbio

progressivamente fino ad arrivare a una distribuzione perfettamente bilaterale nei


bilingui per L2. Per quanto concerne l’analisi sintattica più tardiva, possiamo osser-
vare, intorno ai 600 ms di latenza, l’insorgenza di una componente positiva sulla
regione temporale sinistra nei monolingui, una minore lateralizzazione nei bilingui
per L1 e una netta riduzione di questa componente riflettente processi sintattici secon-
dari per la seconda lingua dei bilingui. Questi dati mostrano l’esistenza di macrosco-
piche differenze nell’ampiezza e nella distribuzione dell’attività elettrica cerebrale in
funzione della padronanza linguistica e del contesto di acquisizione socio/affettivo; al
contrario, l’esposizione a una data lingua avrebbe un ruolo marginale.
In conclusione, possiamo osservare come gli ERP siano un ottimo marker,
soprattutto temporale, dei vari processi mentali sottostanti i meccanismi di com-
prensione linguistica e di lettura.

Bibliografia

1. Geschwind N (1965) Disconnexion syndromes in animals and man. I. Brain 88:237-294


2. Coltheart M, Rastle K, Perry C et al (2001) DRC: a dual route cascaded model of visual word
recognition and reading aloud. Psychological Review 108:204-256
3. Marshall JC, Newcombe F (1973) Patterns of paralexia: a psycholinguistic approach. Journal
of Psycholinguistic Research 2:175-199
4. Temple CM, Marshall JC (1983) A case study of developmental phonological dyslexia.
British Journal of Psychology. 74:517-533
5. Proverbio AM, Zani A (eds) (2000) Psicofisiologia cognitiva. Carocci, Roma
6. Zani A, Proverbio AM (eds) (2003) Elettrofisiologia della mente: il cervello e le funzioni
cognitive. Carocci, Roma
7. Salmelin R (2007) Clinical neurophysiology of language: the MEG approach. Clin Neurophysiol
118:237-54
8. Kutas M (1987) Event-related brain potentials (ERPs) elicited during rapid serial visual pre-
sentation of congruous and incongruous sentences. EEG Clin Neurophysiol Suppl 40:406-11
9. Kutas M, Hillyard SA (1980) Reading senseless sentences: brain potentials reflect semantic
incongruity. Science 11 207:203-5
10. Cohen L, Dehaene S (2004) Specialization within the ventral stream: the case for the visual
word form area. Neuroimage 22:466-76
11. Kronbichler M, Hutzler F, Wimmer H et al (2004) The visual word form area and the fre-
quency with which words are encountered: evidence from a parametric fMRI study.
Neuroimage 21:946-53
12. McCandliss BD, Cohen L, Dehaene S (2003) The visual word form area: expertise for rea-
ding in the fusiform gyrus. Trends Cogn Sci 7:293-9
13. Price CJ, Devlin JT (2004) The pro and cons of labelling a left occipitotemporal region: “the
visual word form area”. Neuroimage 22:477-9
14. Cohen L, Dehaene S, Naccache L et al (2000) The visual word form area. Spatial and tem-
poral characterization of an initial stage of reading in normal subjects and posterior split-
brain patients. Brain 123:291-307.
15. Kuriki S, Takeuchi F, Hirata Y (1998) Neural processing of words in the human extrastriate
visual cortex. Cogn Brain Res 6:193-203
16. Nobre AC, Allison T, McCarthy G (1994) Word recognition in the human inferior temporal
lobe. Nature 372:260-3
17. Petersen SE, Fox PT, Posner M, et al (1988) Positron emission tomographic studies of the
cortical anatomy of single-word processing. Nature 331:585-9
3. Elettrofisiologia del linguaggio. Meccanismi di comprensione del linguaggio 117

18. Walla P, Endl W, Lindinger G et al (1999) Early occipito-parietal activity in a word recogni-
tion task: an EEG and MEG study. Clin Neurophysiol 10:1378-87
19. Mechelli A, Gorno-Tempini ML, Price CJ (2003) Neuroimaging studies of word and
pseudoword reading: consistencies, inconsistencies and limitations. J Cogn Neurosci
15:260-271
20. Bentin S, Mouchetant-Rostaing Y, Giard MH et al (1999) ERP manifestations of processing
printed words at different psycholinguistic levels: time course and scalp distribution. J Cogn
Neurosci 11:35-60
21. Helenius P, Tarkiainen A, Cornelissen P et al (1999) Dissociation of normal feature analysis
and deficient processing of letter-strings in dyslexic adults. Cereb Cortex 9:476-83
22. Tarkiainen A, Helenius P, Hansen PC et al (1999) Dynamics of letter string perception in the
human occipitotemporal cortex. Brain 122:2119-32
23. Proverbio AM, Čok B, Zani A (2002) ERP measures of language processing in bilinguals. J
Cogn Neurosci 14:994-1017
24. Proverbio AM, Vecchi L, Zani A (2004) From orthography to phonetics: ERP measures of
grapheme-to-phoneme conversion mechanisms in reading. J Cogn Neurosci 16:301-17
25. Salmelin R, Helenius P, Service E (2000) Neurophysiology of fluent and impaired reading:
a magnetoencephalographic approach. J Clin Neurophysiol 17:163-74
26. Shaywitz BA, Shaywitz SE, Pugh KR et al (2002) Disruption of posterior brain systems for
reading in children with developmental dyslexia. Biol Psychiatry 52:101-10
27. Proverbio AM, Wiedemann F, Adorni R et al (2007) Dissociating object familiarity from lin-
guistic properties in mirror word reading, Brain and behavioral functions, Aug 20; 3:43
28. Fiebach CJ, Friederici AD, Muller K et al (2002) fMRI evidence for dual routes to the men-
tal lexicon in visual word recognition. J Cogn Neurosci 14:11-23
29. Rodriguez-Fornells A, Schmitt BM, Kutas M et al (2002) Electrophysiological estimates of
the time course of semantic and phonological encoding during listening and naming.
Neuropsychologia 40:778-87
30. Simos PG, Breier JI, Fletcher JM et al (2002) Brain mechanisms for reading words and pseu-
dowords: an integrated approach. Cereb Cortex 12:297-305
31. Grossi G, Coch D, Coffey-Corina S et al (2001) Phonological processing in visual rhyming:
a developmental ERP study. J Cogn Neurosci 13:610-25
32. Rugg MD, Barrett SE (1987) Event-related potentials and the interaction between orthogra-
phic and phonological information in a rhyme-judgment task. Brain Lang 32:336-61
33. Binder JR, Frost JA, Hammeke TA et al (2000) Human temporal lobe activation by speech
and nonspeech sounds. Cereb Cortex 10:512-28
34. Proverbio AM, Zani A (2003) Time course of brain activation during graphemic/phonologic
processing in reading: an ERP study. Brain Lang 87:412-20
35. Proverbio AM, Zani A (2005) Developmental changes in the linguistic brain after puberty.
Trends Cogn Sci 9:164-7
36. Booth JR, Burman DD, Meter JR et al (2004) Development of brain mechanisms for proces-
sing orthographic and phonologic representations. J Cogn Neurosci 16:1234-1249
37. Mody M, Studdert-Kennedy M, Brady S (1997) Speech perception deficits in poor readers:
auditory processing or phonological coding? J Exp Child Psychol 64:199-231
38. Nittrouer S (1999) Do temporal processing deficits cause phonological processing problems?
J Speech Lang Hear Res 42:925-42
39. Serniclaes W, Sprenger-Charolles L, Carre R et al (2001) Perceptual discrimination of spe-
ech sounds in developmental dyslexia. J Speech Lang Hear Res 44:384-99
40. Näätänen R, Brattico E, Tervaniemi M (2003) Mismatch negativity (MMN): a probe to audi-
tory cognition and perception in basic and clinical research. In Zani A, Proverbio AM (eds)
The Cognitive Electrophysiology of Mind and Brain, San Diego, Academic Press, pp. 343-355
41. Kujala T, Naatanen R (2001) The mismatch negativity in evaluating central auditory dysfun-
ction in dyslexia. Neurosci Biobehav Rev 25:535-43
42. Leppanen PH, Pihko E, Eklund KM et al (1999) Cortical responses of infants with and
without a genetic risk for dyslexia: II. Group effects. Neurorep 10:969-73
118 A. Mado Proverbio

43. King JW, Kutas M (1998) Neural plasticity in the dynamics of human visual word recogni-
tion. Neuroscience Letters 244:61-4
44. Schendan HE, Ganis G, Kutas M (1998) Neurophysiological evidence for visual perceptual
categorization of words and faces within 150 ms. Psychophysiol 35:240-51
45. Assadollahi R, Pulvermüller F (2003) Early influences of word length and frequency: a group
study using MEG. Neuroreport 14:1183-1187
46. Pulvermüller F, Assadollahi R, Elbert T (2001) Neuromagnetic evidence for early semantic
access in word recognition. Europ J Neurosci 13 (1):201-205
47. Johnson R Jr (1986) A triarchic model of P300 amplitude. Psychophysiology 23(4):367-84
48. Donchin E (1987) The P300 as a metric for mental workload. EEG Clin Neurophysiol Suppl
39:338-43
49. Van Berkum JJA, Hagoort P, Brown CM (1999) Semantic integration in sentences and
discourse: evidence from the N400, J Cogn Neurosci 11:657-671
50. Hagoort P, Hald L, Bastiaansen M et al (2004) Integration of word meaning and world kno-
wledge in language comprehension. Science 304:438-41
51. ChomskY N (1965) Aspects of the Theory of Syntax. MIT Press, Cambridge MA
52. Friederici AD (2002) Towards a neural basis of auditory sentence processing. Trends Cognit.
Sci 6:78-84
53. Friederici AD (1995) The time course of syntactic activation during language processing: a
model based on neuropsychological and neurophysiological data. Brain Lang 50:259-281
54. Münte TF, Heinze HJ, Mangun GR (1993) Dissociation of brain activity related to syntactic
and semantic aspects of language. J Cogn Neurosci 5:335-344
55. Osterhout L, Holcomb PJ (1992) Event-related brain potentials elicited by syntactic anoma-
ly. J Memory Lang 31:785-806
56. Hagoort P (2003) How the brain solves the binding problem for language: a neurocomputa-
tional model of syntactic processing. NeuroImage 20(1):18-29
57. Federmeier KD, Kluender R, Kutas M (2002) Aligning linguistic and brain views on langua-
ge comprehension, In: Zani A, Proverbio AM (eds) The cognitive electrophysiology of mind
and brain. San Diego, Academic Press pp. 115-140
58. Hernandez A, Li P, MacWhinney B (2005) The emergence of competing modules in bilin-
gualism. Trends Cogn Sci 9:220-5
59. Proverbio AM, Adorni R, Zani A (2007) The organization of multiple languages in polyglots:
Interference or independence? J Neuroling 20:25-49
60. Illes J, Francis WS, Desmond JE et al (1999) Convergent cortical representation of semantic
processing in bilinguals. Brain Lang 70:347-63
61. Paradis M (1996) Selective deficit in one language is not a demonstration of different anato-
mical representation. Comments on Gomez-Tortosa et al (1995). Brain Lang 54:170-173
62. Perani D, Abutalebi J (2005) The neural basis of first and second language processing.
Current Opin Neurobiol 15:202-6
63. Roux FE, Lubrano V, Lauwers-Cances V et al (2004) Intra-operative mapping of cortical
areas involved in reading in mono- and bilingual patients. Brain 127:1796-810
64. Dehaene S, Dupoux E, Mehler J et al (1997) Anatomical variability in the cortical represen-
tation of first and second language. Neuroreport 8:3809-15
65. Lucas TH, McKhann GM, Ojemann GA (2004) Functional separation of languages in the
bilingual brain: a comparison of electrical stimulation language mapping in 25 bilingual
patients and 117 monolingual control patients. J Neurosurg 101:449-57
66. Fabbro F, Gran L, Basso G, Bava A (1990) Cerebral lateralization in simultaneous interpre-
tation. Brain Lang 39:69-89
67. Bates E, MacWhinney B (1989) Functionalism and the competition model. In: The
Crosslinguistic Study of Sentence Processing, MacWhinney B E Bates E (eds), pp. 3-73,
Cambridge University Press
68. Proverbio AM, Adorni R, Del Zotto M et al (2005) The effect of age of acquisition and pro-
ficiency on language-related brain activation in interpreters: an ERP study. Psychophysiol
42(S1):S7
Parte II
Aspetti pragmatici della comunicazione.
Indici psicofisiologici,
neuropsicologici e cognitivi
Capitolo 4
Comprensione di espressioni idiomatiche:
evidenze neuropsicologiche
Costanza Papagno

4.1 Introduzione

Le espressioni idiomatiche, una tra le forme più comuni di linguaggio figurato [1],
sono espressioni convenzionali, in cui cioè il significato non può essere dedotto in
base alla conoscenza che si ha del significato delle singole parole che le compon-
gono. La convenzionalità dà un’idea di quanto sia forte l’associazione fra
un’espressione e il suo significato all’interno di una certa cultura e di quanto
un’espressione possa essere compresa al di là del contributo del significato lette-
rale delle singole parole e in assenza di informazioni contestuali [2]. Le espressio-
ni idiomatiche non sono una classe omogenea, ma differiscono fra loro per un
numero rilevante di caratteristiche semantiche e sintattiche [2, 3]. In primo luogo,
variano relativamente alla trasparenza semantica: con questo termine ci si riferi-
sce alla facilità con cui il significato idiomatico può essere ricavato sulla base del-
l’immagine evocata. Ad esempio, un’espressione come “prendere il toro per le
corna” evoca una situazione potenzialmente difficile, che viene affrontata diretta-
mente, con coraggio: alla base di questa espressione si trova una metafora e
l’espressione è definita trasparente. Al contrario, “farsene un baffo”, che non
evoca alcuna immagine che permetta di risalire al significato figurato, è definita
opaca. Le espressioni opache hanno anch’esse alla base una motivazione, che può
essere storica o culturale e che in molti casi è andata perduta, ma che, a ogni modo,
non può essere direttamente percepita dai parlanti [4]. Un’altra dimensione delle
espressioni idiomatiche è costituita dalla loro decomponibilità: con questo termi-
ne si indica il fatto che in alcune espressioni il significato è distribuito tra le parti
che lo compongono [5]: per esempio in “vuotare il sacco”, il termine vuotare
rimanda direttamente all’azione di tirare fuori, cioè svelare, mentre il termine
sacco a un contenitore; in altri casi, invece, il significato dell’espressione non può
essere distribuito fra i suoi componenti, come accade, ad esempio, in “tirare le
cuoia”. In questo caso è l’espressione nel suo insieme a determinarne il significa-
to. Il grado di “congelamento sintattico” indica, invece, il livello di trasformazio-
ni sintattiche che le espressioni idiomatiche possono subire, continuando a conser-
vare il significato figurato [6]. Ad esempio, mentre “tenere banco” non può subi-
re trasformazioni, “abbandonare la nave che affonda” è passibile di modificazioni
(ad esempio, di numero “abbandonare le navi che affondano”, o tramite la passi-

M. Balconi (ed.), Neuropsicologia della comunicazione. © Springer 2008


122 C. Papagno

vizzazione “è stata abbandonata la nave che affonda”), nonostante le quali mantie-


ne il suo significato. Infine, molte espressioni, dette ambigue, possono avere anche
un significato letterale, determinato dalle normali regole semantiche e morfosin-
tattiche del linguaggio (ad esempio, “vedere le stelle”), mentre altre sono prive di
significato letterale plausibile (ad esempio, “far venire il latte alle ginocchia”) e
sono dette non ambigue [7, 8].
Negli ultimi dieci anni si è sviluppato un crescente interesse per lo studio del lin-
guaggio figurato nei pazienti cerebrolesi [9-13]. Nella maggior parte dei casi si tratta
di studi di gruppo, in cui si è valutata la comprensione e, più precisamente, la latera-
lizzazione emisferica dei processi di comprensione. Tuttavia, un errore comune è stato
quello di considerare come equivalenti le diverse forme di linguaggio figurato, in par-
ticolare metafore ed espressioni idiomatiche: non è infrequente trovare lavori che,
riportando esempi del materiale utilizzato, indicano espressioni idiomatiche come
esempi di metafore e viceversa. Inoltre, nel caso delle espressioni idiomatiche, non si
è molto spesso tenuto conto dei parametri linguistici elencati in precedenza.
La comprensione di espressioni idiomatiche è stata esaminata in popolazioni
diverse di pazienti, quali pazienti con lesioni focali, pazienti con probabile malat-
tia di Alzheimer e pazienti schizofrenici. Di recente si sono utilizzate anche tecni-
che elettrofisiologiche, come la stimolazione magnetica transcranica ripetitiva
(rTMS) e i potenziali evocati evento-correlati (ERP), nonché tecniche di neuroim-
magine, come la risonanza magnetica funzionale (fMRI).
Non verranno trattati, in questo capitolo, gli aspetti relativi alla produzione, in
quanto non esistono, fino a ora, studi specifici sulla produzione di espressioni idio-
matiche in pazienti con lesioni cerebrali. In generale i pazienti afasici producono in
modo automatico locuzioni familiari, espresse con normale prosodia e normalmen-
te articolate e tra queste sono incluse anche espressioni idiomatiche. Tale fenome-
no è tradizionalmente attribuito alle capacità verbali dell’emisfero destro.

4.2 Comprensione idiomatica in pazienti con lesione focale

La comprensione di espressioni idiomatiche nei pazienti con lesione focale è stata


esaminata utilizzando paradigmi diversi; nella maggioranza dei casi si tratta di
paradigmi offline. Il più diffuso, perché facilmente somministrabile anche a indivi-
dui afasici, è quello di associazione frase/figura. Al paziente viene presentata una
frase, oralmente o visivamente, e il compito è quello di scegliere la figura che cor-
risponde al significato figurato, fra due, tre o quattro alternative. Questa modalità
ha il limite che non esiste una rappresentazione univoca di un’espressione figurata.
Più raramente si sono utilizzati compiti di decisione lessicale, o si sono misurati i
tempi di reazione, oppure, infine, si è testata la lettura di frasi. Nella decisione les-
sicale i pazienti ascoltano o leggono frasi priming e poi compiono una decisione
lessicale relativamente a stimoli bersaglio (parole e non parole): le frasi priming
possono essere idiomatiche e letterali e le parole bersaglio possono essere relate al
significato idiomatico o a quello letterale. Nella misura dei tempi di reazione i
pazienti ascoltano una frase che contiene una parola bersaglio specificata e il com-
4. Comprensione di espressioni idiomatiche: evidenze neuropsicologiche 123

pito è quello di schiacciare un pulsante appena questa viene individuata; le frasi


sono in genere di tre tipi: idiomatiche, letterali (la stessa frase, ma in un contesto
che suggerisce una delle due possibili interpretazioni) e di controllo. Più raramen-
te si è chiesto ai pazienti di fornire spiegazioni orali delle espressioni idiomatiche
o di associare una parola, scelta fra quattro alternative, a una frase. Negli studi più
recenti, le espressioni sono state selezionate accuratamente, in base a familiarità,
trasparenza, ambiguità, mentre nei primi lavori non si era tenuto conto di ciò.

4.2.1 Ipotesi emisferica destra

I primi studi neuropsicologici sulla comprensione delle espressioni idiomatiche


hanno attribuito un ruolo determinante all’emisfero destro (per una revisione si
veda [14]), ma sono spesso partiti da un equivoco nell’interpretazione dei primi
risultati sul linguaggio figurato [15]. Winner e Gardner, infatti, avevano osservato
che pazienti afasici erano in grado di svolgere correttamente un compito in cui
dovevano associare espressioni metaforiche alla figura corrispondente, mentre i
cerebrolesi destri sceglievano l’immagine che rappresentava l’interpretazione lette-
rale. Tuttavia, quando si chiedeva agli stessi soggetti di spiegare il significato di tali
frasi, i pazienti con lesione focale destra fornivano la definizione corrispondente
all’interpretazione figurata, mentre cinque cerebrolesi sinistri (gli unici in grado di
essere testati nella modalità orale) davano una spiegazione letterale, pur avendo
scelto la figura che rappresentava il significato metaforico. L’errore nel riferire i
risultati di questo lavoro è duplice: in primo luogo, lo studio viene citato come
prova a favore dell’ipotesi emisferica destra per le espressioni idiomatiche, mentre
invece sono state utilizzate metafore e, in secondo luogo, l’unico elemento certo è
che i pazienti cerebrolesi destri hanno una prestazione scadente in un compito di
associazione frase/figura, ma sembrano in grado di cogliere il significato figurato,
come dimostrato dalle definizioni orali prodotte. Del resto una maggiore difficoltà
con materiale pittorico è stata costantemente riportata negli studi successivi.
I primi a utilizzare effettivamente espressioni idiomatiche sono stati Van Lancker
e collaboratori [16, 17], che riferiscono la presenza di una doppia dissociazione fra
comprensione di espressioni idiomatiche e comprensione di frasi letterali in pazienti
cerebrolesi destri e sinistri: mentre i primi ottenevano una prestazione normale con le
frasi letterali e una prestazione patologica con le espressioni idiomatiche, i pazienti
afasici mostravano un comportamento opposto. Tuttavia questi lavori non sono esen-
ti da critiche. Innanzitutto, anche se le frasi letterali e non letterali sono comparabili
per struttura, gli stimoli, in numero limitato, non sono stati selezionati sulla base
delle caratteristiche linguistiche intrinseche (trasparenza/opacità, decomponibilità
ecc.), e soprattutto lo stesso test comprende, oltre alle espressioni idiomatiche, pro-
verbi e frasi di cortesia, considerati insieme come “linguaggio familiare” [16, 17]. In
secondo luogo, non sono riportate informazioni sulla gravità dell’afasia, sulla sede e
sulle dimensioni della lesione, né sull’intervallo trascorso dall’esordio; inoltre, non
sono esaminate altre funzioni cognitive, quali l’attenzione, la percezione, la cogni-
zione spaziale, che potrebbero aver peggiorato la prestazione dei cerebrolesi destri,
124 C. Papagno

considerando la modalità di esame (prova di associazione figura/frase): infatti,


abilità visuopercettive e visuospaziali deficitarie, che forse non compromettono
l’esecuzione del compito con le frasi letterali di cui è possibile una sola rappresen-
tazione potrebbero non essere sufficienti per esaminare una figura che corrispon-
de a un significato astratto, per il quale vi sono più rappresentazioni plausibili o
comunque possibili. Quando deficit cognitivi o sensoriali associati a un deficit
emisferico destro provocano un’elaborazione subottimale degli elementi cruciali
dell’immagine o esauriscono le risorse disponibili per un’analisi ulteriore, i sog-
getti potrebbero scegliere l’opzione più semplice che corrisponde al significato
concreto dell’immagine stessa. Questa possibilità è confermata dalla presenza nei
pazienti eminattenti di una correlazione fra l’accuratezza nel compito di compren-
sione di frasi, testato con modalità di associazione frase/figura, e la prestazione in
prove che valutano l’eminattenzione, quali la cancellazione di stelle e la bisezio-
ne di linee [18]. Tornando allo studio di Van Lancker e Kempler del 1987, la pre-
stazione dei pazienti afasici è considerata normale, ma in realtà il punteggio medio
di risposte corrette risulta essere 72% per le espressioni idiomatiche, rispetto a un
valore di 97,3% ottenuto dai controlli. Gli stessi afasici presentavano un deficit
molto lieve (90% di risposte corrette) in una prova di comprensione di singole
parole. A Van Lancker e Kempler si deve, comunque, la creazione del primo test
standardizzato in lingua inglese, anche se non tarato, il Familiar and Novel
Language Comprehension Test (FANL-C). Questo test valuta la capacità dei sog-
getti di associare frasi letterali e non letterali a figure. Comprende 44 frasi, di cui
2 esempi e 20 prove per tipo di frase. I soggetti ascoltano la frase pronunciata dal-
l’esaminatore e devono indicare uno fra 4 disegni alternativi. Le alternative sono
rappresentate, oltre che dalla figura corretta, da due distrattori, ciascuno dei quali
include la rappresentazione di una parola contenuta nell’espressione, e da un terzo
distrattore che rappresenta l’opposto del significato figurato. Non è, invece, pre-
sente, al contrario della versione precedente usata dagli stessi autori, una figura
corrispondente al significato letterale, eliminata perché la scelta di tale figura
sarebbe tecnicamente corretta. L’esaminatore annota la risposta su un foglio pre-
disposto e registra il tempo impiegato per portare a termine ciascun subtest. La
prestazione è valutata come numero totale di risposte corrette e tempo totale
impiegato per ciascun subtest. Esistono valori medi e relative deviazioni standard
ottenute su un campione di 335 soggetti, neurologicamente indenni, di età compre-
sa fra i 3 e gli 80 anni, che però non tengono conto della scolarità. Oltre a non esse-
re disponibile una taratura, gli stimoli per le frasi familiari comprendono espres-
sioni idiomatiche, ma anche espressioni familiari in generale (ad esempio, uno sti-
molo è rappresentato dall’espressione inglese “I’ll get back to you later”), e quin-
di la sua utilità è molto discutibile, se non per una valutazione clinica di base.
Il problema relativo al ruolo che la modalità di esame può avere sul risultato è stato
sollevato da Tompkins e colleghi [19]. Infatti, a ragione, essi sostengono che dare una
definizione di una frase idiomatica o scegliere una figura non rappresenta altro che il
prodotto finale di un lavoro mentale complesso, cosicché l’origine degli errori in que-
sti compiti non è del tutto chiara. In altre parole, i compiti offline sono distanti nel
tempo (e parallelamente in termini di operazioni cognitive) dal richiamo o dall’elabo-
razione iniziale del significato. Al contrario, i compiti online richiedono una risposta
4. Comprensione di espressioni idiomatiche: evidenze neuropsicologiche 125

durante, e non dopo, il processo di comprensione. Per verificare questa possibile dif-
ferenza nel risultato dovuta al tipo di compito (offline o online), Tompkins e colleghi
hanno sottoposto venti pazienti cerebrolesi destri (40% con sintomi di eminattenzio-
ne), venti cerebrolesi sinistri (di cui il 65% afasico) e venti soggetti neurologicamente
indenni a due compiti di comprensione di espressioni idiomatiche. Il compito online
consisteva nel misurare i tempi di reazione dei partecipanti quando dovevano identifi-
care parole bersaglio di frasi idiomatiche familiari ambigue (ad esempio, “tagliare la
corda”) che erano inserite all’interno di due diversi contesti: uno spingeva verso l’in-
terpretazione figurata abituale della frase, mentre l’altro facilitava l’interpretazione in
senso letterale. In una terza condizione, la stessa parola bersaglio doveva essere iden-
tificata all’interno di contesti di controllo, cioè in frasi non idiomatiche (ad esempio,
“stringere la corda”), strutturalmente simili ai contesti idiomatico e letterale. I risulta-
ti in questo compito non hanno evidenziato differenze fra pazienti cerebrolesi e sog-
getti neurologicamente indenni: in particolare, tutti i partecipanti rispondevano più
velocemente alle parole bersaglio nel contesto idiomatico e letterale senza differenza
fra i due. Nel compito offline, invece, in cui i partecipanti dovevano dare una defini-
zione dell’espressione idiomatica, i due gruppi di pazienti sono risultati ugualmente
compromessi rispetto ai controlli. Sembra, pertanto, che pazienti con lesione cerebra-
le focale siano in grado di attivare e richiamare frasi idiomatiche e che i deficit di inter-
pretazione riflettano verosimilmente una compromissione in qualche stadio tardivo del
processo. Tuttavia, solo il 65% dei cerebrolesi sinistri di questo studio era afasico, e le
deviazioni standard dei tempi di reazione al compito online suggeriscono un’estrema
variabilità di prestazione all’interno del gruppo. Non è esclusa quindi la possibilità che
i pazienti afasici fossero selettivamente compromessi, se esaminati come gruppo a
parte. Inoltre, anche in questo studio, non vengono specificate né la sede esatta della
lesione, né la dimensione, ad eccezione del lato e di una grossolana distinzione fra
anteriori, posteriori, miste e prevalentemente sottocorticali.

4.2.2 Comprensione delle espressioni idiomatiche


nei pazienti afasici

Se in un primo tempo si è attribuito all’emisfero destro il compito di elaborare il lin-


guaggio figurato in generale, studi più recenti hanno rivalutato il contributo essenzia-
le dell’emisfero sinistro e in particolare del lobo temporale. Infatti, utilizzando una
prova di associazione frase/figura con tre alternative (figura bersaglio che rappresen-
ta il significato figurato, due distrattori di cui uno rappresenta il significato letterale e
l’altro è una figura non correlata), i pazienti afasici risultano gravemente compromes-
si nella comprensione di espressioni idiomatiche altamente familiari, opache, non
ambigue (in cui, cioè, il significato letterale non è plausibile), indipendentemente dal
tipo di afasia. Quando, malgrado i deficit di produzione, è possibile utilizzare una
prova di definizione delle stesse espressioni, la prestazione migliora, ma rimane
significativamente inferiore rispetto a quella dei controlli. È evidente che la modalità
di associazione frase/figura sottostima la capacità del paziente di comprendere le
espressioni idiomatiche. Un’analisi delle risposte date da pazienti afasici con distur-
126 C. Papagno

bi semantici ha mostrato che queste erano guidate dalle informazioni sintattiche: una
frase sintatticamente inappropriata spingeva a rifiutare l’interpretazione letterale e a
cercare l’alternativa figurata; il numero di risposte corrette era, infatti, significativa-
mente superiore per questo tipo di frase. Gli afasici, quindi, per eseguire il compito,
si servono delle componenti linguistiche preservate: i pazienti con deficit semantico-
lessicali [12], ma competenza sintattica relativamente intatta, sfruttano quest’ultima
e, se una frase risulta inappropriata dal punto di vista sintattico (ad esempio, “tenere
banco”), la interpretano più facilmente in modo figurato. Al contrario, per le frasi sin-
tatticamente ben formate (come “far cadere le braccia”) viene fornita l’interpretazio-
ne letterale, anche se implausibile, dato che il paziente con deficit semantici non rico-
nosce la non plausibilità. Nei pazienti con disturbi sintattici e semantica indenne [11],
invece, la prestazione correla inversamente con la plausibilità dell’interpretazione let-
terale: quanto meno questa è plausibile, tanto più facilmente il paziente produrrà una
risposta corretta. La prestazione dei pazienti afasici risulta deficitaria non soltanto
rispetto a soggetti neurologicamente indenni della stessa età e scolarità, ma anche
rispetto a pazienti cerebrolesi destri [18]. Questi dati sembrano indicare che i parlan-
ti utilizzano sia le competenze semantico-lessicali sia le componenti morfosintattiche
per comprendere le espressioni idiomatiche e quindi l’elaborazione di queste segue lo
stesso processo utilizzato per l’elaborazione delle frasi letterali; ciò confuta l’ipotesi
lessicale [20], che considera le espressioni idiomatiche come parole lunghe, comples-
se, e pertanto non passibili di analisi sintattica.
Come già detto, le espressioni idiomatiche non costituiscono un gruppo omoge-
neo. Negli studi descritti finora con pazienti afasici sono state utilizzate frasi idioma-
tiche opache non ambigue. È possibile che altri tipi di espressioni vadano incontro a
un’elaborazione diversa. Informazioni sono disponibili anche per le espressioni ambi-
gue, in cui, cioè, il significato letterale è plausibile [21]. In questo caso è stata più
spesso utilizzata una diversa modalità di esame, l’associazione frase/parola: si sono
presentate frasi sintatticamente semplici e quattro parole alternative tra le quali il
paziente doveva scegliere quella che esprimeva il significato della frase stessa; le
alternative consistevano in una parola associata al significato figurato della frase e tre
distrattori, questi ultimi rappresentati da una parola semanticamente associata con
l’ultima parola della frase e due parole non correlate, una che avrebbe potuto seguire
il verbo nel sintagma verbale, l’altra che era una parola astratta o concreta, a seconda
che la parola bersaglio fosse rispettivamente o astratta o concreta. Ad esempio, per
l’espressione “alzare il gomito” le alternative erano vino (corretta), gamba (associata
semanticamente), albero (distrattore concreto della stessa frequenza del bersaglio),
cassa (parola che può seguire il verbo e ha la stessa frequenza delle altre alternative).
Il razionale era il seguente: la scelta della parola bersaglio riflette la conoscenza e
l’accessibilità del significato idiomatico, la scelta semanticamente associata indiche-
rebbe un tentativo di interpretare letteralmente la frase quando il paziente non cono-
sce il significato idiomatico o è incapace di accedere a esso; le altre due scelte indi-
cherebbero una prestazione alterata sia dell’elaborazione figurata sia letterale. Anche
con questo tipo di espressione i pazienti afasici commettevano un numero significa-
tivo di errori, soprattutto di tipo semantico. Tale risultato può avere una duplice inter-
pretazione: la prima possibilità è che non venga riconosciuta la natura idiomatica
della frase, o alternativamente, che non venga inibito (o sia attivato più rapidamente)
4. Comprensione di espressioni idiomatiche: evidenze neuropsicologiche 127

il significato della parola associata semanticamente all’ultima parola della frase. Se


così fosse, allora il richiamo del significato figurato verrebbe bloccato da una sorta di
circuito a causa del quale il paziente non riesce a liberarsi del significato letterale
della frase. Potrebbe anche essere, semplicemente, che questi errori riflettano una
mancata elaborazione globale della frase, anche se tutti i risultati precedentemente
descritti fanno pensare che i pazienti vadano oltre l’analisi di una singola parola.
In generale, comunque, sia che si adotti un paradigma con figure sia uno con
parole, i pazienti mostrano una tendenza a fornire la risposta letterale, anche quan-
do questa è implausibile. Una possibile spiegazione è che, dal momento che le
risorse verbali sono compromesse, l’esecutivo centrale è coinvolto in misura mag-
giore nel compito, con il risultato che le risorse attentive vengono esaurite e quin-
di non sono disponibili per l’inibizione/soppressione del significato alternativo (let-
terale) attivato, anche se meno saliente rispetto a quello figurato.
I compiti utilizzati sono compiti offline e, quindi, come già ricordato, non abbia-
mo la certezza di cosa esattamente misurino. È quindi necessario ottenere risultati
convergenti, con diverse metodologie e compiti: non è un singolo esperimento a
essere definitivo, ma un insieme di dati sufficientemente ricco e coerente a dare
maggior forza a un’ipotesi, permettendo di escluderne altre. Mettendo a confronto la
prestazione di 15 pazienti afasici in tre compiti di comprensione di espressioni idio-
matiche non ambigue (definizione orale, associazione frase/figura, associazione
frase/parola), si è osservata una grande variabilità fra soggetti: alcuni pazienti risul-
tano gravemente compromessi e altri invece mostrano una prestazione sovrapponi-
bile a quella dei soggetti di controllo [22]. La prestazione in generale non è neces-
sariamente correlata alla gravità del deficit di linguaggio, tranne nel caso della spie-
gazione orale, che, come intuibile, i pazienti non fluenti non riescono a produrre.
Molti fattori, non solo linguistici, sembrano giocare un ruolo. Il tipo di compito ha
un effetto rilevante sulla prestazione dei pazienti, ma non su quella dei soggetti di
controllo: nel caso dei pazienti afasici, la presenza di una figura corrispondente al
significato letterale di espressioni non ambigue, anche se bizzarra, esercita un forte
effetto di interferenza, simile all’effetto Stroop. I pazienti non sono in grado di ini-
bire la risposta letterale quando se ne mostra esplicitamente la rappresentazione pit-
torica; ciò suggerisce che l’interpretazione letterale rimane in qualche modo attiva
mentre la frase viene elaborata, anche quando la plausibilità è molto bassa. Se fra le
alternative è presente una figura che contiene semplicemente una parola dell’espres-
sione idiomatica (per esempio nel caso di “far cadere le braccia”, una figura descrit-
ta da una frase che include la parola braccio, come un bambino con un braccio
rotto), questa viene scelta molto raramente (Fig. 4.1). Ciò suggerisce che tutta la
frase viene sottoposta a un tentativo di elaborazione e che la scelta non è condizio-
nata da un effetto lessicale, cioè dalla presenza di una singola parola.
Nel compito di accoppiamento frase/parola, in cui non vi è un’alternativa letterale
ma solo un distrattore semantico (per l’espressione precedente dito), si riduce l’inter-
ferenza dell’interpretazione letterale, ma permangono errori di tipo non correlato, che
dimostrano un mancato riconoscimento del significato dell’espressione. Quindi, evi-
dentemente, il significato figurato è perso e, quando è presente l’alternativa letterale,
quest’ultima viene individuata come possibile interpretazione, altrimenti si commette
un errore non correlato, che preserva la classe semantica (astratto/concreto). Questa è
128 C. Papagno

Fig. 4.1 Esempio di alternative per l’espressione non ambigua far cadere le braccia. 1. alternati-
va figurata; 2. alternativa letterale; 3. alternativa non correlata; 4. alternativa singola parola

una dimostrazione ulteriore che il paziente esegue un tentativo di analisi di tutta la


frase e non si limita a elaborare una singola parola. Infine, i pazienti con il paradigma
di associazione frase/parola producono un diverso pattern di errori a seconda che le
espressioni siano non ambigue o ambigue: con questo secondo tipo di espressioni,
infatti, gli errori sono soprattutto risposte associate semanticamente; inoltre, vi sono
pazienti gravemente compromessi con un tipo di espressioni e non con l’altro e vice-
versa, a prova che esiste una doppia dissociazione. È, quindi, probabile che l’elabora-
zione differisca, forse in relazione alla maggiore o minore salienza del significato let-
terale. I pazienti afasici mostrano in maniera inaspettata una prestazione migliore con
le espressioni ambigue, come se il significato letterale plausibile “aiutasse” l’attivazio-
ne di quello figurato: questo risultato inatteso merita, tuttavia, ulteriori indagini.
Un paradigma diverso, che ha dimostrato come le espressioni idiomatiche non
siano tutte elaborate allo stesso modo e in particolare in maniera olistica, come se
fossero parole lunghe, è stato utilizzato nel caso di un dislessico profondo, al quale
sono state fatte leggere espressioni idiomatiche costituite da un verbo e da un com-
plemento (sintagma verbale) o, alternativamente, da aggettivo e nome o da nome +
nome flesso (sintagma nominale) [10]: le espressioni idiomatiche che erano sintag-
mi verbali venivano elaborate come le frasi letterali di controllo e comportavano
errori morfologici nel verbo, mentre i sintagmi nominali erano letti meglio, ma con
errori a livello dei nomi flessi.
Accanto a numerose evidenze di pazienti afasici compromessi nell’elaborazione
di espressioni idiomatiche, vanno, tuttavia, ricordati anche pazienti che mostrano
una prestazione normale in compiti che utilizzano queste forme di linguaggio [23],
come nel caso di due pazienti descrittti in letteratura, uno con afasia di Wernicke e
4. Comprensione di espressioni idiomatiche: evidenze neuropsicologiche 129

uno con afasia globale, sottoposti a una prova di decisione lessicale: questo risulta-
to non contraddice, però, quanto riportato in precedenza, dal momento che gli stimo-
li utilizzati erano espressioni idiomatiche composte da due nomi con significato
ambiguo. Abbiamo appena osservato come i sintagmi nominali si comportino diver-
samente dai sintagmi verbali, che sono la forma più spesso utilizzata negli studi cita-
ti con pazienti afasici.
Dal punto di vista anatomico, i pazienti afasici con deficit nella comprensione
di espressioni idiomatiche mostrano due sedi lesionali cruciali: una a livello corti-
cale o sottocorticale, riscontrata soprattutto nel caso delle espressioni ambigue, e
l’altra temporale cortico-sottocorticale. Quest’ultima è costantemente coinvolta nel
caso della mancata comprensione di espressioni non ambigue. Tali risultati trovano
conferma in molteplici esperimenti di rTMS con paradigmi sia offline [24] sia onli-
ne. La stimolazione offline a livello dell’area 22 dell’emisfero di sinistra riduce
significativamente l’accuratezza e aumenta i tempi di reazione, senza differenze
significative tra frasi letterali e frasi idiomatiche. Se si studia la dinamica tempora-
le della comprensione con un paradigma online, si osserva un’interferenza sull’ac-
curatezza quando la stimolazione viene effettuata sull’area 22 di sinistra dopo 80
msec dalla presentazione dell’espressione e sull’area 9 di sinistra non solo dopo 80
msec, ma anche dopo 120 msec, a indicare che l’attivazione frontale persiste anche
quando è cessata quella temporale [25].

4.2.3 Corteccia prefrontale

Da quanto descritto finora appare chiaro che nell’elaborazione delle espressioni


idiomatiche intervengono anche processi extralinguistici. Infatti, una compromissio-
ne è evidente non soltanto nei pazienti afasici, ma è stata descritta, per esempio,
anche in una paziente con sindrome di Down [26], che presentava un deficit marca-
to delle funzioni esecutive, ma non del linguaggio proposizionale. Del resto, i
pazienti con lesione unilaterale destra sono compromessi solo se la lesione è in sede
prefrontale: i pazienti con lesione focale destra mostrano infatti una prestazione
comparabile a quella dei soggetti neurologicamente indenni, a eccezione di un sot-
togruppo con lesione frontale, anche solo sottocorticale. Questi ultimi sono altrettan-
to compromessi quanto i pazienti afasici con lesione temporale. Esperimenti di
rTMS e di attivazione confermano i risultati ottenuti con soggetti cerebrolesi. A parte
il già citato studio cronometrico, la stimolazione dell’area 9 sia di destra sia di sini-
stra [27] riduce i tempi di reazione e incrementa il numero degli errori in un compi-
to di comprensione di espressioni idiomatiche (paradigma frase/figura). Una rispo-
sta più rapida associata a una minore accuratezza suggerisce un rilascio dall’inibi-
zione. Il riscontro di un intervento della corteccia (ma anche della sostanza bianca
sottostante) prefrontale destra, oltre che sinistra, spiegherebbe perché i primi studi
neuropsicologici abbiano attribuito all’emisfero destro l’elaborazione delle espres-
sioni idiomatiche: dal momento che non è riportata la sede esatta della lesione, un
certo numero di pazienti potrebbe aver presentato una lesione prefrontale. Un coin-
volgimento prefrontale bilaterale è confermato anche da studi di attivazione che
130 C. Papagno

hanno impiegato paradigmi distinti, quali decidere se vi era congruenza fra un’im-
magine e una frase letterale o idiomatica [28] o se una parola avesse una relazione
con la frase (idiomatica o letterale) letta precedentemente [29]. Nella comprensione
di frasi letterali e non letterali risulta coinvolta una rete comune di attività corticale
che include le aree del linguaggio tradizionali; tuttavia l’attivazione è maggiore sia
in termini di estensione spaziale sia in termini di intensità per le forme idiomatiche.
Inoltre, vi sono aree selettivamente attivate nel caso delle espressioni idiomatiche
che comprendono, tra l’altro, il giro frontale superiore mediale sinistro e il giro fron-
tale inferiore bilaterale, oltre al giro temporale medio bilaterale.
Il ruolo delle strutture frontali potrebbe essere duplice: una volta che l’analisi lin-
guistica della stringa di parole ha avuto luogo, la scelta della risposta corretta richie-
de un processo di selezione associato a un monitoraggio; selezione e monitoraggio
sono verosimilmente compiti dell’esecutivo centrale, i cui correlati neurali sono loca-
lizzati a livello del lobo frontale. I pazienti con lesione frontale sono, infatti, quelli
che producono il maggior numero di risposte letterali rispetto ai pazienti con lesione
in sede non frontale. In secondo luogo, il ruolo della corteccia prefrontale nel control-
lo del linguaggio è dimostrato da diversi studi di attivazione, ad esempio, in compiti
che coinvolgono l’elaborazione di frasi, in cui l’ascoltatore (o il lettore) deve mante-
nere l’informazione per un periodo prolungato. Più in generale, la corteccia prefron-
tale dorsolaterale si attiva maggiormente quando il compito richiede che l’elaborazio-
ne semantica includa un livello astratto; infine, essa permette la messa in atto di infe-
renze nella comprensione di un testo. Questi sono tutti compiti che hanno risorse e
meccanismi comuni alla comprensione di espressioni idiomatiche.

4.2.4 Corpo calloso

Da quanto esposto finora, appare chiaro che una netta dicotomia fra i due emisferi è
da escludere e soprattutto che il linguaggio idiomatico segue la stessa procedura di
elaborazione di quello letterale; a ciò si aggiunge la necessità di scegliere fra signi-
ficati alternativi, attività che sembra essere sottesa dal giro frontale inferiore bilate-
ralmente; infine un processo cognitivo di livello superiore, mediato dalla corteccia
prefrontale anteriore, verosimilmente serve a monitorare e a integrare i risultati del-
l’analisi linguistica e della selezione fra significati in competizione. Dal momento
che in questo articolato processo intervengono, come si è visto, entrambi gli emisfe-
ri, è ipotizzabile che anche il corpo calloso svolga un compito rilevante. Questo è
quanto è stato studiato in bambini con spina bifida e ipoplasia e agenesia del corpo
calloso [30] con un paradigma di accoppiamento frase/figura, che ha utilizzato
espressioni controllate per ambiguità e decomponibilità: i bambini con questa ano-
malia sono risultati più lenti e meno accurati dei controlli della stessa età nell’accet-
tare l’interpretazione figurata delle espressioni idiomatiche non decomponibili. Il
corpo calloso potrebbe essere importante nel risolvere il conflitto fra i due significa-
ti, letterale e idiomatico, al termine del quale uno dei due viene respinto. Una prova
a sostegno di quanto appena esposto sarebbe rappresentata dal fatto che la difficoltà
dei soggetti con agenesia del corpo calloso è maggiore quando l’espressione ha un
4. Comprensione di espressioni idiomatiche: evidenze neuropsicologiche 131

significato letterale molto forte: se il trasferimento dell’informazione fra i due emi-


sferi è degradato o comunque più lento, l’informazione figurata potrebbe essere
meno accessibile. Le difficoltà riguardano soprattutto le espressioni non decompo-
nibili che richiederebbero una maggior integrazione interemisferica con l’informa-
zione contestuale.

4.3 Comprensione di espressioni idiomatiche in pazienti


affetti da malattia di Alzheimer

L’inibizione/soppressione del significato letterale sembra, quindi, necessaria alla


corretta interpretazione di espressioni idiomatiche. Questa funzione, come si è sug-
gerito, è sottesa dalle strutture prefrontali bilaterali che comunicano grazie al corpo
calloso. La corteccia prefrontale è una corteccia associativa; le cortecce associati-
ve vanno incontro ad atrofia nei processi degenerativi, sebbene nella malattia di
Alzheimer (AD) l’interessamento frontale si verifica tardivamente. Il linguaggio
dei pazienti con AD è frequentemente compromesso e i disturbi della comunicazio-
ne verbale sono descritti come precoci. Si tratta, soprattutto, di una compromissio-
ne dell’eloquio spontaneo con deficit semantici, mentre gli aspetti fonologici sono
preservati; tuttavia, anche il linguaggio figurato è descritto come deficitario.
Kempler, Van Lancker e Read [31] in uno studio su 29 pazienti AD con diversa gra-
vità di deterioramento, valutato con il Mini Mental State Examination (MMSE),
hanno evidenziato che questi pazienti, messi di fronte a frasi familiari da interpre-
tare, scelgono la risposta concreta (ad esempio, la figura descritta da una frase in
cui è presente l’elemento chiave dell’espressione idiomatica), il che suggerirebbe,
secondo gli autori, che questi pazienti utilizzano significati referenziali lessicali
(singole parole) per interpretare la frase. Tuttavia il MMSE dei pazienti esaminati
variava fra 2 e 28, comprendendo, quindi, soggetti apparentemente non dementi
(punteggio 28) per arrivare a pazienti in cui le prestazioni cognitive erano presso-
ché nulle (punteggio 2)! Inoltre, come già ricordato a proposito degli studi condot-
ti da questi autori con i cerebrolesi focali, sono utilizzate frasi familiari di vario tipo
e non esclusivamente espressioni idiomatiche.
In uno studio più recente [32], condotto su un gruppo di 39 pazienti AD di grado
lieve, con un punteggio al Milan Overall Dementia Assessment (MODA), compre-
so fra 62 e 80 (che corrisponde a un MMSE di 17-21), si è osservato che la com-
promissione del linguaggio figurato, testato con una prova di spiegazione orale di
metafore e di espressioni idiomatiche di vario tipo (opache/trasparenti,
ambigue/non ambigue), non è un sintomo precoce nella demenza. Un follow-up di
23 pazienti a 6-8 mesi non ha mostrato un significativo peggioramento del linguag-
gio figurato, soprattutto rispetto al linguaggio letterale, che invece andava incontro
a un marcato declino (si consideravano rispettivamente la fluenza semantica e il test
dei Gettoni come indici del livello di produzione e di comprensione), suggerendo
che esisterebbe comunque una certa indipendenza fra le due forme di linguaggio.
Infatti, undici pazienti presentavano una doppia dissociazione fra linguaggio pro-
posizionale e figurato. Anche considerando solo le dissociazioni estreme, cioè quei
132 C. Papagno

casi in cui i punteggi equivalenti (che permettono di confrontare la prestazione otte-


nuta da un soggetto a un test e quella ottenuta ad altri test tarati allo stesso modo,
al netto dell’influenza, potenzialmente diversa, che le variabili anagrafiche posso-
no avere su ciascuno di essi) erano 0 in una prova e 3 o 4 nell’altra [33], restavano,
comunque, otto pazienti con doppia dissociazione: sei di questi avevano una com-
promissione del solo linguaggio proposizionale e due il pattern opposto e cioè una
compromissione nella comprensione di metafore ed espressioni idiomatiche.
Quest’ultimo dato esclude la possibilità che il linguaggio letterale sia più semplice
di quello figurato. Inoltre, vi sono due altri importanti risultati, che dimostrano
come sia improprio utilizzare espressioni idiomatiche e metafore come se fossero
aspetti identici del linguaggio figurato: da un lato, la presenza di un paziente con
una dissociazione “forte” fra normale comprensione di metafore e patologica com-
prensione di espressioni idiomatiche, e, dall’altro, il diverso tipo di errore commes-
so, che nel caso delle espressioni idiomatiche è un’interpretazione letterale, mentre
nel caso delle metafore consiste in un tentativo di fornire comunque un’interpreta-
zione figurata, che però risulta solo parziale o del tutto errata.
Dal punto di vista anatomico gli studi con i pazienti AD non forniscono elemen-
ti rilevanti, ma indirettamente confermano che la comprensione del linguaggio
figurato dipende in parte dall’integrità della corteccia prefrontale, che, infatti, nella
malattia è compromessa più tardivamente. Tuttavia, il deficit emerge precocemen-
te se si utilizza il paradigma di associazione frase/figura, anziché la definizione
orale e se si selezionano espressioni di un solo tipo, e precisamente non ambigue
opache [34]. In uno studio condotto su quindici pazienti, il compito era di sceglie-
re fra due figure, una che rappresentava il significato letterale (implausibile e rap-
presentato da un’immagine bizzarra) e l’altra che rappresentava il significato idio-
matico di 40 espressioni non ambigue. Gli stessi pazienti sono stati sottoposti anche
a una prova di comprensione di frasi letterali e a un “compito doppio” per valutare
le funzioni esecutive. Mentre la comprensione letterale era normale in sette pazien-
ti e solo lievemente compromessa negli altri, la comprensione di espressioni idio-
matiche era molto scarsa in tutti i pazienti e significativamente inferiore a quella
dei soggetti neurologicamente sani; inoltre, correlava con la prestazione al “compi-
to doppio”. Quando la prova è stata ripetuta utilizzando come alternativa una figu-
ra che rappresentava una situazione non correlata, la prestazione migliorava signi-
ficativamente. Questo conferma la necessità che l’interpretazione letterale sia ini-
bita, processo che i pazienti AD non riescono a svolgere, pur non avendo perso la
conoscenza del significato, come dimostrato dal fatto che scelgono il significato
corretto in assenza dell’alternativa letterale. Se poi agli stessi pazienti si chiede di
produrre una spiegazione orale delle frasi presentate, viene comunque prodotta
qualche interpretazione letterale, se appena risulta relativamente accettabile nel
mondo reale. La stessa compromissione si osserva nei pazienti AD utilizzando
espressioni ambigue, in due modalità: associazione frase/figura (Fig. 4.2) e associa-
zione frase/parola. Il compito è significativamente più compromesso nella prima
modalità, ma la prestazione nella prova di associazione frase/parola correla con
l’effetto di interferenza misurato con il test di Stroop, con il compito doppio, e non
con prove di comprensione del linguaggio, come il test dei Gettoni e la compren-
sione di singole parole. Gli errori più frequentemente commessi sono quelli seman-
4. Comprensione di espressioni idiomatiche: evidenze neuropsicologiche 133

Fig. 4.2 Esempio di alternative per l’espressione ambigua “alzare il gomito”. 1. alternativa in cui
il verbo è seguito da una parola congruente; 2. alternativa in cui l’ultima parola della frase che
descrive la figura è concreta come l’ultima parola della frase idiomatica; 3. alternativa “semanti-
ca”: l’ultima parola che descrive la figura appartiene alla stessa classe semantica dell’ultima paro-
la della frase idiomatica; 4. alternativa figurata

tici: i pazienti AD scelgono la parola o la figura associata semanticamente all’ulti-


ma parola della frase idiomatica e vi sono alcune espressioni per le quali nessun
paziente fornisce la risposta corretta (ad esempio, “cambiare pagina”). È da notare
il fatto che mentre le due forme del test (associazione frase/figura e associazione
parola/figura) correlano fra loro nei soggetti neurologicamente indenni, non succe-
de altrettanto per le prestazioni dei pazienti.

4.4. Comprensione di espressioni idiomatiche


nei pazienti schizofrenici

I deficit neuropsicologici, presenti nell’85% dei pazienti schizofrenici, sono ormai


considerati centrali della patologia. Numerosi autori hanno sostenuto la presenza di
profili cognitivi diversi, indicanti alternativamente disfunzioni a carico del lobo fron-
tale, del lobo temporale, degli interi emisferi destro o sinistro oppure dei gangli della
base. L’ipotesi di un deficit dell’esecutivo centrale nei pazienti schizofrenici riscuote
maggior consenso, per varie ragioni, tra cui il fatto che questi individui mostrano scar-
se prestazioni in compiti esecutivi, in cui è richiesta l’inibizione di informazioni irrile-
vanti, il monitoraggio di nuove informazioni provenienti dall’ambiente, la gestione di
più compiti simultaneamente. Inoltre, studi di neuroimmagine funzionale riportano
134 C. Papagno

anomalie di attivazione a livello della corteccia prefrontale dorsolaterale (DLPFC),


struttura cerebrale coinvolta nelle funzioni esecutive, e tra le aree che mostrano, in
questi pazienti, una significativa riduzione della sostanza grigia in studi morfologici.
Inoltre, gli schizofrenici hanno difficoltà ad adottare un’attitudine astratta; è quin-
di lecito pensare che la comprensione del linguaggio figurato in generale e delle
espressioni idiomatiche in particolare possa essere compromesso in questa popolazio-
ne, dato il già citato ruolo della corteccia prefrontale. In tali pazienti risulta deficita-
ria l’interpretazione di espressioni ambigue. I pazienti schizofrenici sono in grado di
utilizzare il contesto per facilitare l’attivazione di significati appropriati e apprezzano
la relazione fra il contesto e le parole incontrate successivamente. Non sono, invece,
in grado di inibire l’attivazione di materiale contestualmente inappropriato. Di conse-
guenza, in un compito di decisione lessicale in cui una parola relativa all’espressione
idiomatica o al significato letterale era preceduta da un priming idiomatico o di con-
trollo, l’effetto priming compariva soltanto per le espressioni idiomatiche prive di
significato letterale plausibile, indicando pertanto che la mancanza di un’attitudine
astratta non interessa globalmente tutti gli aspetti linguistici [35]. Risultati simili sono
stati ottenuti utilizzando un compito analogo a quello impiegato per studiare la com-
prensione delle espressioni ambigue in pazienti afasici: si presentavano ai pazienti
schizofrenici espressioni fuori contesto e quattro alternative fra cui scegliere il signi-
ficato, rappresentate dal significato letterale, da quello figurato, dall’alternativa cosid-
detta concreta (cioè una parola semanticamente correlata all’ultima parola della frase
idiomatica) e da una alternativa non correlata [36]. Anche se la risposta scelta più fre-
quentemente era quella figurata, i pazienti schizofrenici fornivano un maggior nume-
ro di risposte letterali e anche concrete, che invece erano assenti nel caso dei parteci-
panti senza deficit psichiatrici. La scelta dell’alternativa concreta suggerisce che i
pazienti non necessariamente mostrano un’attitudine all’interpretazione concreta del
significato globale, bensì sembra indicare che essi si focalizzino su un dettaglio prima
di cercare di interpretare globalmente il significato.

4.5. Conclusioni

In conclusione, i punti fondamentali emersi dallo studio delle espressioni idiomatiche


in popolazioni di pazienti con patologie neurologiche o psichiatriche sono di seguito
elencati.

1. Non esiste una netta lateralizzazione emisferica, ma un’ampia rete neurale


distribuita nei due emisferi contribuisce all’elaborazione idiomatica. Tuttavia,
due strutture principali sono coinvolte: la regione temporale sinistra appare
cruciale per una prima analisi del significato; successivamente intervengono
strutture prefrontali a inibire il significato meno saliente della frase, cioè quel-
lo letterale, e ad attivare quello astratto. Dal momento che in questo processo
intervengono entrambi gli emisferi, anche una compromissione del corpo cal-
loso, attraverso cui avvengono gli scambi interemisferici, può impedire una
normale elaborazione.
4. Comprensione di espressioni idiomatiche: evidenze neuropsicologiche 135

2. La modalità di esame influisce sul risultato, solo nel caso dei soggetti con defi-
cit neurologici o psichiatrici, mentre non ha alcuna influenza nel caso di sog-
getti neurologicamente sani. Inoltre, se la modalità di associazione frase/figu-
ra è la più semplice da utilizzare con i pazienti afasici, non è esente da proble-
mi, in quanto ne sottostima la prestazione. Nel caso di pazienti con lesioni emi-
sferiche destre e conseguenti deficit attenzionali, spaziali o percettivi correla
con la prestazione a test che indagano queste funzioni. D’altro canto compiti
verbali, come la definizione orale, ma anche l’associazione frase/parola, pos-
sono essere di difficile esecuzione rispettivamente in un paziente con disturbi
nella produzione o nella comprensione di singole parole. Altre modalità, quali
la decisione lessicale o la lettura, non sono di facile utilizzo in pazienti afasi-
ci. È quindi consigliabile utilizzare più di una modalità di esame per ottenere
informazioni convergenti.
3. Il tipo di espressione e la sua struttura hanno altrettanta rilevanza. I pazienti si
comportano differentemente con frasi ambigue e non ambigue, frasi decompo-
nibili e non decomponibili, sintagmi verbali o nominali.

In generale, tutti i pazienti con deficit neurologici o psichiatrici hanno difficol-


tà nell’interpretare queste espressioni, anche se il livello di compromissione può
essere vario e almeno due fattori contribuiscono: i pazienti afasici hanno difficoltà
nel completare l’analisi linguistica e, quindi, esauriscono le loro risorse cognitive,
con conseguente deficit nell’inibizione dei significati alternativi; i pazienti con
danno prefrontale elaborano la frase, ma il deficit è presente nello stadio successi-
vo, quando si deve inibire uno dei significati alternativi o attivare quello figurato. I
dati raccolti contraddicono l’ipotesi emisferica destra e l’ipotesi psicolinguistica
secondo cui le espressioni idiomatiche sono parole estremamente lunghe, ma sug-
geriscono invece che la loro comprensione necessita di tutte le abilità linguistiche
ed extralinguistiche coinvolte nella comprensione del linguaggio letterale. Infine
indicano in maniera inequivocabile che non solo è sbagliato considerare indifferen-
temente metafore ed espressioni idiomatiche, ma che, all’interno di questa catego-
ria, è indispensabile distinguere fra varie forme, per ciascuna delle quali sembrano
essere messi in atto processi per lo meno parzialmente distinti.

Bibliografia

1. Gibbs RW (1999) Figurative language. In: Wilson R, Keil F (eds) The MIT Encyclopedia of
the cognitive science. MIT Press, Cambridge, pp. 314-315
2. Nunberg G, Sag IA, Wasow T (1994) Idioms. Language 70:491-538
3. Cacciari C, Glucksberg S (1995) Understanding idioms: do visual images reflect figurative
meanings? Eur J Cogn Psychol 7:283-305
4. Glucksberg S (2001) Understanding figurative language. Oxford University Press, Oxford
5. Gibbs RW, Nayak NP, Cutting C (1989) How to kick the bucket and not decompose: analy-
zability and idiom processing. J Mem Lang 28:576-593
6. Gibbs RW, Gonzales GP (1985) Syntactic frozenness in processing and remembering idioms.
Cognition 20:243-259
136 C. Papagno

7. Colombo L (1993) The comprehension of ambiguous idioms in context. In: Cacciari C,


Tabossi P (eds) Idioms: processing, structure, and interpretation. Lawrence Erlbaum,
Hillsdale, pp. 163-200
8. Colombo L (1998) Role of context in the comprehension of ambiguous Italian idioms. In:
Hillert D (ed) Syntax and semantics, vol 31. Academic Press, New York, pp. 379-404
9. Giora R, Zaidel E, Soroker N et al (2000) Differential effects of right- and left-hemisphere
damage on understanding sarcasm and metaphor. Metaphor & Symbol 15:63-83
10. Nenonen M, Niemi J, Laine M (2002) Representation and processing of idioms: evidence
from aphasia. J Neuroling 15:43-58
11. Papagno C, Genoni A (2004) The role of syntactic competence in idiom comprehension: a
study on aphasic patients. J Neuroling 17:371-382
12. Papagno C, Tabossi P, Colombo M et al (2004) Idiom comprehension in aphasic patients.
Brain Lang 89:226-234
13. Rinaldi MC, Marangolo P, Baldassarri F (2004) Metaphor comprehension in right brain-
damaged patients with visuo-verbal material: a dissociation (re)considered. Cortex
40:479-490
14. Burgess C, Chiarello C (1996) Neurocognitive mechanisms underlying metaphor compre-
hension and other figurative language. Metaphor Symbolic Activity 11:67-84
15. Winner E, Gardner H (1977) The comprehension of metaphor in brain-damaged patients.
Brain 100:717-729
16. Van Lancker D, Kempler D (1987) Comprehension of familiar phrases by left but not by right
hemisphere damaged patients. Brain Lang 32:265-277
17. Kempler D, Van Lancker D, Marchman V et al (1999) Idiom comprehension in children and
adults with unilateral brain damage. Dev Neuropsychol 15:327-349
18. Papagno C, Curti R, Rizzo S et al (2006) Is the right hemisphere involved in idiom compre-
hension? A neuropsychological study. Neuropsychology 20:598-606
19. Tompkins CA, Boada R, McGarry K (1992) The access and processing of familiar idioms by
brain-damaged and normally aging adults. J Speech Hear Res 35:626-637
20. Swinney DA, Cutler A (1979) The access and processing of idiomatic expressions. J Verb
Learn Verb Behav 18:523-534
21. Cacciari C, Reati F, Colombo M-R et al (2006) The comprehension of ambiguous idioms in
aphasic patients. Neuropsychologia 44:1305-1314
22. Papagno C, Caporali A (2007) Testing idiom comprehension in aphasic patients: the effects
of task and idiom type. Brain Lang 100:208-220
23. Hillert D (2004) Spared access to idiomatic and literal meanings: a single-case approach.
Brain Lang 89:207-215
24. Oliveri M, Romero L, Papagno C (2004) Left but not right temporal lobe involvement in opa-
que idiom comprehension: a repetitive transcranial magnetic stimulation study. J Cogn
Neuroscie 16:848-855
25. Fogliata A, Rizzo S, Reati F et al (2007) The time course of idiom processing. Neuropsychologia
45:3215-3222
26. Papagno C, Vallar G (2001) Understanding metaphor and idioms: a single case neuropsycho-
logical study in a subject with Down syndrome. J Int Neuropsych Soc 7:516-528
27. Rizzo S, Sandrini M, Papagno C (2007) The dorsolateral prefrontal cortex in idiom interpre-
tation: an rTMS study. Brain Res Bull 71:523-528
28. Romero Lauro LJ, Tettamanti M, Cappa SF, Papagno C (2007) Idiom comprehension: a pre-
frontal task? Cereb Cortex, doi:10.1093/cercor/bhm042
29. Zempleni MZ, Haverkort M, Renken R et al (2007) Evidence for bilateral involvement in
idiom comprehension: an fMRI study. Neuroimage 34:1280-1291
30. Huber-Okrainec J, Blaser, SE, Dennis M (2005) Idiom comprehension deficits in relation to
corpus calosum agenesis and hypoplasia in children with spina bifida meningomyelocele.
Brain Lang 93:349-368
31. Kempler D, Van Lancker D, Read S (1988) Proverb and idiom comprehension in Alzheimer
disease. Alzheimer Dis Assoc Disord 2:38-49
4. Comprensione di espressioni idiomatiche: evidenze neuropsicologiche 137

32. Papagno C (2001) Comprehension of metaphors and idioms in patients with Alzheimer’s
disease: a longitudinal study. Brain 124:1450-1460
33. Papagno C, Cappa SF, Garavaglia P et al (1995) La comprensione non letterale del linguag-
gio: taratura su soggetti normali. Archivio di Psicologia, Neurologia e Psichiatria 56:402-420
34. Papagno C, Lucchelli F, Muggia S et al (2003) Idiom comprehension in Alzheimer’s disea-
se: the role of the central executive. Brain 126:2419-2430
35. Titone, D, Holzman PS, Levy DL (2002) Idiom processing in schizophrenia: literal implau-
sibility saves the day for idiom priming. J Abnorm Psychol 111:313-320
36. Iakimova G, Passerieux C, Hardy-Baylé M-C (2006) Interpretation of ambiguous idiomatic
statements in schizophrenic and depressive patients. Evidence for common and differential
cognitive patterns. Psychopathol 39:277-285
Capitolo 5

Aspettative semantiche ed espressioni


idiomatiche: aspetti psicolinguistici
ed evidenze elettrofisiologiche
Cristina Cacciari, Francesco Vespignani, Nicola Molinaro,
Sergio Fonda, Paolo Canal

5.1 Introduzione

In questo capitolo indagheremo il ruolo dei meccanismi di anticipazione semantica


nella comprensione di espressioni i costituenti delle quali sono tipicamente legati
fra loro in una sequenza più o meno fissa, cioè le espressioni idiomatiche.1
Per molti di noi è difficile resistere alla tentazione di completare All you need
is… con una parola diversa da love. La memoria semantica, infatti, è un complesso
deposito che contiene non solo parole e concetti, ma anche stringhe di parole a cui
siamo stati ripetutamente esposti nel corso della nostra vita, siano essi versi di poe-
sia, frammenti di canzoni, slogan pubblicitari, titoli di libri e di film, espressioni
idiomatiche, proverbi, frasi fatte e così via [1, 2]. Secondo Jackendoff [3], in
American English ci sarebbero almeno tante parole quante sono le espressioni mul-
tiparole o fisse2 (cioè stringhe il cui significato è listato in qualche parte della
memoria semantica, ad esempio, frasi fatte, cliché, idiomi, phrasal verbs ecc.): cioè
circa 80.000. Calcoli di frequenza abbastanza approssimativi stimano che le perso-
ne usino 6 espressioni non letterali per minuto di parlato, in particolare 1,8 metafo-
re nuove e 4,08 metafore congelate, cioè convenzionalizzate dall’uso. Calcolando
una media di 2 ore di conversazione giornaliera e una vita media di 60 anni, pro-
durremmo 4,7 milioni di metafore nuove e 21,4 milioni di metafore congelate [4].
Se le espressioni fisse3 (siano essere letterali come Molte grazie o In riferimento a,
quasi-letterali come Più o meno o Così così o decisamente figurate come Essere al set-

1
In questo capitolo useremo espressione idiomatica e idioma come sinonimi, benché non lo siano.
2
In realtà, come vedremo, moltissime di queste espressioni non sono assolutamente fisse, ma
ammettono trasformazioni sintattiche, omissione di parti, varianti e così via.
3
Una parte della linguistica chiamerebbe alcune di queste espressioni collocazioni: vi è infatti una
consistentissima letteratura che ha affrontato da molti punti di vista il confine fra collocazioni,
idiomi, light verbs e così via. Per i lettori interessati, rimandiamo, ad esempio, a Fellbaum [9],
Nenonen e Niemi [10].

M. Balconi (ed.), Neuropsicologia della comunicazione. © Springer 2008


140 C. Cacciari et al.

timo cielo, Tanto va la gatta al lardo che ci lascia lo zampino) sono così pervasive nel
linguaggio quotidiano, è chiaro che nessuna teoria dell’elaborazione del linguaggio
può ignorarle. In effetti, negli ultimi trent’anni la ricerca sulla comprensione e produ-
zione di espressioni non letterali è stata piuttosto cospicua sia in psicolinguistica [5, 6]
sia, più recentemente, nelle neuroscienze cognitive (si veda anche il Capitolo 4; [7, 8]).
In questo capitolo, ci concentreremo soprattutto sulle aspettative semantiche che sono
generate in una frase da una classe particolare di espressioni non letterali: gli idiomi.

5.2 Cosa sono (e non sono) le espressioni idiomatiche

Le espressioni idiomatiche sono stringhe di parole il cui significato globale non è


generalmente deducibile dalle unità che le costituiscono, anche se i costituenti
impongono vincoli di tipo sintattico e talvolta semantico. Gli idiomi sono un subset
di quelle espressioni convenzionalizzate che i parlanti scambiano all’interno di una
comunità linguistica, probabilmente il più numeroso: secondo il filosofo del lin-
guaggio John Searle, le persone implicitamente adotterebbero una strategia del tipo
Parla idiomaticamente a meno che non vi sia una ragione speciale per non farlo.
Sappiamo oggi che la hidden assumption,4 criticata esplicitamente per la prima
volta da Wasow, Sag e Nunberg [11], secondo cui gli idiomi sarebbero arbitrary asso-
ciations between forms and meaning (p. 103), è stata un ostacolo alla comprensione
della variegata natura delle espressioni idiomatiche. Le espressioni idiomatiche non
formano, infatti, una classe omogenea e i principi che governano la loro variabilità sin-
tattica e semantica debbono essere ancora formalizzati, se mai lo saranno, sebbene i
primi lavori sulle caratteristiche sintattiche e semantiche degli idiomi risalgano all’ini-
zio degli anni Sessanta del Novecento. Tale disomogeneità si esplica nel fatto che alcu-
ne espressioni idiomatiche esprimono azioni semanticamente plausibili (ad esempio,
Alzare il gomito, Sporcarsi le mani), mentre altre azioni del tutto implausibili (Capire
fischi per fiaschi, Fare un buco nell’acqua); alcune sfruttano costruzioni non gramma-
ticali o poco frequenti (Volere o volare, Prendere cappello, Darsela a gambe), mentre
altre sono ben formate (Rompere il ghiaccio, Perdere la testa); alcune sono semanti-
camente ambigue essendo interpretabili tanto idiomaticamente quanto letteralmente
(Alzare il gomito, Perdere il treno)5, mentre altre hanno una sola interpretazione plau-
sibile, quella figurata (Essere al settimo cielo, Farsi di nebbia); alcune sono sintattica-
mente flessibili, permettendo modificazioni (ad esempio, il passivo in Il ghiaccio fu
finalmente rotto dalla ragazza quando si decise a chiedergli il numero di telefono, la
nominalizzazione in Quelle castagne dal fuoco, questa volta te le levi tu, l’inserzione
come in Tirava la pesante carretta familiare), mentre altre sono blocchi coesi cui l’in-
serzione di elementi esterni fa perdere il significato idiomatico (Giovanni alzava il

4
Essa è presente nei primi modelli della comprensione di idiomi [12-14].
5
Benché in queste espressioni ambigue vi sia quasi sempre un significato dominante, in molti casi
quello idiomatico.
5. Aspettative semantiche ed espressioni idiomatiche: aspetti psicolinguistici 141

dolorante gomito). L’introduzione di un aggettivo in un’espressione idiomatica può


produrre effetti diversi rispetto a quanto accade in espressioni letterali, in quanto nel-
l’idioma l’aggettivo può modificare non il costituente a destra o a sinistra ma l’intera
stringa agendo come commento metalinguistico sull’espressione idiomatica (come in
Tirava la ben nota carretta o Ruppe il proverbiale ghiaccio). Esistono, tuttavia, anche
casi in cui l’inserzione modifica localmente uno o più costituenti dell’idioma, come
nelle frasi letterali (il significato di Leave no legal stone unturned, grossomodo equi-
valente a Non lasciare niente di legale intentato, è, infatti, diverso da quello di Legally,
leave no stone unturned, Legalmente, non lasciare niente di intentato, come discus-
so da [11, 15]. Infine, anche il contributo della semantica dei costituenti6 al significato
idiomatico globale è tutt’altro che omogeneo: vi sono, infatti, espressioni del tutto opa-
che semanticamente7 (Tirare le cuoia, Fare di ogni erba un fascio) e altre che sembra-
no invece trasparenti (Arrampicarsi sugli specchi, Camminare su un terreno minato):
il fatto che conosciamo il significato di un’espressione può illusoriamente farci pensa-
re che sia semanticamente trasparente anche per chi ne ignori il significato figurato,
cioè che esista un mapping sistematico fra significati letterali e significato idiomatico,
ma si tratta, appunto, di un fenomeno in molti casi illusorio, come dimostrato elegan-
temente da Keysar e Bly [16] (sul problema, si veda [17]). L’origine metonimica o
metaforica di alcuni idiomi può essere ancora percepibile (ad esempio, in
Arrampicarsi sugli specchi, Camminare su un terreno minato; per una discussione su
questi idiomi quasi-metaforici si vedano Cacciari e Glucksberg [18]) e avere effetti in
compiti di tipo interpretativo, ma l’evidenza a favore del fatto che la trasparenza
semantica di un idioma (cioè quanto il significato globale di un idioma abbia a che
vedere coi significati dei singoli costituenti) incida in tempo reale sul tempo necessa-
rio a riconoscerlo e ad attivarne il significato è, in realtà, assai scarsa. Ciò non signifi-
ca che le proprietà semantiche dei verbi o dei nomi presenti negli idiomi non pongano
restrizioni che fanno interagire la semantica dei costituenti col significato non lettera-
le. Ciò è vero perfino in espressioni idiomatiche del tutto opache semanticamente:
come è stato notato da Wasow, Sag e Nunberg ([11]; si vedano anche [1, 19]; la ragio-
ne per cui non si può dire He lay kicking the bucket all week è che il verbo to kick deno-
ta un’azione discreta. In modo analogo, si può, invece, dire idiomaticamente He did-
n’t spill a single bean, perché i fagioli sono entità numerabili. L’estrema eterogeneità

6
L’assunzione di Wasow e colleghi [11], che ha poi aperto la strada alla Decomposition
Hypothesis di Gibbs e collaboratori [21], è che pieces of idioms typically have identifiable mea-
nings which combine to produce the meaning as a whole. Of course these meanings are not the
literal meanings of the parts. Rather, idiomatic meanings are generally derived from literal mea-
nings in conventionalized, but not entirely arbitrary ways (p. 109). L’idea di composizionalià delle
espressioni idiomatiche in realtà non ha trovato grandi evidenze psicolinguistiche a supporto se
non con compiti che rilevano processi interpretativi post-comprensione (ad esempio, giudizi di
accettabilità semantica, produzione o giudizi su parafrasi).
7
Per semanticamente opaco vs. trasparente si intende quanto il significato globale dell’espressione
idiomatica sia deducibile dal significato letterale dei costituenti e dalla struttura retorica complessiva
dell’idioma (se, cioè, abbia una origine metaforica, metonimica, e così via). Questa nozione si diffe-
renzia da quella di composizionalità adottata da Gibbs e colleghi [21] secondo cui ci sono idiomi, i
decomponibili appunto, in cui è possibile effettuare un mapping diretto 1:1 fra costituente letterale e
corrispondente significato idiomatico (per esempio, in spill the beans: spill=reveal, beans=secrets).
142 C. Cacciari et al.

di comportamento sintattico e semantico delle espressioni idiomatiche ha indotto alcu-


ni autori (ad esempio, [20]) a ipotizzare che la loro rappresentazione in memoria con-
tenga non solo il significato, ma anche gli eventuali vincoli sulla forma semantica sin-
tattica e sulle trasformazioni che possono subire senza perdere il significato idiomati-
co. In realtà, anche questa assunzione non è scevra da problemi, soprattutto alla luce
della consistente letteratura linguistica che in questi ultimi trent’anni ha cercato (e tal-
volta trovato) qualche livello di sistematicità del rapporto fra comportamento sintatti-
co e struttura semantica delle espressioni idiomatiche.
Spesso, nella letteratura cognitiva odierna, le espressioni idiomatiche sono con-
fuse con altre forme di linguaggio figurato: occorre, quindi, soffermarsi anche su
cosa le espressioni idiomatiche non siano. Scambiare un idioma con una metafora,
ad esempio, rischia di rappresentare un confound di una certa rilevanza sperimen-
tale oltre che teorica, in quanto, le diverse tipologie di espressione non letterale pos-
sono avere differenti rappresentazioni mentali che ne modulano i processi di elabo-
razione, con implicazioni dirette sui correlati neurali di tali processi. Le espressio-
ni idiomatiche si distinguono dalle metafore, pur potendo in alcuni casi diacronica-
mente provenire da esse, in quanto, mentre le metafore (anche le più convenziona-
lizzate) non hanno un significato unico e standardizzato nella comunità, potendo
richiamare alla mente più di un unico riferimento [22], gli idiomi hanno, invece, un
solo significato che può, tutt’al più, specializzarsi, ma non mutare a seconda della
situazione discorsiva. Le metafore hanno a che vedere coi processi di categorizza-
zione [22, 23], mentre le espressioni idiomatiche coi processi di recupero di signi-
ficati dalla memoria semantica. Le espressioni idiomatiche si differenziano, poi, dai
proverbi, in quanto questi ultimi sono atti linguistici compiuti, indefiniti temporal-
mente, segnalati da un pattern grammaticale specifico, da marche retoriche, fone-
tiche o da una struttura sintattica binaria (tema/commento); inoltre, i proverbi sono
spesso usati a commento di una situazione specifica condivisa dai parlanti.

5.3 Meccanismi di anticipazione semantica nella comprensione


di espressioni idiomatiche

Le espressioni idiomatiche, come molte altre espressioni fisse, condividono il fatto


che la loro identità può essere anticipata o predetta con ragionevole certezza sulla
base di un ammontare di input che varia in relazione a quanta parte della stringa
debba essere percepita/letta prima che essa richiami alla mente l’idioma corrispon-
dente. Ad esempio, se in un esperimento che utilizza una tecnica di completamento
di frammenti frasali di lunghezza crescente chiediamo ai partecipanti di completare
Sergio gli stava… otteniamo i completamenti più diversi, simpatico, antipatico ecc.
Quando aggiungiamo un costituente (col), e cioè presentiamo Sergio gli stava col…,
il 56% dei partecipanti produce il completamento idiomatico fiato sul collo. Se
aggiungiamo un ulteriore costituente (fiato) arriviamo al 95% di completamenti
idiomatici (sul collo). Le cose vanno assai diversamente se presentiamo frammenti
come Giovanni era… /Giovanni era in… /Giovanni era in mezzo… /Giovanni era in
mezzo a… /Giovanni era in mezzo a una… anche in quest’ultimo caso la percentua-
5. Aspettative semantiche ed espressioni idiomatiche: aspetti psicolinguistici 143

le di completamenti idiomatici (strada)8 è bassa (24%). Secondo la terminologia


proposta in Cacciari e Tabossi [24], il primo tipo di idioma è prevedibile, cioè è rico-
nosciuto come stringa idiomatica ben prima dell’ultimo costituente, mentre il secon-
do tipo di idioma è non prevedibile e il suo significato idiomatico è riconosciuto solo
dopo che l’ultimo costituente (cioè l’intera stringa) sia stata elaborata.
Questo meccanismo di anticipazione semantica (ci ritorneremo) non è affatto spe-
cifico delle espressioni idiomatiche o delle espressioni fisse: si sa ormai da tempo che
più lungo è un frammento di frase e meno sono le alternative disponibili nel linguag-
gio per continuarlo in modo sintatticamente ben formato e semanticamente plausibi-
le [25]. Il concetto di cloze probability di un costituente frasale (cioè la proporzione
di risposte che completano il costituente mancante con quello specifico), originato dal
lavoro di Taylor sulla leggibilità dei testi [26], si basa, appunto, sull’idea che più un
contesto frasale diventa informativo, nel senso della riduzione dell’incertezza su pos-
sibili completamenti alternativi [27], più l’ampiezza del range di risposte diminuisce
e più l’abilità del lettore di prevedere la risposta più probabile aumenta [28]. La sco-
perta dell’N4009 da parte di Kutas e Hillyard [29, 30], un potenziale evento-correla-
to con una deflessione negativa con un picco intorno ai 400 ms dalla comparsa dello
stimolo10 e una distribuzione sullo scalpo prevalentemente centrale, spesso legger-
mente lateralizzata a destra (si veda Capitolo 3), ha contribuito in modo decisivo al
rilancio del concetto di previsione o anticipazione:11 il miglior predittore dell’ampiez-
za dell’N400, secondo Marta Kutas, è, infatti, proprio la cloze probability del costi-
tuente, in quanto la sua proporzione di cloze probability in un determinato contesto e
l’ampiezza dell’N400 associata sono inversamente proporzionali.
Il riconoscimento della natura idiomatica di un frammento più o meno lungo
di costituenti è cruciale per una delle ipotesi sulla comprensione delle espressioni
idiomatiche: l’ipotesi della Configurazione (Configuration Hypothesis).12 Essa è

8
In questo caso, come in genere negli idiomi ambigui, è buona norma essere certi che i soggetti
intendano la frase idiomaticamente.
9
Nell’esperimento classico di Kutas e Hillyard [29], ai partecipanti venivano mostrate visivamen-
te frasi che terminavano in modo semanticamente congruo (I take my coffee with cream and
SUGAR) o incongruo (I take my coffee with cream and DOG). La negatività nel tracciato EEG era
molto più ampia quando il costituente finale era incongruo (SUGAR) che congruo (DOG. Per una
rassegna delle componenti ERP implicate nella comprensione del linguaggio, si vedano, ad esem-
pio, [31, 2, 32; Mado Proverbio in questo volume].
10
L’N400 è stata osservata non solo in relazione a stimoli linguistici ma anche a disegni, fotogra-
fie, voci e suoni ambientali (per i riferimenti del caso si veda [2]).
Per brevità, useremo i concetti di previsione e anticipazione come fossero intercambiabili: in realtà
11

non lo sono, ma una disamina della differenza ci porterebbe lontano dallo scopo di questo capitolo.
12
Essa è nata in risposta a un’ipotesi classica, la Lexical representation hypothesis [13], che assu-
meva che le espressioni idiomatiche fossero rappresentate come parole lunghe, cioè unità lessica-
li multiple (multiword lexical entry), listate insieme a tutte le altre parole nel lessico; il loro signi-
ficato sarebbe recuperato analogamente a quanto accade per le parole. Per questi autori, l’elabo-
razione dei due significati, letterale e idiomatico, inizierebbe simultaneamente a partire dalla
prima parola della stringa. Ma il riconoscimento dell’espressione idiomatica è più veloce della
computazione della corrispondente stringa letterale, in quanto si basa sul recupero del significato
globale dell’espressione in quanto parola lunga, troncando, quindi, l’analisi linguistica.
144 C. Cacciari et al.

stata proposta originalmente da Cacciari e Tabossi [24] e postula che il significa-


to delle parole che formano un idioma sia attivato fino al momento in cui la
sequenza stessa è riconosciuta come una configurazione idiomatica. Riprendendo
l’esempio precedente, in un idioma prevedibile come Sergio gli stava col fiato sul
collo, il costituente che determina un significativo incremento della probabilità di
un completamento idiomatico (fiato) viene definito punto di riconoscimento (PR)
dell’idioma. Il punto di riconoscimento varia da idioma a idioma e può variare
anche per lo stesso idioma a seconda del contesto frasale che lo precede.13
La comprensione degli idiomi sfrutta, dunque, le stesse unità lessicali attivate
durante la comprensione di frasi letterali. In altre parole, vi è un solo tipo di elabo-
razione della sequenza idiomatica fino al momento in cui, successivamente al punto
di riconoscimento dell’espressione idiomatica, il significato della configurazione
viene recuperato dalla memoria semantica ed emerge; un processo che, in un conte-
sto neutro e per stringhe non prevedibili prima dell’ultimo costituente, richiede
tempo per essere concluso [24]. L’ipotesi della Configurazione ha trovato conferma
in svariati lavori sulla comprensione [33-39]. Anche alcuni studi sulla produzione di
espressioni idiomatiche hanno ottenuto risultati compatibili con tale ipotesi [20, 40]:
ad esempio, in una serie di esperimenti che usano una tecnica di induzione di erro-
ri, Cooper Cutting e Bock hanno trovato fusioni di espressioni idiomatiche (idiom
blends) che rivelano un effetto congiunto della sintassi e della semantica, in partico-
lar modo delle somiglianze fra significati letterali e idiomatici (ad esempio, Swallow
the bullet invece di Bite the bullet; oppure The road to Chicago is straight as a pan-
cake, una fusione di Straight as an arrow e Flat as a pancake). Anche questi risul-
tati suggeriscono che le espressioni idiomatiche non vengano prodotte come unità
frasali dai costituenti semanticamente vuoti, come ipotizzato originariamente nella
hidden assumption prima menzionata [13, 41], bensì possano essere analizzate
semanticamente ed elaborate sintatticamente, come d’altronde era già stato proposto
da Wasow e colleghi [11, 34].
Come dicevamo, il punto di riconoscimento di un’espressione idiomatica è general-
mente operazionalizzato sulla base di test offline di completamento attraverso cui viene
determinato un valore di cloze probability specifico per ogni idioma. Un risultato
sostanzialmente condiviso nella letteratura psicolinguistica è che, in un contesto neutro,
il significato degli idiomi prevedibili (cioè quelli che vengono completati idiomatica-
mente prima dell’ultimo costituente) sia già attivo alla fine della stringa. Al contrario, i
risultati sono tutt’altro che omogenei per quanto riguarda le espressioni non prevedibi-
li: differenze metodologiche concernenti proprio la classificazione di un idioma come
prevedibile o non prevedibile possono almeno in parte spiegare tale disomogeneità (per
altri fattori concorrenti si vedano [35, 33]). Infatti, la soglia utilizzata per classificare un
idioma come non prevedibile è assai variabile: in alcuni studi è data dal 5% di comple-
tamenti idiomatici [24], in altri dal 10% [36, 38], 15% [33] fino al 27% [39]. Anche la

13
Gli idiomi sono particolarmente sensibili agli effetti dell’informazione che li precede e anche un
contesto minimo può anticiparne il riconoscimento, come mostrato in Peterson e colleghi [34], che
non trovano attivazione dell’espressione idiomatica in The soccer player… kicked the... mentre la
trovano quando lo stesso verbo è preceduto da un agente come The old man… (per risultati ana-
loghi si vedano Fanari e colleghi, submitted [35]).
5. Aspettative semantiche ed espressioni idiomatiche: aspetti psicolinguistici 145

soglia di cloze probability utilizzata per classificare un idioma come prevedibile varia:
dal 90% di completamenti idiomatici [38], all’85% [33, 42], fino al 50% o meno [39].
Che differenza esiste, se esiste, fra anticipare in una frase una continuazione let-
terale e anticiparne, invece, una idiomatica? Da una parte sembrerebbe intuitivo che
la frequenza di co-occorrenza dei costituenti lessicali che formano una stringa idio-
matica familiare (o altri tipi di espressioni fisse) sia più alta di quella di costituenti
che occorrono liberamente nel linguaggio letterale. Dunque, essendo i costituenti
degli idiomi maggiormente legati fra loro, i meccanismi di anticipazione semantica
all’opera negli idiomi e nel linguaggio letterale potrebbero differire. Confrontiamo,
ad esempio, Giovanni si è tirato la zappa… con Giovanni ha tagliato il dolce con…
Nel primo caso il frammento frasale può essere sufficiente a richiamarci alla mente
l’esistenza dell’idioma tirarsi la zappa sui piedi e il significato corrispondente. In
questo, come in molti altri casi, esiste un solo idioma che corrisponde a quel fram-
mento, anche se non possono essere esclusi meno frequenti completamenti letterali
(Giovanni si è tirato la zappa in fronte). Nel caso dell’esempio letterale, invece, c’è
più di un costituente che può fungere da argomento del verbo tagliare, anche se cer-
tamente alcuni avranno una cloze probability più alta di altri14 (ad esempio, coltello
vs. cucchiaino). Ma, come hanno elegantemente dimostrato Altman e Kamide [43]
(si vedano anche [44, 45]), anche i vincoli letterali sembrano assai prepotenti e inter-
vengono precocemente: se mentre ascoltiamo frasi come The boy will move the cake
o The boy will eat the cake ci viene mostrata sullo schermo di un computer una scena
in cui c’è una sola cosa edibile (una torta) insieme a oggetti distrattori spostabili
(macchinina, palla, trenino elettrico), i movimenti oculari misurati 50 millisecondi
(ms) dopo l’onset del verbo differiscono sostanzialmente a seconda della frase: col
verbo move la prima saccade sul target (l’immagine del dolce) comincia 127 ms
dopo l’onset di cake, mentre col verbo eat la prima saccade avviene 85 ms prima
dell’onset del nome cake. In altre parole, l’informazione estratta dal verbo può esse-
re usata per guidare i movimenti oculari su qualunque oggetto nella scena visiva sod-
disfi i requisiti selezionali del verbo. L’anticipazione della saccade mostra che il pro-
cesso inizia prima dell’arrivo dell’informazione linguistica corrispondente all’ogget-
to diretto del verbo [43]. Gli autori, sulla scia dei recenti modelli Multiple Constraint
Based della comprensione [48], propongono che nell’elaborazione frasale entrino in
gioco meccanismi di tipo predittivo che originano dalla relazione fra verbi, argo-
menti sintattici e i contesti reali in cui i verbi occorrono (per una teoria della com-
prensione sintattica basata sul concetto di aspettativa, si veda [49]).
Una differenza certa fra espressione idiomatica e letterale sembra comunque
esserci e concerne la composizionalità del significato. In altre parole, quand’anche si
trovassero due frasi, una letterale e una idiomatica, i cui costituenti post-verbali hanno
la stessa probabilità 1, i meccanismi di comprensione delle due frasi restano diversi:
la comprensione della stringa idiomatica si basa, infatti, solo parzialmente su una stra-

14
È tuttora oggetto di discussione quanto l’assegnazione di ruoli tematici sia guidata solo dalle
informazioni grammaticali che possediamo sui verbi o anche dalla nostra conoscenza del mondo
relativa agli agenti e ai pazienti tipici che si associano con l’azione che il verbo denota (per una
discussione [46, 47]).
146 C. Cacciari et al.

tegia di tipo composizionale: i significati di costituenti vengono infatti incremental-


mente attivati e contribuiscono a formare una rappresentazione del significato della
frase solo fino al punto di riconoscimento dell’idioma dopo il quale viene recuperato
dalla memoria semantica il significato idiomatico15 della stringa che deve essere poi
integrato nella rappresentazione frasale. Per una frase letterale, invece, una strategia
composizionale è sufficiente in linea di principio a dar conto del suo significato.

5.4 Aspettative semantiche modulano l’attività


elettrofisiologica nel corso della comprensione del linguaggio

La ricerca elettrofisiologica sull’elaborazione del linguaggio, a partire dai primi studi


di Marta Kutas e colleghi [29] (per una rassegna si vedano [2, 50]), all’inizio degli
anni Ottanta del Novecento, ha messo il luce che il cervello umano è molto sensibile
alle proprietà distribuzionali degli stimoli linguistici in contesto. In particolar modo,
come abbiamo già visto, l’ampiezza di una delle componenti più indagate in ambito
linguistico, l’N400,16 mostra l’effetto specifico delle restrizioni semantiche poste su
una parola dal segmento di frase che la precede: l’N400 è, infatti, sensibile a quanto
un certo frammento frasale abbia preparato l’arrivo di una parola specifica [50].
Come hanno sottolineato Kutas e Federmeier [51], il cervello usa l’informazio-
ne contestuale data dalla frase per prevedere (cioè anticipare e preparare per) i
tratti percettivi e semantici dei costituenti che è più probabile che appaiano per
comprendere il significato inteso di una frase con la velocità tipica con cui di soli-
to arriva (p. 466). Ciò risponde, tra l’altro, a un principio di economia cognitiva più
generale: il sistema di comprensione del linguaggio usa tutta l’informazione che
può tanto precocemente quanto riesce per restringere la ricerca nella memoria
semantica e facilitare l’elaborazione della/e parola/e che è più probabile che arri-
vi/no. Tale strategia predittiva permette un’elaborazione più efficiente quando
l’aspettativa è soddisfatta ([51], p. 467).
Per esemplificare che cosa si intenda per utilizzo online delle aspettative genera-
te dal contesto, presenteremo solo uno dei moltissimi lavori elettrofisiologici che le
hanno indagate, recentemente pubblicato in Nature Neuroscience da DeLong e colle-
ghi [52]. Gli autori hanno mostrato come i lettori usino le parole di una frase per sti-
mare la probabilità relativa dei costituenti che verranno: in specifico, per determina-
re quanto i lettori preattivino specifici articoli e nomi prima della loro concreta occor-
renza in una frase (e poter così rispondere all’annoso quesito se l’N400 sia associata
a un effetto di sorpresa per l’arrivo di un costituente inatteso o alla difficoltà di inte-
grazione semantica nel contesto di tale costituente), vengono mostrate frasi come, ad
esempio, The day was breezy so the boy went outside to fly a kite. Il sintagma nomi-

15
I risultati ottenuti da Peterson e colleghi [34] dimostrerebbero che l’analisi sintattica della strin-
ga continua, invece, anche dopo che si sia riconosciuta la sua natura idiomatica.
16
Non è certo l’unica: sono, infatti, numerosissimi i lavori che hanno indagato altre componenti
associate all’elaborazione semantica (per una rassegna si veda [2]).
5. Aspettative semantiche ed espressioni idiomatiche: aspetti psicolinguistici 147

nale a kite è quello più frequentemente ottenuto (fra il 96% e il 100%) in completa-
menti offline del frammento precedente, ma la frase era presentata anche con altri sin-
tagmi nominali finali plausibili ma con valori di cloze probability decisamente più
bassi (ad esempio, an airplane). La logica del lavoro è che se il meccanismo antici-
patorio fa davvero parte integrante dell’elaborazione frasale, allora l’attività elettrofi-
siologica dovrebbe essere modulata non solo dal nome, come già si sa, ma anche dal-
l’articolo indeterminativo a seconda che esso sia appropriato alla continuazione più
attesa (a per kite) o a quella meno attesa (an per airplaine). I risultati mostrano che
l’ampiezza dell’N400 diminuisce non solo all’aumentare della cloze probability del
nome, come era ragionevole attendersi, ma anche in funzione del tipo di articolo.
La modulazione dell’N400 sul nome (kite vs. airplaine) avrebbe potuto essere
spiegata anche dalla difficoltà di integrazione del referente meno probabile (air-
plaine) nel contesto. Ma il fatto che una simile modulazione dell’N400 venga
osservata già a livello dell’articolo corrobora l’ipotesi che il sistema di elaborazio-
ne linguistico formi online delle aspettative sulla base del contesto frasale prece-
dente al fine di preattivare, su base probabilistica, le continuazioni possibili (The
day was breezy so the boy went outside to fly → a kite).
Come ben sappiamo, la capacità di anticipare stati fisiologici, eventi o compor-
tamenti altrui è alla base della sopravvivenza e si esplica nella nostra abilità di evi-
tare eventi pericolosi, muoverci nell’ambiente o effettuare azioni quotidiane. Come
ha sostenuto recentemente Bar ([53], p. 280), il cervello umano è proattivo essen-
do continuamente occupato a generare previsioni che approssimano il futuro rile-
vante. Malgrado questo, il concetto di anticipazione ha giocato un ruolo minore
nelle teorie sull’elaborazione del linguaggio [52, 54] e anzi è stato, e tuttora è, espli-
citamente avversato (come in [55]). Come sintetizzano efficacemente Van Berkum
e colleghi [54], l’idea che le persone possano anticipare o prevedere un contenuto
specifico in un modo che vada oltre un semplice meccanismo di priming intralessi-
cale non è mai stata molto popolare in psicolinguistica. Con l’eccezione degna di
nota di Altmann (…), gli autori di tanti recenti manuali di psicolinguistica (…) non
fanno alcun riferimento alla possibilità che le persone possano anticipare pezzi di
linguaggio in arrivo (p. 444), mentre stanno leggendo o sentendo una frase. Le
ragioni indicate da Van Berkum e colleghi sono molteplici: un bottom-up bias, pre-
sente soprattutto nei modelli di riconoscimento di parole, dovuto all’impostazione
modulare che ha relegato il ruolo del contesto a una fase tardiva del processo di
comprensione; l’impostazione proveniente dalla grammatica generativa che ha, con
ragione, insistito sulla natura produttiva del linguaggio, producendo però anche
un’iniziale diffidenza verso le ricerche ERP sul linguaggio.

5.5 Evidenze elettrofisiologiche sulla comprensione


di espressioni idiomatiche

Come dicevamo, le espressioni idiomatiche rappresentano candidati ideali per stu-


diare il ruolo dei meccanismi di anticipazione semantica nella comprensione del
linguaggio. Malgrado questo, a fronte delle migliaia di lavori con gli ERP che
148 C. Cacciari et al.

hanno indagato la comprensione di parole o frasi letterali nei loro diversi aspetti
(fonologici, ortografici, sintattici, semantici), gli studi dedicati alle espressioni idio-
matiche sono pochissimi, sostanzialmente cinque17 (su pazienti autistici ad alto fun-
zionamento si vedano [56]; schizofrenici [57]; su volontari sani [58, 59]).
I primi studi ERP sugli idiomi condotti da Strandburg e colleghi [56, 57] hanno
messo in luce l’importanza del contesto idiomatico nell’elaborazione di una parola
critica. In particolare, gli autori ipotizzano che popolazioni patologiche come auti-
stici e schizofrenici soffrano di deficit cognitivi che li rendono incapaci di costrui-
re un’adeguata rappresentazione interna del contesto (non solo linguistico) al fine
di poter controllare l’azione. In questi due studi, Strandburg e collaboratori presen-
tano coppie di parole, una successiva all’altra (per esempio, vicious dog, vicious
circle). La prima parola (vicious) funge da contesto alla seconda e i pazienti debbo-
no giudicare se la coppia di stimoli abbia o meno significato. Le coppie di parole
formano una frase minima alternativamente con un chiaro significato letterale
(vicious dog), con un significato idiomatico (vicious circle) o sono prive di senso.
Se il paziente non è in grado di integrare la seconda parola (circle vs. dog) nel con-
testo precedente (vicious), giudicherà la coppia idiomatica sulla base di una strate-
gia composizionale letterale e perciò sbaglierà giudicandola senza senso. Ma affin-
ché il paziente identifichi correttamente il significato di queste coppie di parole,
deve recuperarne dalla memoria semantica il significato figurato. Dalla letteratura
sappiamo che i pazienti autistici tendono a interpretare gli idiomi letteralmente, non
essendo in grado di interpretare le intenzioni comunicative altrui in enunciati ironi-
ci, doppi sensi ecc. Gli schizofrenici, d’altro canto, non riescono a integrare il con-
testo precedentemente immagazzinato in memoria con lo stimolo target. Infatti
Strandburg e colleghi, misurando gli ERP relativi alla seconda parola, trovano una
modulazione della N400 tra i differenti campioni: il gruppo di controllo dei volon-
tari sani mostra un progressivo aumento della N400 dalla condizione idiomatica, a
quella letterale e a quella priva di significato. Rispetto alla condizione letterale, la
coppia idiomatica elicita una negatività ridotta attribuita al fatto che la prima paro-
la della coppia idiomatica costituisce un contesto molto più forte rispetto a quello
delle frasi letterali (gli autori non controllano però la prevedibilità del secondo
costituente, dato il primo). I due gruppi di pazienti differiscono per quanto riguar-
da la condizione idiomatica: mentre rispetto ai controlli gli schizofrenici mostrano
un’aumentata negatività per la condizione idiomatica [57], gli autistici non mostra-
no alcuna negatività [56].
Un aspetto critico di questi due lavori, messo in luce dagli autori stessi, riguar-
da l’ampiezza della P300, una classica componente ERP che insiste su una finestra
temporale simile alla N400. Nei due studi sono emerse, infatti, differenze nell’am-
piezza di tale componente fra i gruppi (controllo vs. patologici) che gli autori inter-
pretano come indipendenti dalla manipolazione linguistica sperimentale (coppia
letterale vs. idiomatica vs. priva di senso). Mentre i soggetti autistici mostrano una
P300 di ampiezza maggiore rispetto ai controlli, tale componente è fortemente

17
Sono in generale pochi gli studi ERP sul linguaggio figurato: otto sono dedicati alle metafore e
uno solo ai proverbi.
5. Aspettative semantiche ed espressioni idiomatiche: aspetti psicolinguistici 149

ridotta negli schizofrenici. Tuttavia è possibile che le differenze di N400 per le con-
dizioni idiomatiche nei due studi siano, in realtà r,iconducibili a una diversa
influenza della P300 sul tracciato ERP. Le analisi PCA (Principal Component
Analysis) condotte dagli autori per isolare le componenti critiche evidenziano una
componente che insiste sulla finestra temporale della N400 (320-580 ms) e un’al-
tra su una finestra temporale successiva, identificata dagli autori come una P300
(450-850 ms). La famiglia delle P300 è, tuttavia, molto ampia e variegata, e quin-
di tale analisi non può escludere che vi sia una componente positiva più precoce che
si sovrappone additivamente alla N400 e ne modula l’ampiezza.
A volontari sani di lingua cinese è dedicato lo studio di Zhou e colleghi [58] in cui
vengono presentati visivamente idiomi, che in Cinese sono a sequenza fissa e immodi-
ficabile, il cui quarto ideogramma può essere congruente con l’idioma o incongruente.
Ai soggetti viene chiesto di decidere se il quarto ideogramma sia o meno appropriato.
Il tracciato elettrofisiologico (Fig. 5.1) mostra come rispetto alla condizione idiomatica,
la condizione di violazione eliciti tre componenti principali: una componente negativa
evidente sulle aree frontotemporali destre dello scalpo tra i 120 e i 150 ms; una compo-
nente negativa distribuita centralmente tra i 320 e i 380 ms; e, infine, una deflessione
positiva nelle aree temporo-parietali e occipitali dello scalpo tra i 480 e i 540 ms.
La prima componente (EHRN, Early Right Hemispheric Negativity) indichereb-
be una fase iniziale di elaborazione sintattica associata alla forma non attesa di una
parola; la seconda, una N400, un’integrazione delle analisi semantiche e sintattiche
dello stimolo; infine, la terza componente, una P600, indicherebbe un processo di
rianalisi per integrare la parola critica con il precedente contesto.

Fig. 5.1 ERP relativi all’elaborazione del costituente finale nella condizione di ideogramma con-
gruente (linea sottile) e incongruente (linea intermedia). La linea grossa rappresenta la differenza
tra le due condizioni (incongruente / congruente). Da [58], con autorizzazione
150 C. Cacciari et al.

In questo lavoro manca, tuttavia, una condizione letterale da confrontare con la


condizione idiomatica. Infatti, da un’ispezione visiva delle onde non sottratte sem-
bra che vi sia un picco positivo per la condizione idiomatica tra i 320 e i 380 ms,
piuttosto che una deflessione negativa per la violazione. Le altre componenti elici-
tate dalla violazione dell’idioma sono di minore interesse, in quanto non sembrano
essere legate all’elaborazione semantica della stringa idiomatica.
Un recente studio condotto in francese da Laurent e colleghi [59] non ha,
invece, ignorato la condizione letterale. Vengono presentate visivamente prive di
contesto frasale espressioni idiomatiche che hanno tanto un significato idioma-
tico quanto letterale (ad esempio, Rendre les armes) nel seguente modo: nella
prima schermata compare la prima parte dell’espressione (Rendre les) e nella
seconda il nome finale (armes). Trecento ms dopo viene presentato un target
semanticamente relato o meno al significato idiomatico di cui i soggetti debbo-
no giudicare la relazione semantica con la stringa. Gli ERP vengono registrati in
corrispondenza dell’ultima parola dell’idioma e del target. La principale mani-
polazione sperimentale consiste nel fatto che i significati idiomatici delle strin-
ghe sono molto salienti (Rendre les armes) o poco salienti (Enfoncer le clou). La
nozione di salienza, di provenienza pragmatica [60], è stata recentemente adat-
tata al linguaggio figurato da Giora (per una rassegna, si veda [61]), ma è fran-
camente di assai difficile definizione in quanto si sovrappone in parte con la
nozione di familiarità, in parte con la dominanza di un significato sull’altro, con
la wellformedness sintattica e semantica e, non ultimo, con la prevedibilità della
stringa come idioma. Anche nello studio di Laurent e colleghi non è chiaro che
cosa gli autori intendano per idiomi molto salienti o poco salienti: sembra ragio-
nevole supporre che intendano quelli il cui significato figurato è più o meno
dominante rispetto al letterale, benché vada notato come anche la prevedibilità
media dell’ultimo costituente dell’idioma sia un confound rispetto alla salienza:
infatti è del 45,5% per gli idiomi a bassa salienza e del 58,8% per i salienti. Dal
momento che gli autori concordano con Giora nel ritenere che gli idiomi salien-
ti siano in tutto simili al linguaggio letterale, le stringhe idiomatiche molto
salienti e quelle letterali non dovrebbero essere elaborate in modo diverso e
quindi dovrebbero dar luogo a tracciati ERP simili (ma, trattandosi di stringhe
ambigue presentate senza contesto, non sappiamo se i soggetti attivino entram-
bi i significati o solo quello dominante). Dovrebbero invece emergere differen-
ze ERP tra stringhe idiomatiche molto salienti e poco salienti (in quest’ultimo
caso potrebbe essere attivato solo il significato letterale della stringa, o almeno
potrebbe avere una priorità temporale su quello idiomatico, cosa che in questo
studio non è dato sapere).
I risultati di Laurent e colleghi mostrano solo una N400 elicitata dall’ultima
parola della stringa per idiomi poco salienti rispetto ai molto salienti. La morfologia
della P600 emersa sia per gli idiomi poco salienti sia per le frasi letterali di control-
lo appare piuttosto difforme da quella tipicamente osservata in letteratura, tanto da
far dubitare che si tratti davvero di una P600, come invece sostengono gli autori.
Gli studi finora condotti sugli idiomi che abbiamo schematicamente presenta-
to hanno, purtroppo, importanti limitazioni. I potenziali evocati sono stati sempre
registrati all’offset della stringa idiomatica, dove sono riportate modulazioni
5. Aspettative semantiche ed espressioni idiomatiche: aspetti psicolinguistici 151

della N400. Infatti, un effetto simile all’N400, indicato con il termine di wrap-up
negativity, emerge consistentemente in corrispondenza dell’ultima parola di frasi
non internamente coerenti rispetto a baseline coerenti. Tali effetti sono interpre-
tati come indice di una rielaborazione conclusiva della struttura e del significato
di una frase [62]. È possibile che tali effetti emergano anche alla fine di stringhe
idiomatiche, interferendo con possibili modulazioni indotte dagli stimoli speri-
mentali. Inoltre, come abbiamo visto, alcuni studi sono privi di una condizione
letterale di controllo. Infine, in tutti gli studi sono stati utilizzati compiti speri-
mentali che possono indurre strategie particolari di elaborazione.

5.6 Comprensione di espressioni idiomatiche


in italiano: N400 e correlati elettrofisiologici
di meccanismi di aspettativa categoriale

L’obiettivo del lavoro che abbiamo condotto è l’indagine dei correlati elettrofisiolo-
gici della comprensione di espressioni idiomatiche, come caso emblematico di strin-
ghe ad altissima aspettativa contestuale. La cornice teorica di riferimento è quella
proposta dalla Configuration Hypothesis secondo cui il riconoscimento della natura
idiomatica di una stringa è una sorta di prerequisito per l’attivazione del significato
idiomatico. Se ciò è vero, dovremmo poter rilevare differenze nei correlati elettrofi-
siologici prima e dopo il riconoscimento della natura idiomatica dell’espressione. A
tal fine è stato identificato un insieme di idiomi familiari (n = 87) e prevedibili prima
della fine della stringa. Generalmente erano privi di un corrispettivo significato let-
terale, o comunque il significato idiomatico era quello dominante. Per ogni idioma
è stato identificato il Punto di Riconoscimento (PR), cioè il punto dopo il quale era
stato dato almeno il 65% di completamenti idiomatici offline. La cloze probability
media al punto di riconoscimento era dell’86% (range 68-100%). Ogni stringa idio-
matica è stata inserita in una frase in cui i costituenti precedenti veicolavano un’in-
formazione neutra e che terminava con costituenti non idiomatici per evitare effetti
di wrap-up finale sull’idioma. Sono state create tre condizioni:

1. una condizione Idiomatica in cui l’espressione idiomatica veniva presentata nella


sua forma canonica (Maria aveva il coltello dallaPR parte del manico quella volta);
2. una condizione di Sostituzione in cui il punto di riconoscimento dell’idioma era
stato sostituito con un altro elemento lessicale della stessa classe grammaticale
compatibile con il contesto frasale precedente (Maria aveva il coltello senza
parte del manico quella volta);
3. una condizione di Violazione18 in cui il costituente successivo al punto di rico-

18
Le parole coinvolte nella manipolazione sperimentale in 2 e 3 sono state bilanciate per frequen-
za scritta, lunghezza, classe grammaticale, età d’acquisizione e concretezza rispetto al componen-
te corrispondente nell’idioma.].
152 C. Cacciari et al.

noscimento era stato cambiato con un altro elemento lessicale della stessa clas-
se grammaticale e anch’esso compatibile con il contesto frasale precedente
(Maria aveva il coltello dalla vicina quella volta).

Tanto la condizione di Sostituzione (Maria aveva il coltello senza parte del


manico quella volta) quanto quella di Violazione (Maria aveva il coltello dalla vici-
na quella volta) erano formate da frasi del tutto letterali e ben formate.
Nel corso dell’esperimento le frasi (29 per condizione più 120 filler) venivano
mostrate sullo schermo, costituente per costituente, al centro dello schermo (per
300 ms con intervallo inter-stimolo di altri 300 ms); il compito dei soggetti (n = 50)
era di lettura e comprensione (con domande di controllo sulla comprensione ogni
10 stimoli filler circa).19
Sulla base degli studi precedenti dovremmo aspettarci una N400 alla fine
dell’espressione idiomatica (cioè in corrispondenza di manico). In questo studio
eravamo tuttavia interessati al decorso temporale dei correlati ERP durante
l’elaborazione dell’idioma. Infatti, sulla base della Configuration Hypothesis, ci
attenderemmo che i correlati elettrofisiologici dell’elaborazione di queste frasi
siano più complessi: intanto le evidenze accumulate sulle frasi letterali suggeri-
scono che il sistema potrebbe essere sensibile alla co-occorrenza dei costituenti
anche prima di aver attivato il significato idiomatico, quindi in corrispondenza
del punto di riconoscimento20 (soprattutto quando si usino idiomi lunghi come
nel nostro caso); inoltre, dopo il punto di riconoscimento (cioè a PR+1), e prima
che la stringa finisca, il tracciato elettrofisiologico dovrebbe mostrare indici
qualitativamente diversi in funzione dell’avvenuto riconoscimento della natura
idiomatica dell’input.
Per chiarezza, mostreremo due diverse figure: nella Figura 5.2 il tracciato ERP
in corrispondenza del punto di riconoscimento per la condizione Idiomatica (linea
continua) (… il coltello dalla) e la condizione di Sostituzione (linea tratteggiata)
(… il coltello senza); nella Figura 5.3, invece, ciò che accade sul costituente suc-
cessivo al punto di riconoscimento per la condizione Idiomatica (linea continua)
(coltello dalla parte) e di Violazione (linea tratteggiata) (coltello dalla vicina).
L’effetto ERP al punto di riconoscimento dell’idioma (Fig. 5.2) mostra una
distribuzione spaziale e un decorso temporale caratteristici di una modulazione
dell’N400 spiegabile in termini di cloze probability dei costituenti. Analogamente
a quanto si sa avvenire per frasi letterali, l’N400 è più ampia per il componente
meno atteso (cioè quello sostituito). Che i soggetti a questo punto delle stringhe
idiomatiche abbiano già sviluppato una certa sensibilità verso la co-occorrenza

19
Il segnale elettroencefalografico è stato registrato in modo continuo attraverso un sistema di 30
elettrodi attivi (BioSemi) posti sullo scalpo secondo il sistema 10-20 standard. Abbiamo analizza-
to i dati in un’epoca lunga che iniziava 200 ms dopo il punto di riconoscimento e durava per 2300
ms (le medie dei singoli soggetti sono state calcolate dopo esclusione degli artefatti, 13,5%, e cor-
rezione della baseline a 200 ms).
Ricordiamo che si tratta del punto dopo il quale i soggetti completano il frammento idiomatica-
20

mente con una altissima cloze probability (media 86%).


5. Aspettative semantiche ed espressioni idiomatiche: aspetti psicolinguistici 153

Fig. 5.2 Tracciato ERP in corrispondenza del punto di riconoscimento (PR) per la condizione
Idiomatica (linea continua) (... il coltello dalla) e di Sostituzione (linea tratteggiata) (... il coltello senza)

dei costituenti21 lo confermano i test di completamento offline: infatti, le percen-


tuali di completamento idiomatico a questo punto sono ovviamente più basse di
quanto non siano dopo il punto di riconoscimento (dove abbiamo una media
dell’86% di completamenti idiomatici), ma sono comunque non irrisorie (circa
del 37% in media).
Dopo il punto di riconoscimento (Fig. 5.3) vi è, invece, un cambiamento nella
morfologia dell’onda meglio evidenziato dalla Figura 5.4 che compara i due effet-
ti in uno stesso sito elettroencefalografico: il pattern ha un onset più precoce ed è
caratterizzato da una distribuzione topografica più posteriore, ampia anche nei siti
distali e non solo in quelli mesiali tipici degli effetti N400. La morfologia dell’on-
da elicitata nella condizione idiomatica è, inoltre, caratterizzata da un chiaro picco
positivo attorno ai 300 ms, identificabile come un’autentica P300.
Per indagare il timing relativo degli effetti a PR e a PR+1 sono stati effettuati t-
test su finestre contigue di 10 ms ognuna, sui dati relativi alla media di un gruppo di

21
Il che non significa necessariamente che i lettori abbiano già attivato a quel punto il significato
idiomatico, ma che la sequenza di parole suona familiare.
154 C. Cacciari et al.

Fig. 5.3 Tracciato corrispondente al costituente successivo al punto di riconoscimento (PR) per
la condizione Idiomatica (linea continua) (coltello dalla parte) e di Violazione (linea tratteggia-
ta) (coltello dalla vicina)

canali (C3, Cz, C4, CP1, CP2, P3, Pz, P4). Essi mostrano che l’onset dei due effetti
differisce di circa 60 ms (Fig. 5.5): i due tracciati relativi alla condizione Idiomatica
e di Sostituzione al punto di riconoscimento (PR) iniziano a divergere circa a 320 ms
dall’inizio del punto di riconoscimento, mentre quelli relativi alla condizione
Idiomatica e di Violazione dopo il punto di riconoscimento (PR+1) circa a 260 ms.
Il dato sulla latenza, assieme alle differenze nella morfologia delle onde non
sottratte e alla topografia dell’effetto, convergono nel mostrare che il pattern ERP
dopo il punto di riconoscimento (cioè a PR+1) è da interpretare funzionalmente in
modo diverso da una mera modulazione dell’N400. Tipicamente infatti l’N400 non
mostra né variazioni di latenza né differenti distribuzioni topografiche in funzione
di manipolazioni linguistiche. Differenze di questo genere possono emergere con-
frontando differenti gruppi di soggetti o differenti modalità di presentazione del
materiale (visivo vs. uditivo, frasi vs. parole isolate vs. disegni). Le manipolazioni
del materiale linguistico (frequenza d’uso lessicale, posizione all’interno di una
frase, cloze probability ecc.) tipicamente incidono solamente sull’ampiezza della
componente ma non sulle sue caratteristiche spazio-temporali (si vedano in propo-
sito le ampie reviews [2, 54]).
5. Aspettative semantiche ed espressioni idiomatiche: aspetti psicolinguistici 155

Fig. 5.4 Confronto delle morfologie d’onda sul canale Pz fra idioma (linea continua) e sostitu-
zione (linea tratteggiata) al PR (grafico di sinistra) e fra idioma (linea continua) e violazione (linea
tratteggiata) a PR+1, ove è evidente il picco della P300. Le linee sottili verticali corrispondono a
300 ms e 500 ms

Fig. 5.5 Stima dell'onset dell’effetto con t-test in finestre contigue. A sinistra, il confronto condizio-
ne Idiomatica-Sostituzione al PR e a destra il confronto condizione Idiomatica-Violazione al PR+1

Un’eccezione, particolarmente rilevante per l’interpretazione del pattern elet-


trofisiologico che abbiamo osservato a PR+1, è costituita dal correlato ERP del-
l’elaborazione di un’antinomia (ad esempio, bianco-nero, caldo-freddo). Alcuni
studi ([63, 64]; si vedano anche la Figura 1.b riportata in [51] e la Figura 7 in [50])
hanno rilevato come durante la lettura di frasi come The opposite of white is black,
comparate con differenti violazioni del secondo costituente (yellow o nice, invece
di black), si ottenga un pattern N400 anticipato e con una differente morfologia e
distribuzione spaziale. Rohem e colleghi [64] hanno efficacemente mostrato, con-
frontando differenti compiti sulla coppia antinomica, come tale pattern sia da inter-
pretare come una P300 per l’elaborazione dell’elemento predittivamente atteso
all’interno della relazione antinomica, eventualmente sovrapposta a una N400 che
modula in funzione delle relazioni semantiche associative e categoriali fra i due ter-
mini. La distribuzione e la morfologia degli ERP durante l’elaborazione del com-
156 C. Cacciari et al.

pletamento corretto sono differenti dalla modulazione tipica dell’N400 evidenziata


dalla manipolazione semantico-categoriale. Tale componente non è presente inve-
ce (Esperimento 2) in un compito di decisione lessicale su coppie di parole (deci-
dere se una pseudoparola sia presente all’interno della coppia), per il quale non
sono rilevanti aspetti di anticipazione: qui emerge solamente l’N400 dovuta alla
relazione semantica fra le parole della coppia.
Il pattern evidenziato nel nostro studio a PR+1 appare molto simile a quello
mostrato da Rohem e colleghi [64], quindi ciò indirettamente supporta la nostra
interpretazione di una P300 per l’elaborazione dei costituenti idiomatici che emer-
ge solo dopo il riconoscimento della stringa come idioma (cioè a PR+1).
Il nostro studio mostra così due differenti indici associati a stadi diversi della
comprensione di una espressione idiomatica:

– al punto di riconoscimento (PR), una N400 distribuita bilateralmente per la con-


dizione di Sostituzione del tutto congruente con gli altri casi di N400 riportati
in letteratura per le frasi letterali;
– al costituente successivo al punto di riconoscimento (PR+1), gli ERP divergo-
no più precocemente (circa 70 ms prima) e l’onda relativa alla condizione
Idiomatica mostra una P300 (prevalentemente distribuita centro-parietalmente)
che indicizza un meccanismo diverso che entra in gioco quando il significato
dell’idioma è già stato recuperato dalla memoria semantica.

La P300 (P3) è una famiglia di componenti con polarità positiva e prevalente


distribuzione fronto-centrale, che non è normalmente associata ai processi lingui-
stici (ma si vedano [65] ad esempio). Si tratta forse della componente più indaga-
ta nella letteratura psicofisiologica, sensibile anche agli aspetti cognitivi dell’ela-
borazione di uno stimolo e in particolar modo agli aspetti percettivi e attentivi. Le
interpretazioni relative al ruolo di questa famiglia di componenti sono molteplici
e divergenti. Non è certo possibile sintetizzarle in poche righe e rimandiamo i let-
tori e le lettrici alla letteratura specifica (ad esempio, [66-71]). Kok [71] ha forni-
to un’interpretazione funzionale della P3 utile per interpretare i nostri dati. Kok
muove dall’idea che vi sia un consenso generale circa il fatto che la P3 è evocata
dopo che uno stimolo è stato valutato anche sulla base di informazioni parziali.
L’ampiezza della P3 rifletterebbe la capacità attenzionale investita nella categoriz-
zazione di eventi rilevanti per il compito: un processo che conduce alla decisione
se un certo stimolo esterno corrisponda o meno alla rappresentazione internaliz-
zata di uno specifico evento o categoria di stimoli ([71], p. 571). Questa concet-
tualizzazione della P3 è per ammissione di Kok assai simile a quella proposta da
altri autori ([72], ad esempio) che hanno associato la P3 a un meccanismo di tem-
plate matching: quando i soggetti sono istruiti a cercare un certo stimolo, quanto
più è forte il match fra l’informazione in arrivo e il template, tanto più ampia è la
P3. Dati consistenti con questa ipotesi sono stati trovati per il linguaggio per
effetti di familiarità di parole [73]. Kok conclude che la P3 rifletterebbe proces-
si che sottostanno alla memoria di riconoscimento, cioè alla consapevolezza che
uno stimolo appartiene o meno alla categoria di un certo evento target memoriz-
zato (p. 573).
5. Aspettative semantiche ed espressioni idiomatiche: aspetti psicolinguistici 157

Perché la posizione di Kok ci aiuta nell’interpretazione della P300 registrata


nel nostro studio? Perché ipotizziamo che indicizzi quel processo che inizia dopo
che l’idioma è stato riconosciuto e il suo significato recuperato dalla memoria: il
lettore potrebbe operare un controllo fra l’espressione idiomatica rappresentata
nella sua forma standard in memoria (il template) e i costituenti in entrata. Non a
caso, quando dopo il punto di riconoscimento vi sono due o più costituenti idio-
matici, osserviamo una P300 analoga, seppure di minor ampiezza, anche sul
secondo costituente dopo il punto di riconoscimento. In questo tipo di stimoli, ma
anche nel caso delle antinomie, si ha l’elicitiazione di una P300 per la parola atte-
sa. Ciò che accomuna queste due situazioni linguistiche è che vi è in entrambi i
casi un’aspettativa di tipo categoriale e non di tipo probabilistico, come nei casi
dove vincoli dati dal contesto semantico-pragmatico danno luogo a modulazioni
dell’N400. Il risultato di DeLong e colleghi [52] mostra che aspettative di tipo
probabilistico molto alte (attorno al 90%) inducono anticipazioni del costituente
dettagliate a livello lessicale e fonologico. La differenza fra questo caso e gli
idiomi (e antinomie) non sta quindi tanto nel formato dell’anticipazione, ma piut-
tosto nella sua natura: probabilistica in un caso e categoriale nell’altro.
La P300 nell’elaborazione degli idiomi potrebbe essere il correlato elettro-
fisiologico di una funzione di monitoraggio della congruenza fra la configura-
zione attivata e i costituenti successivi al punto di riconoscimento.
Alternativamente, si potrebbe ipotizzare che la P3 indicizzi un meccanismo di
inibizione del significato dei costituenti post punto di riconoscimento o di ricer-
ca all’interno di uno spazio semantico-lessicale della parola percepita. Le evi-
denze che disponiamo allo stato attuale non ci permettono, però, di scegliere fra
queste alternative.
Quali sono le implicazioni di questi risultati per le ipotesi sulla comprensione
degli idiomi? La più importante è che abbiamo mostrato un pattern elettrofisiolo-
gico differente quando si incontra una parola inattesa prima o dopo il punto di
riconoscimento di un idioma (condizione di Sostituzione vs. condizione di
Violazione), il che conferma indirettamente quanto ipotizzato dal modello della
Configurazione [24]. Più in generale, questo lavoro contribuisce a chiarire un
meccanismo presente in una varietà di stringhe linguistiche ben più ampia dei soli
idiomi. Il fenomeno delle aspettative categoriali, infatti, si potrebbe applicare a
tutti quei casi in cui vi sono rappresentazioni bound, o fisse, letterali o non lette-
rali che siano (collocazioni, frasi fatte, titoli di poesie o di libri ecc.). Si potreb-
be anche ipotizzare che le antinomie,22 come gli idiomi, siano rappresentate come
configurazioni sovralessicali nella memoria semantica. Future ricerche dovranno
chiarire l’elemento chiave che porta all’elicitazione di P300 all’interno di queste
strutture. Più in generale, questi risultati contribuiscono a quel filone di studi
sugli effetti prospettici nel parsing semantico di frasi cui la ricerca elettrofisiolo-
gica ha portato un contributo cruciale.

22
Che i termini fra loro antinomici siano rappresentati insieme nel lessico era già stato ipotizzato
nella letteratura psicolinguistica ed è stato implementato anche in diversi modelli del lessico a
base lessicografica (ad esempio, in WordNet).
158 C. Cacciari et al.

7. Conclusioni

In questo capitolo abbiamo sostenuto la rilevanza di un fenomeno linguistico a


lungo sottovalutato – le espressioni idiomatiche – per la comprensione dei mec-
canismi di elaborazione semantica di una frase. Ciò che le rende particolarmente
appealing è proprio una caratteristica condivisa da queste altrimenti diversifica-
te unità linguistiche dal significato figurato, e cioè che la loro identità può esse-
re predetta sulla base di un frammento più o meno lungo e il loro significato recu-
perato, a quel punto, dalla memoria semantica. In altre parole, un caso specifico
del meccanismo generale tipico del proactive brain descritto da Bar ([53], p. 282)
che genera previsioni top down sull’identità dell’input, usando l’informazione
bottom up iniziale. Lo stesso meccanismo può essere all’opera, ma a oggi non lo
sappiamo, anche in altre espressioni letterali, come, ad esempio, le antinomie o
le collocazioni.23 Abbiamo esaminato i meccanismi di anticipazione semantica
menzionando l’importanza delle ricerche ERP condotte su questo aspetto del-
l’elaborazione del linguaggio e infine abbiamo illustrato i risultati di uno studio
recentemente condotto dagli autori di questo capitolo che mostrano come la com-
prensione delle espressioni idiomatiche sia indicizzata da due diverse componen-
ti elettrofisiologiche: una N400 sensibile alla natura bound dei costituenti all’in-
terno di una stringa idiomatica, come era già stato mostrato per il linguaggio let-
terale, e una P300 che entra in gioco quando l’espressione idiomatica è già stata
riconosciuta e attivata sulla base di un frammento di idioma e ne viene controlla-
ta la congruenza con i costituenti successivi. La dimostrazione che utilizzando
idiomi prevedibili o antinomie [64] si siano riscontrati chiari effetti P300 nella
finestra temporale tipica dell’N400 stimola l’utilizzo di tali paradigmi al fine di
chiarire meglio differenze nei correlati ERP dell’elaborazione frasale in gruppi di
volontari sani e in soggetti patologici [56, 57].

Ringraziamenti Ringraziamo l’ingegnere Matteo Corradini del laboratorio ELASTYC per l’aiu-
to fornitoci e la dottoressa Michela Slomp per la raccolta di parte dei dati normativi sugli idiomi.
La scrittura di questo capitolo è stata possibile grazie a un finanziamento PRIN a Cristina Cacciari
(2005119758_003).

23
Non a caso Cruse (1986, p. 40) definisce le collocazioni come sequenze di item lessicali che abi-
tualmente co-occorrono ma che sono nondimeno semanticamente trasparenti nel senso ogni costi-
tuente lessicale è anche un costituente semantico (si tratti di collocazioni preposizionali, come ad
esempio, in riferimento a, in partenza da, o verbali, come stendere un documento, parcheggiare
la macchina, per citarne solo alcune).
5. Aspettative semantiche ed espressioni idiomatiche: aspetti psicolinguistici 159

Bibliografia

1. Glucksberg S (1993) Idiom meaning and allusional content. In: Cacciari C, Tabossi P (eds)
Idioms: processing, structure and interpretation. Erlbaum, Hillsdale, pp. 3-26
2. Kutas, Van Petten C, Kluender (2006) Psycholinguistics electrified II (1994-2006). In:
Gernsbacher MA, Traxler M (eds) Handbook of Psycholinguistics. 2nd Edition. Elsevier
Press, New York
3. Jackendoff R (1995) The boundaries of the lexicon. In: Everaert M, Van den Linden E,
Schenk A, Schreuder R (eds) Idioms: structural and psychological perspectives. Erlbaum,
Hillsdale, pp. 133-166
4. Pollio H, Barlow J, Fine H et al (1977) Metaphor and the poetics of growth: figurative lan-
guage in psychology, psychotherapy and education. Erlbaum, Hillsdale
5. Cacciari C, Tabossi P (eds)(1993) Idioms: processing, structure and interpretation. Laurence
Erlbaum, Hillsdale
6. Everaert M, Van der Linden EJ, Schenk A et al (eds) (1995) Idioms: structural and psycho-
logical perspectives. Laurence Erlbaum, Hillsdale
7. Katz AN (2006) Special Issue: metaphor and the brain. Metaphor Symbol 21:4
8. Giora R (2007) (ed) Is metaphor unique? Neural correlates of non-literal language. Brain
Lang 100: 2
9. Fellbaum C (2007) (ed) Idioms and collocations: from corpus to electronic lexical resource.
Continuum, Birmingham
10. Nenonen M, Niemi S (2007) Collocation and Idioms 1. Hoensuu University Press, Joensuu
11. Wasow T, Sag I, Nunberg G (1983) Idioms: an interim report. In: Hattori S, Inoue K (eds)
Proceedings of the XIIIth International Congress of Linguistics, Tokyo, pp. 102-105
12. Bobrow S, Bell S (1973) On catching on to idiomatic expressions. Mem Cognition 1:343-346
13. Swinney D, Cutler A (1979) The access and processing of idiomatic expressions. J Verb
Learn Verb Be 18:523-534
14. Gibbs RB (1980) Spilling the beans on understanding and memory for idioms. Mem
Cognition 8:449-456
15. Nunberg G, Sag IA, Wasow T (1994) Idioms. Language 70:491-538
16. Keysar B, Bly B (1995) Intuitions of the transparency of idioms: can one keep a secret by
spilling the beans? J Mem Lang 1:89-109
17. Cacciari C (1993) The place of idioms in a literal and metaphorical world. In: Cacciari C,
Tabossi P (eds) Idioms: processing, structure and interpretation. Laurence Erlbaum,
Hillsdale, pp. 27-55
18. Cacciari C, Glucksberg S (1991) Understanding idiomatic expressions: the contribution of
word meanings. In: Simpson G (ed) Understanding word and sentence. Elsevier Science
Publishers, Amsterdam, pp. 217-240
19. Hamblin JL, Gibbs RW (1999) Why you can’t kick the bucket as you slowly die: verbs in
idiom comprehension. J Psycholinguist Res 28:25-39
20. Sprenger SA, Levelt WJ, Kempen G (2006) Lexical access during the production of idioma-
tic phrases. J Mem Lang 54: 161-184
21. Gibbs RW, Nayak NP, Cutting C (1989) How to kick the bucket and not decompose: analy-
zability and idiom processing. J Mem Lang 22:577-590
22. Glucksberg S (2001) Understanding figurative language. Oxford University Press, Oxford
23. Cacciari C, Glucksberg S (1994) Understanding figurative language. In: Gernsbacher MA
(ed) Handbook of psycholinguistics. Academic Press, New York, pp. 447-477
24. Cacciari C, Tabossi P (1988) The comprehension of idioms. J Mem Lang 27:668-683
25. Miller GA, Selfridge J (1950) Verbal context and the recall of meaningful material. American
J Psychol 63:176-185
26. Taylor WL (1953) “Cloze procedure”: a new tool for measuring readability. Journalism Quart
30:415-433
27. Shannon CE (1948) A mathematical theory of communication. AT&T Tech J 27:379-656
160 C. Cacciari et al.

28. Bloom PA, Fischler I (1980) Completions norms for 329 sentence contexts. Mem Cognition
8:631-642
29. Kutas M, Hillyard SA (1980) Event-related potentials to semantically inappropriate and sur-
prisingly large words. Biol Psychol 11:99-116
30. Kutas M, Hillyard SA (1984) Brain potentials during reading reflect word expectancy and
semantic association. Nature 307:161-163
31. Carreiras M, Clifton C (2005) The on-line study of sentence comprehension. Psychology
Press, New York
32. De Vincenzi M, Di Matteo R (2004) Come il cervello comprende il linguaggio. Laterza, Bari
33. Cacciari C, Padovani R, Corradini P (2007) Exploring the relationship between individuals’
speed of processing and their comprehension of spoken idioms. Eur J Cogn Psychol 27:668-683
34. Peterson RR, Burgess C, Dell GS et al (2001) Dissociation between syntactic and semantic
processing during idiom comprehension. J Exp Psychol Learn 90:227-234
35. Fanari R, Cacciari C, Tabossi P (submitted) Spoken idiom recognition: the role of length and
context
36. Tabossi P, Zardon F (1993) The activation of idiomatic meaning in spoken language. In:
Cacciari C, Tabossi P (eds) Idioms: processing, structure and interpretation. Laurence Erlbaum,
Hillsdale, pp. 145-162
37. Tabossi P, Zardon F (1995) The activation of idiomatic meaning. In: Everaert M, Van den
Linden E, Schenk A, Schreuder R (eds) Idioms: structural and psychological perspectives.
Erlbaum, Hillsdale, pp. 273-282
38. Tabossi P, Fanari R, Wolf K (2005) Spoken idiom recognition: meaning retrieval and word
expectancy. J Psycholinguist Res 34:465-495
39. Titone DA, Connine CN (1994) Comprehension of idiomatic expressions: effect of predicta-
bility and literality. J Exp Psychol Learn 20:1126-1138
40. Cutting JC, Bock K (1997) That’s the way the cookie bounces: syntactic and semantic com-
ponents of experimentally elicited idiom blends. Mem Cognition 25:57-71
41. Cruse DA (1986) Lexical Semantics. Cambridge University Press, New York
42. Vespignani F, Canal P, Molinaro N, Cacciari C (2007) What ERPs tell us about the mecha-
nisms underlying idiom comprehension. Relazione presentata al XVth Conference of the
European Society for Cognitive Psychology, Marseille, France
43. Altmann GTM, Kamide Y (1999) Incremental interpretation of verbs: restricting the domain
of subsequent reference. Cognition 73:247-264
44. Eberhard K, Spivey-Knowlton S, Sevivy J et al (1995) Eye movements as a window into real-
time spoken language processing in natural contexts. J Psycholinguist Res 24:409-436
45. Sedivy JC, Tanenhaus MK, Chambers CG et al (1999) Achieving incremental semantic inter-
pretation through contextual representation. Cognition 71:109-147
46. Altmann GTM (1999) The ascent of Babel: an exploration of language, mind, and understan-
ding. Oxford University Press, Oxford
47. McRae K, Ferretti TR, Amyote L (1997) Thematic role as language specific concepts. Lang
Cognitive Proc 12:137-176
48. Trueswell JC, Tanenhaus MK, Garnsey S (1994) Semantic influences on parsing: use of the-
matic role information in syntactic ambiguity resolution. J Mem Lang 33:285 -318
49. Levy R (in press) Expectation-based syntactic comprehension. Cognition
50. Kutas M, Van Petten C (1994) Psycholinguistic evidence electrified: event-related brain
potentials investigation. In: Gernsbacher MA (ed) Handbook of psycholinguistics. Academic
Press, New York, pp. 83-144
51. Kutas M, Federmeier KD (2000) Electrophysiology reveals semantic memory use in langua-
ge comprehension. Trends Cogn Sci 4:463-470
52. DeLong KA, Urbach TP, Kutas M (2005) Probabilistic word pre-activation during language
comprehension inferred from electrical brain activity. Nat Neuriosci 8:1117-11121
53. Bar M (2007) The proactive brain: using analogies and associations to generate predictions.
Trends Cogn Sci 11:280-289
54. Van Berkum JJA, Brown CM, Zwitserlood P, Koojiman V, Hagoort, P (2005) Anticipating
5. Aspettative semantiche ed espressioni idiomatiche: aspetti psicolinguistici 161

upcoming words in discourse: evidence from ERPs and Reading Times. J Exp Psychol Learni
31:443-467
55. Jackendoff R (2007) A parallel architecture perspective on language processing. Brain Res
1146:2-22
56. Strandburg RJ, Marsh JT, Brown WS et al (1993) Event-related potentials in high-functio-
ning adult autistics: linguistic and nonlinguistic visual information processing tasks.
Neuropsychology 31:413-34
57. Strandburg RJ, Marsh JT, Brown WS et al (1997) Event-related potential correlates of lingui-
stic information processing in schizophrenics. Biol Psychiat 42:596-608
58. Zhou S, Zhou W, Chen X (2004) Spatiotemporal analysis of ERP during Chinese idiom com-
prehension. Brain Topogr 17:27-37
59. Laurent JP, Denhieres G, Passerieux C et al (2006) On understanding idiomatic language:
the salience hypothesis assessed by ERPs. Brain Res 12:151-60
60. Sperber D, Wilson D (1986) Relevance: communication and cognition. Blackwell, Oxford
61. Giora R (2003) On our minds: salience, context and figurative language. Oxford University
Press, Oxford
62. Osterhout L, Holcomb PJ (1995) Event-related brain potentials and language comprehension.
In: Rugg MD, Coles MGH (eds) Electrophysiology of mind: event-related brain potentials
and cognition. Oxford University Press, Oxford
63. Kutas M, Iragui V (1998) The N400 in a semantic categorization task across 6 decades.
Electroen Clin Neuro 108:456-471
64. Roehm D, Bornkessel-Schlewiesky I, Roesler F et al (2007) To predict or not to predict:
Influences of task and strategy on the processing of semantic relations. J Cognitive Neurosci
19:1259-1274
65. Coulson S, King JW, Kutas M (1998) Expect the unexpected: event-related brain responses
to morphosyntactic violations. Lang Cognitive Proc 13:21-58
66. Donchin E (1981) Surprise! … Surprise? Psychophysiology 18:493-513
67. Donchin E, Coles MGH (1988) Is the P300 component a manifestation of context updating?
Behav Brain Sci 11:357-374
68. Picton TW (1993) The P300 wave of the human event-related brain potentials. J Clin
Neurophysiol 9:456-479
69. Verleger R (1988) Event-related potentials and cognition: a critique of the context updating
hypothesis and an alternative interpretation of P3. Behav Brain Sci 11:343-327
70. Verleger R (1997) On the utility of the P3 latency as an index of mental chronometry.
Psychophysiology 34:131-156
71. Kok A (2001) On the utility of P3 amplitude as a measure of processing capacity.
Psychophysiology 38:557-577
72. Chao L, Nielsen-Bohlman LC, Knight RT (1995) Auditory event-related potentials dissocia-
te early and late memory processes. Electroen Clin Neuro 96:157-168
73. Rugg MD, Doyle MC (1992) Event-related potentials and recognition memory for low- and
high-frequency words. J Cognitive Neurosc 4:69-79
Capitolo 6
Dalla pragmatica alla prospettiva
neuropragmatica
Michela Balconi, Simona Amenta

6.1 Comunicazione e pragmatica

Utilizzando le due metafore coniate da Reddy [1], denominate conduit metaphor e


toolmakers paradigm, possiamo introdurre alcune distinzioni circa la natura della
comunicazione e delle proprietà pragmatiche che la caratterizzano. Secondo la prima
metafora, le espressioni linguistiche utilizzate dai parlanti in interazione sono veico-
li all’interno dei quali idee e significati possono essere versati ed estratti, rimanendo
immutati nel passaggio; quello che accadrebbe nella comunicazione altro non sareb-
be quindi che uno scambio di informazioni tra due persone. Il paradigma della “pro-
gettualità”, al contrario, inscena una situazione molto più complessa: gli interlocuto-
ri sono individui che vivono in mondi separati; nessuno di loro conosce le caratteri-
stiche del mondo degli altri e ignora se queste siano uguali o dissimili dal proprio.
Costoro non hanno una lingua comune, ma – essendo tutti agricoltori – si scambiano
progetti su strumenti che possono facilitare la coltivazione dei propri terreni. Ognuno
è fiero degli strumenti che inventa e dei progetti che stende in modo da rendere pos-
sibile agli altri la realizzazione di tali strumenti. Ciononostante, coloro che progetta-
no si sentono spesso delusi, irritati e spiacevolmente stupiti, dal fatto che i loro pro-
getti sono spesso fraintesi. Al contrario, motivo di gioia sono le poche volte nelle
quali i progetti sono accettati senza alcuna modifica, così come sono stati pensati.
A partire dalle due metafore riportate poco sopra è possibile dedurre che i messag-
gi comunicativi, più che veicoli per pensieri, sono simili a “progetti”, la cui interpre-
tazione da parte degli interlocutori non presenta alcuna garanzia di corrispondenza
esatta tra i significati manipolati da chi realizza il progetto e quelli di chi ne è destina-
tario. Inoltre questa prospettiva suggerisce che la produzione di un messaggio è simi-
le a un processo di costruzione, che implica numerose scelte e assunzioni rispetto alle
credenze e alle rappresentazioni del destinatario. Quest’ultimo permette al parlante di
veicolare la propria intenzione di comunicare qualcosa (intenzione comunicativa) nel
modo ritenuto più efficace (per il concetto di intenzione, si veda il Capitolo 7).
In questa luce prendono corpo due questioni: in primo luogo, dobbiamo chieder-
ci che cosa intendiamo per “significato” in senso pragmatico e che rapporto esiste
tra questo costrutto e i processi mentali (rappresentazione, pianificazione, intenzio-
nalità ecc.) che ne sono all’origine. In secondo luogo, occorre domandarsi quale sia
il rapporto sussistente tra la semantica, ovvero lo studio del significato, e la pragma-
tica, in quanto disciplina che si occupa dello studio dell’uso del linguaggio [2-4].

M. Balconi (ed.), Neuropsicologia della comunicazione. © Springer 2008


164 M. Balconi, S. Amenta

6.1.1 Problema del “significato pragmatico”


e rapporto semantica/pragmatica

Un primo problema riguarda ciò che comunemente viene considerato “significato”


[5-8]. Nonostante il significato sia spesso rappresentato come una proprietà delle
parole e delle frasi e quindi possa essere studiato in isolamento, la pragmatica rico-
nosce un vasto dominio della significazione che permea la vita e le attività delle per-
sone. Il significato è legato alle azioni e ancor di più alle intenzioni: una comunica-
zione di successo, o meglio, il trasferimento di successo di significati, è da vedersi
come un processo volto a realizzare uno stato di mutua conoscenza relativo a un’in-
tenzione comunicativa. Da un punto di vista pragmatico, possiamo quindi affermare
che il significato di un’espressione linguistica non è da intendersi tanto come la
“somma” o “composizione” dei significati delle singole parole che la costituiscono,
ma sia da ricercare in ciò che il parlante intende esprimere e comunicare e in ciò che
chi ascolta riesce a comprendere attraverso processi inferenziali (per un approfondi-
mento si veda [9]). In questo senso, il significato pragmatico si costruisce nell’intera-
zione tra due individui razionali, dotati di intenzionalità, credenze e portatori di una
propria visione del mondo che può fungere da cornice (frame) interpretativa dei mes-
saggi prodotti nello scambio comunicativo stesso. È evidente quindi che per definire
il significato pragmatico sia necessario fare riferimento ai processi di intenzionaliz-
zazione, scelta, rappresentazione e inferenza, cui si accennava poco sopra.
In secondo luogo, è necessario trattare un ulteriore quesito relativo al rapporto tra
semantica e pragmatica. Generalmente si sostiene che la pragmatica si occupa del signi-
ficato degli enunciati, ovvero del significato del parlante; la semantica, invece, elegge
come proprio campo di indagine il significato delle parole e delle frasi. Entrambe le
discipline studiano il significato delle espressioni linguistiche, ma, mentre la semantica
si concentra sull’espressione linguistica, la pragmatica focalizza la propria attenzione
sugli interlocutori e sui processi da loro attuati nella generazione dei significati.
Tuttavia, la pragmatica deve essere considerata non soltanto come la scienza che studia
il modo in cui i destinatari aggiungono informazione contestuale alla struttura semanti-
ca [3]. Seppur corretta, infatti, consideriamo questa definizione troppo limitante rispet-
to al complesso oggetto di analisi della pragmatica, che è da intendersi come lo studio
di come individui dotati di un sistema cognitivo complesso operino continue scelte, sia
sul piano comunicativo sia sul piano cognitivo ed emotivo, al fine di soddisfare le esi-
genze di mutuo scambio e mutua condivisione dei propri significati [10].

6.2. Questioni pragmatiche

6.2.1. Alle origini della prospettiva pragmatica

Come è stata elaborata la teoria pragmatica? Premettiamo innanzitutto che non è


affatto facile trovare e dare una definizione univoca di “pragmatica” a causa della
complessità dei fenomeni e dei processi coinvolti e del fatto che essa, in quanto
6. Dalla pragmatica alla prospettiva neuropragmatica 165

disciplina che si caratterizza per una sostanziale interdisciplinarietà, colloca il pro-


prio oggetto di studio al crocevia di differenti domini, quali la filosofia, la lingui-
stica, l’antropologia, la psicologia, la sociologia ecc. Comunemente sono ricono-
sciuti come oggetti di studio della pragmatica linguistica l’agire linguistico e
soprattutto l’uso del linguaggio e il linguaggio come mezzo per l’agire umano,
ovvero lo studio del modo in cui gli interagenti, da un lato, producono e veicolano,
e dall’altro, ricevono e comprendono il “significato” di ciò che è detto; in sintesi,
possiamo definire la pragmatica come studio dei fenomeni linguistici dal punto di
vista delle loro proprietà e processi d’uso [11].
Ma come si è giunti a tale rappresentazione? L’attuale utilizzo del termine prag-
matica può essere fatto risalire alle teorie di Morris [12], secondo il quale oggetto
di studio della pragmatica è da considerarsi la “relazione tra segni e interpreti”. Lo
studio di tale relazione è da distinguersi in tre livelli: 1) sintassi, ovvero la relazio-
ne tra segni; 2) semantica, ovvero la relazione tra un segno e l’oggetto cui il segno
fa riferimento; 3) pragmatica, la relazione tra segni e utenti.
Ulteriori studi hanno tentato di elaborare teorie riguardanti la natura delle relazio-
ni tra segni e interpreti. Ad esempio, Grice [13] si è occupato di come i parlanti riesca-
no a comunicare una specifica intenzione comunicativa e di come gli interlocutori pos-
sano riconoscerla rintracciando una serie di “regole” conversazionali che rendano pos-
sibile tali processi. Dal canto loro Austin [14] e Searle [15, 16] hanno tentato di clas-
sificare sistematicamente le intenzioni comunicative partendo dal principio secondo il
quale “parlare è agire” ed elaborando una teoria volta a definire gli atti linguistici fon-
damentali (speech act) che una persona compie simultaneamente quando parla.1

6.2.2. La pragmatica come “strategia” e come “scelta” comunicativa

Questi ulteriori studi si allontanano da una prospettiva “complementarista”, che


considera la pragmatica come una componente aggiuntiva del linguaggio (affianca-
ta alle componenti fonologica, morfosintattica e semantica [12]) e si avvicinano a
una prospettiva che considera la pragmatica come una competenza comunicativa
dell’uso linguistico che si esplica a ogni livello della produzione comunicativa [10].
In questa nuova luce, ogni livello linguistico può essere studiato secondo un’ottica
pragmatica e la “questione” fondamentale, diventa: cosa fanno le persone quando
usano il linguaggio? Cosa fanno per mezzo del linguaggio? Tra gli altri, a titolo
esemplificativo, consideriamo l’approccio proposto da Dascal [17], il quale sugge-
risce una definizione di pragmatica come teoria dell’uso del linguaggio che tenga
conto delle “interrelazioni tra linguaggio e situazioni comunicative all’interno delle
quali è utilizzato” (uso comunicativo del linguaggio) e di “ciò che accade nella
mente dei comunicanti” (studio cognitivo della pragmatica). Infatti, produrre e

1
1) atti locutori, ovvero la produzione di una sequenza di suoni; 2) atti illocutivi o performativi,
ovvero la manifestazione di intenzioni e il perseguimento di scopi; e 3) atti perlocutivi, ovvero gli
effetti provocati dall’atto nell’interlocutore [16].
166 M. Balconi, S. Amenta

comprendere un messaggio vede gli individui impegnati attivamente in differenti


compiti cognitivi finalizzati al raggiungimento di un obiettivo comunicativo com-
plesso e articolato.
In particolare, usare il linguaggio per comunicare consiste nell’operare scelte
linguistiche, sia da parte di chi produce il messaggio sia da parte di chi lo deve
interpretare. Queste scelte possono collocarsi a ogni livello della forma linguistica:
fonetica, fonologica, morfologica, sintattica, lessicale, semantica. In primo luogo,
dunque, le scelte sono compiute a livello di struttura del linguaggio (ad esempio,
prevedere una determinata costruzione sintattica dell’enunciato); in secondo luogo,
a livello delle strategie comunicative messe in atto dai parlanti.
Questa prospettiva di analisi consente di riformulare la comune definizione di
pragmatica della comunicazione mettendo al centro non tanto le regole comunicative,
quanto i processi cognitivi che rendono possibile la comunicazione [10, 18]. La prag-
matica, come abbiamo visto, può essere considerata una prospettiva di analisi della
produzione/comprensione del linguaggio in un contesto interattivo complesso che non
si costituisce soltanto come “situazione” contingente all’interno della quale ha luogo
l’interazione, bensì come ambito potenziale in cui trovano spazio le credenze, i desi-
deri e, più in generale, gli stati mentali ed emotivi degli interlocutori. L’analisi della
pragmatica non è più solo intesa come “elemento della comunicazione” ma in quanto
“abilità comunicativa” che comporta precise scelte soggettive.
Intrinseci al processo di scelta sono alcuni principi che ne definiscono la natu-
ra. In particolare occorre sottolineare che il soggetto opera scelte e costruisce stra-
tegie grazie:

– alla variabilità, intesa come proprietà della comunicazione che definisce il


range di possibilità all’interno del quale compiere scelte comunicative;
– alla negoziabilità, declinata in termini di proprietà della comunicazione che
rende possibile scelte non meccaniche ma sulla base di principi e strategie alta-
mente flessibili. Inoltre, la negoziabilità implica l’indeterminatezza dei proces-
si di scelta, sia da parte di chi produce sia da parte di chi interpreta;
– all’adattabilità, che rende possibile per gli esseri umani operare scelte linguisti-
che negoziabili all’interno di un vasto range di possibilità, puntando alla mas-
sima soddisfazione dei bisogni comunicativi;
– al diverso grado di salienza dei processi di adattabilità, ovvero non tutte le scel-
te sono compiute coscientemente, alcune sono automatiche mentre altre alta-
mente consapevoli. In sintesi, le scelte possono essere operate da parlante e
ascoltatore e possono essere automatiche o elaborate coscientemente (per que-
sto concetto si veda anche il Capitolo 7);
– all’indeterminatezza, relativa al fatto che le scelte, una volta operate, possono
essere permanentemente rinegoziate. È implicito nel concetto di adattabilità il
riferimento al contesto comunicativo con il quale le scelte compiute devono
essere interadattabili (ambiente fisico, relazioni sociali, stato mentale ed emoti-
vo di parlante e interlocutore) e del contesto personale (componenti di persona-
lità, emozioni, credenze, desideri, motivazioni, intenzioni ecc.);
– al prerequisito della dinamicità: relativo allo sviluppo dei processi di adatta-
mento nel tempo.
6. Dalla pragmatica alla prospettiva neuropragmatica 167

6.2.3. Pragmatica, comprensione e inferenza


Un versante particolarmente complesso e di sempre maggiore interesse della pro-
spettiva pragmatica riguarda il processo di comprensione, piuttosto che di produ-
zione, del significato. Ciò chiama in causa una serie di meccanismi inferenziali (per
un approfondimento cfr. [18]).
La comprensione del linguaggio richiede, in un’ottica pragmatica, il completa-
mento di due processi fondamentali: la comprensione del significato espresso (o
semantico) e la comprensione del significato del parlante (o pragmatico) [13, 19, 20].
In generale, le teorie pragmatiche sostengono che il significato di un enunciato risul-
ti dall’unione di una componente semantica e di una pragmatica, nonostante esse non
sempre si sono trovate d’accordo sul ruolo e sull’importanza dei due suddetti proces-
si. Le differenze più evidenti tra gli approcci sopra esposti sono da riscontrarsi nel
ruolo giocato e nei tempi di intervento della componente pragmatica e contestuale.
Le teorie classiche in particolare concordano nel riconoscere tre livelli di signifi-
cato (significato letterale/minimo, ciò che è detto, ciò che è implicato) e offrono
diverse spiegazioni riguardo alle modalità secondo le quali i comunicanti sono in
grado di integrare i tre livelli [13, 20-22]. Per citare una tra le teorie più illustri, secon-
do Grice [13] la comunicazione umana è fondata sul Principio di Cooperazione (CP),
il quale vincola i parlanti a rispettare alcune massime conversazionali (quantità, qua-
lità, relazione, modo), così da rendere possibile la corretta comprensione delle inten-
zioni comunicative. A partire da questo presupposto, “ciò che è detto” sembra coin-
cidere con il significato minimo (letterale) di una frase, mentre, solo in seguito alla
violazione di una o più massime, le persone metterebbero in atto processi inferenzia-
li volti alla comprensione di ciò che è comunicato (inteso).
Secondo Grice, quindi, esisterebbero due livelli di contenuto:

– ciò che è detto: il pensiero linguisticamente esplicitato (vero-condizionale,


molto vicino al contenuto semantico/linguistico);
– ciò che è implicato: il pensiero pragmaticamente ricostruito, inteso.

Pertanto, ciò che è esplicito è il significato linguisticamente codificato, mentre


ciò che resta implicito è il significato inteso che deve essere pragmaticamente infe-
rito; in particolare, ciò che è detto è determinato dalla proposizione minima/conte-
nuto vero-condizionale ed è ricostruito semanticamente, mentre ciò che è inteso è
determinato dal significato implicato ed è ricostruito pragmaticamente.
Alcuni studiosi [20, 21], seguendo la strada tracciata da Grice, hanno esteso il
ruolo dei processi pragmatici alla determinazione di parte di ciò che è detto: i signi-
ficati non derivanti dalla decodifica linguistica devono essere spiegati attraverso l’ap-
plicazione della conoscenza pragmatica. In altre parole, il significato vero-condizio-
nale/letterale/minimo di una frase è solo una parte minima di ciò che è comunicato.
Un’ulteriore estensione del ruolo dei processi pragmatici è stato attuato a opera
dei teorici della pertinenza [19, 22]. Secondo questi autori, i medesimi processi
pragmatici che intervengono per stabilire ciò che è implicato sono usati anche per
comprendere ciò che è detto: la semantica vero-condizionale stabilisce le condizio-
ni di verità di un enunciato e ne deriva il significato minimo, ma la comprensione
168 M. Balconi, S. Amenta

di ciò che è comunicato richiede una certa espansione pragmatica di tale significa-
to. All’interno di questo quadro, obiettivo della pragmatica inferenziale diventa
quindi quello di inferire le intenzioni del parlante e il significato che egli vuole
comunicare. In altre parole, il codice linguistico non determina totalmente ciò che
è esplicitamente espresso da un enunciato (underdeterminacy thesis) ma, al fine di
ricostruire quanto comunicato dal parlante, devono intervenire processi cognitivi
guidati da principi comunicativi e pragmatici.
Inoltre, il processo di codifica linguistica non è orientato a essere massimamen-
te esplicito bensì a minimizzare lo sforzo per interpretare il significato inteso. La
comunicazione è guidata dai principi cognitivi e comunicativi di pertinenza (per una
trattazione esaustiva di questo concetto si rimanda a [19]). Proprio su questo para-
metro si fonda la predizione di rilevanza di uno stimolo linguistico per un individuo:
la “pertinenza” è una funzione dell’effetto cognitivo prodotto e dello sforzo di ela-
borazione. Secondo gli studiosi, un enunciato linguistico è, per un individuo, uno sti-
molo in sé rilevante e la “rilevanza” è questione di gradi: se è vero che ogni stimo-
lo in grado di produrre un effetto cognitivo positivo è “rilevante”, è anche vero che
è più “rilevante” lo stimolo in grado di produrre l’effetto cognitivo maggiormente
positivo e meno rilevante lo stimolo che richiede maggiore sforzo di elaborazione.

6.2.4. Pragmatica e psicolinguistica: la salienza


e la direct access view

Negli ultimi anni si è assistito a una sensibilizzazione della psicolinguistica verso


i temi di studio della pragmatica e, contemporaneamente, a un’attenzione della
pragmatica verso i metodi di studio della psicolinguistica (per approfondimento si
veda [23]).
Nell’ottica psicolinguistica, le domande della pragmatica si concretizzano in
ipotesi riguardo il ruolo degli elementi contestuali nella selezione dei significati
e quindi nella comprensione degli enunciati [24]. Due differenti approcci posso-
no essere considerati rappresentativi dell’interpretazione del rapporto linguag-
gio/contesto: un primo approccio che vede l’intervento dell’informazione conte-
stuale come secondario rispetto all’elaborazione dell’informazione semantica, e
un secondo che prevede un’elaborazione simultanea delle informazioni semanti-
che e contestuali (pragmatiche).
Esaminiamo in particolare alcuni modelli centrali di questo secondo approccio.
In primo luogo, la teoria di Giora [25] può essere vista come la risposta a due
domande fondamentali:

– È l’informazione contestuale o il significato linguistico a determinare il proces-


so iniziale di comprensione?
– Che ruolo gioca il contesto nella comprensione verbale?

I processi iniziali di comprensione coinvolgono due meccanismi separati che


operano simultaneamente senza interagire tra loro: uno sensibile all’informazione
6. Dalla pragmatica alla prospettiva neuropragmatica 169

linguistica e un altro sensibile all’informazione contestuale (linguistica e non lin-


guistica). Il primo meccanismo, responsabile dell’accesso lessicale, risponde solo
all’informazione codificata nel lessico mentale e prevede un accesso sulla base
della salienza. Il secondo meccanismo, sensibile all’informazione contestuale, con-
tribuisce alla formazione globale del messaggio.
I due meccanismi sono separati e operano in parallelo come mostrato schema-
ticamente nella Tabella 6.1.
L’accesso prioritario è dato ai significati più salienti. Un significato per essere
saliente deve essere codificato nel lessico mentale e deve godere di preminenza
grazie ai suoi livelli di convenzionalità, frequenza, familiarità e prototipicità. Solo
se i significati salienti sono contestualmente incompatibili vengono attivati pro-
cessi addizionali che richiedono l’intervento dell’informazione contestuale. Il con-
testo, quindi, in determinate condizioni, interviene con funzione predittiva equili-
brando la salienza. In base a questi parametri sono postulati diversi gradi di salien-
za. I significati più salienti ottengono un accesso immediato, mentre i significati
meno salienti (non codificati) richiedono ulteriori processi inferenziali contestual-
mente supportati.
Anche la domanda iniziale di Gibbs [24, 26] riguarda la relazione tra messag-
gio e contesto all’interno del quale il messaggio è veicolato. Secondo l’autore per-
mane la distinzione tra ciò che il parlante dice e ciò che intende comunicare in un
dato contesto, ma, contrariamente a quanto formulato dalle teorie standard, consi-
dera la componente pragmatica non come un livello ulteriore dell’elaborazione lin-
guistica, bensì come una competenza indipendente dal linguaggio stesso. In termi-
ni pragmatici si può affermare che ciò che è detto non coincide con il significato
minimo della frase, ma, già a questo livello le persone usano l’informazione prag-
matica per comprendere ciò che è detto.
In altre parole, secondo Gibbs la comprensione del linguaggio non avverrebbe
in stadi distinti, come affermato dalle teorie standard; al contrario, vi sarebbe un
unico processo di comprensione sotteso all’elaborazione di significati minimi e
pragmatici (Direct Access View). Inoltre, se i contesti sono egualmente espliciti, lo
stesso enunciato può essere usato in una qualsiasi modalità pragmatica (standard o
non standard) senza che si verifichi alcuna difficoltà di elaborazione. La Direct
Access View sostiene che, quando fornite di informazioni contestuali sufficienti, le

Tabella 6.1 Meccanismi attivati nella comprensione di un enunciato. Modificata da [25]

Meccanismo linguistico – Sensibile allo stimolo


– Bottom-up (dallo stimolo linguistico alla conoscenza
lessicale ai fini della loro corrispondenza)
– Opera localmente (word-level)
– La salienza è criterio di accesso prioritario

Meccanismo contestuale – Guidato dalle aspettative


– Top-down (opera per la comprensione quando
l’informazione linguistica è già stata processata)
– Non interagisce con il meccanismo linguistico
ma opera in parallelo
170 M. Balconi, S. Amenta

persone comprendono il significato non-letterale direttamente senza analizzare il


completo significato letterale di un’espressione. Quindi:

– esiste un unico meccanismo sensibile sia all’informazione linguistica sia a quel-


la non linguistica;
– l’informazione contestuale interagisce molto precocemente con il lessico e
comporta l’accesso selettivo ai significati contestualmente appropriati;
– i significati contestualmente inappropriati vengono inibiti e quindi non raggiun-
gono un sufficiente livello di attivazione.

I parlanti possono comprendere direttamente i significati intesi di enunciati non


letterali se questi sono inseriti in contesti reali o sufficientemente ricchi. Essi non
hanno pertanto bisogno di analizzare il significato letterale completo di un’espres-
sione linguistica prima di accedere all’informazione pragmatica per capire il signi-
ficato inteso dal parlante.
In sintesi, tale approccio prevede l’esistenza di un unico meccanismo interatti-
vo sensibile sia all’informazione linguistica sia all’informazione non linguistica.
L’informazione contestuale interagisce con il lessico molto precocemente, condu-
cendo a un accesso selettivo del significato contestualmente appropriato. Al contra-
rio, i significati contestualmente inappropriati sono inibiti in quanto non ricevono
un livello di attivazione sufficiente.

6.3. Neuropragmatica

6.3.1. Prospettiva neuropragmatica e neuropragmatica cognitiva

Come abbiamo visto, la pragmatica si occupa principalmente dell’uso comunicati-


vo del linguaggio. La neuropragmatica, a integrazione della precedente, si pone
l’obiettivo di analizzare la relazione tra la struttura e il funzionamento cerebrale e i
processi mentali di uso del linguaggio. Essa si occupa cioè del modo in cui la mente
produce e comprende comportamenti pragmatici linguistici in popolazioni sane o
con deficit neurologici di vario genere [27-29].
In particolare, la neuropragmatica, in quanto si prefigge di indagare l’attività
mentale studiandone l’organizzazione neurale e funzionale in ottica multicompo-
nenziale (mediante l’analisi di deficit, naturali o virtuali cognitivi ed emotivi), si
colloca da un lato al crocevia tra pragmatica linguistica e cognitiva, dall’altro tra
neurolinguistica, neuroscienze cognitive e neuropsicologia sperimentale.
I suoi principali obiettivi sono riassumibili nei seguenti punti:

– costituirsi come paradigma per testare le teorie pragmatiche attraverso metodo-


logie avanzate;
– indagare le basi neurali dei processi cognitivi coinvolti nella comunicazione
umana, intesa come azione intenzionale e orientata e come processo cognitivo
complesso volto alla costruzione e condivisione dei significati.
6. Dalla pragmatica alla prospettiva neuropragmatica 171

Nelle sue differenti direzioni di sviluppo è possibile individuare un primo filone


fecondo definito neuropragmatica clinica, finalizzata a individuare specificamente i
deficit nella produzione/comprensione di particolari componenti del processo comuni-
cativo (ad esempio, quelle legate all’elaborazione del discorso [30-33]).
In secondo luogo, all’interno del paradigma neuropragmatico, uno spazio spe-
cifico è riservato alla neuropragmatica cognitiva, secondo cui le abilità pragmati-
che stesse sono concepite in termini di “sequenze di stati mentali (come credenze e
intenzioni) che due agenti intrattengono nel progettare e comprendere gli atti comu-
nicativi che formano il discorso” [29]. Lo studio neuropragmatico della comunica-
zione consiste quindi nell’analizzare le basi neurali sottostanti alle abilità pragma-
tiche e i fattori che le influenzano. In particolare, ci si chiede quali meccanismi
cognitivi e quali circuiti neurali si attivano e in quali tempi ciò avvenga.
In questo senso, per buona parte degli studi di neuropragmatica le unità di analisi
non sono più semplicemente gli atti linguistici, come nel caso della pragmatica lingui-
stica, ma diventano i processi cognitivi e le loro basi neurali, che compongono il pro-
cesso comunicativo da intendersi come interattivo, interadattabile e inferenziale. Il
comportamento comunicativo, in altri termini, è funzione di più processi cognitivi
quali quelli di predisposizione di complesse sequenze di atti linguistici, extralinguisti-
ci, paralinguistici (per questi concetti, si veda il Capitolo 1) e di integrazione di questi
con piani e scopi specifici del parlante. Inoltre, richiede un attento monitoraggio del
processo stesso in relazione al feedback interno (ad esempio, il livello di attivazione
fisiologica) ed esterno (quale la risposta dell’interlocutore e dell’ambiente) [34].

6.3.2. Problematiche aperte dell’approccio neuropragmatico

Tra i principali quesiti oggetto di analisi della neuropragmatica vi è quello relati-


vo all’esistenza di circuiti neurali specifici per le abilità pragmatiche e se questi
possano essere indicati da correlati neuropsicologici e psicofisiologici particola-
ri. Buona parte degli studi di neuropragmatica si è occupata di fornire descrizio-
ni e spiegazioni dettagliate di come le abilità pragmatiche siano conservate o
compromesse in popolazioni con danni cerebrali [35-39] o di dove e quando i
significati pragmatici vengono elaborati in popolazioni normali [40-43]. Alla
base di tale concetto si pone in particolare il quesito circa la rappresentazione
delle funzioni pragmatiche all’interno di un determinato modulo o di moduli cor-
ticali finalizzati e specifici per determinate competenze. Gli studiosi si sono chie-
sti, ad esempio, se esista un modulo “dedicato”, in grado di rappresentare i siste-
mi cognitivi sottostanti alla comprensione degli atti linguistici indiretti, come
l’ironia, o il linguaggio figurato, come nel caso di enunciati metaforici. Tuttavia,
seppure a una concezione più “forte” di modulo si è affiancata nel corso del
tempo anche una rappresentazione più “debole”, che presuppone la possibilità di
interdipendenza e interscambio tra sistemi e sottosistemi e una rappresentazione
distribuita piuttosto che localizzata degli stessi [44, 45]. A oggi non esistono studi
esaustivi in grado di definire una esatta localizzazione delle principali funzioni
pragmatiche a livello corticale.
172 M. Balconi, S. Amenta

In secondo luogo, l’interdisciplinarietà della neuropragmatica comporta una


pluralità di strumenti di ricerca che utilizzano modelli teorici e metodologie a
volte molto diversi tra loro. Nel Capitolo 2 si è fatto esplicito riferimento ai prin-
cipali strumenti della ricerca neuropsicologica (compresa quella cognitiva, clinica
e sperimentale). Inoltre, lo studio neuropragmatico si caratterizza anche per i
diversi approcci e paradigmi di ricerca adottati al suo interno [46]. Il paradigma
della neuropragmatica si è occupato sia di produzione sia di comprensione del lin-
guaggio, ma ha privilegiato per i due ambiti diversi oggetti di studio: per la com-
prensione del linguaggio, si sono analizzati soprattutto fenomeni relativi al lin-
guaggio figurato (metafore, ironia, umorismo), agli atti linguistici indiretti e ai
fenomeni di inferenza (anche riguardanti implicature conversazionale); mentre
nello studio della produzione è stata data particolare attenzione alle abilità (o
“disabilità”) discorsive (per una breve rassegna cfr. [47]).
Per quanto riguarda i “luoghi” dell’elaborazione pragmatica, si è tradizional-
mente indicato l’emisfero destro come ambito privilegiato di localizzazione dei
fenomeni pragmatici (per un approfondimento si veda [48-50]). Le ragioni della
distinzione hanno trovato a lungo sostegno nelle teorie che affermano l’esistenza
di differenze anatomiche e funzionali tra i due emisferi. In particolar modo,
all’emisfero sinistro è attribuita una modalità di elaborazione delle informazioni
razionale, analitica, sequenziale e locale (propri del pensiero logico); mentre
l’emisfero destro si caratterizzerebbe per modalità olistiche, sintetiche, parallele e
globali di funzionamento. Le differenti specializzazioni emisferiche sarebbero
quindi da individuare in particolar modo nelle modalità di elaborazione delle
informazioni [50, 51]. L’emisfero destro sarebbe dunque l’emisfero specializza-
to nell’elaborazione visuospaziale, sensibile alle variazioni prosodiche (espres-
sive ed emotive), all’organizzazione semantico-lessicale idiosincratica e quindi
“naturalmente” legato ai diversi aspetti dell’uso del linguaggio, propri della
pragmatica [49, 52]. Queste teorie hanno trovato riscontro nello studio della
compromissione delle abilità pragmatiche in popolazioni cliniche [53-56].
Tuttavia, studi recenti, sia clinici sia sperimentali, adottando anche strumenti di
analisi differenti (come nuove batterie testistiche) [46, 57, 58] o metodologie di
neuroimaging (cfr. [59]) hanno messo in discussione le precedenti teorie rilevan-
do una complessa rete di attivazione sia coinvolge entrambi gli emisferi, in par-
ticolar modo per quanto riguarda i lobi frontali [60].
Le stesse problematiche si riscontrano nei paradigmi di ricerca che si occu-
pano dei “tempi” necessari affinché l’elaborazione pragmatica avvenga, soprat-
tutto utilizzando misure di natura elettrofisiologica. Quest’ultima metodologia
consente infatti un monitoraggio puntuale delle modificazioni della risposta cor-
ticale del soggetto alle proprietà degli stimoli linguistici, evidenziando la natu-
ra qualitativa dei processi cognitivi implicati nella produzione e comprensione
del linguaggio. All’interno di questo paradigma è stato via via consolidato, ad
esempio, il ruolo della componente ERP N400 [61], rilevata in presenza di sti-
molazioni di differente natura, relativa ai processi di integrazione semantica o
nel caso della rilevazione di un’incoerenza stimolo/contesto, o, ancora di stimo-
lo inatteso [62-67]. In alcuni casi, tale indice è stato rilevato come sensibile alle
componenti non letterali del significato, in condizioni di comprensione di signi-
6. Dalla pragmatica alla prospettiva neuropragmatica 173

ficati metaforici [68-72]. Inoltre, attuale oggetto di discussione nell’ambito dello


studio con metodologia ERP è l’elaborazione di significati pragmatici, con par-
ticolare interesse verso i processi integrativi richiesti dal linguaggio figurato in
fasi successive ai 400 ms [70, 73-75].

6.4. Elaborazione del linguaggio ironico: alcune evidenze empiriche

Tra i fenomeni studiati più recentemente in ambito neuropragmatico è possibile


includere le stringhe non composizionali (al riguardo si veda il Capitolo 5), le
forme idiomatiche del discorso (esplorate nel Capitolo 4), il linguaggio figurato,
come nel caso della comunicazione metaforica o ironica. Come anticipato, per
quanto riguarda i processi di comprensione del linguaggio, gli studi neuropragma-
tici si sono focalizzati soprattutto sui fenomeni relativi al linguaggio figurato e alla
comunicazione non standard. Abbiamo avuto modo di illustrare in precedenza che
la distinzione tra comunicazione standard e non standard si fondi sui processi infe-
renziali coinvolti nella comprensione del significato del parlante (si veda il paragra-
fo 6.2.3). Si suppone generalmente che messaggi standard richiedano semplici
regole inferenziali di default per essere compresi. Al contrario, fenomeni non stan-
dard, quali ad esempio, ironia, umorismo, inganno, violano esplicitamente o impli-
citamente le regole di comunicazione e per questo, per essere riconosciuti e com-
presi, necessitano di processi inferenziali più complessi che richiedono l’impiego
di ulteriori risorse da parte del sistema cognitivo.

6.4.1. Modelli dell’ironia

Seppur frequente e comune nelle nostre comunicazioni quotidiane, l’ironia è da


considerarsi un fenomeno pragmatico complesso che richiede specifiche abilità lin-
guistiche, comunicative e cognitive per essere compreso. Nel tentativo di esamina-
re come l’ironia possa essere impiegata dai parlanti, sono state elaborate diverse
teorie. In alcuni casi, è stata considerata sia come una forma di anomalia semanti-
ca [13, 15] sia come costrutto pragmatico [76, 77]. Secondo gli approcci cognitivi
è stata poi considerata come una forma del pensiero [78-80] che chiama in causa il
concetto di controfattualità [81]. Infine, all’interno di un approccio comunicativo,
l’ironia è stata ritenuta non tanto un’anomalia semantica o pragmatica, quanto un
fenomeno di discomunicazione che coinvolge diversi livelli di rappresentazione di
intenzioni comunicative complesse [82].
In generale, è possibile definire l’ironia come un fenomeno pragmatico in cui
il significato inteso (figurato) è opposto al significato espresso (letterale). Per
meglio comprendere tale aspetto occorre fare riferimento alla teoria degli atti lin-
guistici [14], secondo cui, se un enunciato è letteralmente vero, allora non può
essere ironico. Al contrario, se un enunciato è incongruente con uno stato di cose
vero può avere differenti tipi di forza illocutoria: può essere falso, ironico oppure
174 M. Balconi, S. Amenta

un errore [83]. Inoltre, a questi fenomeni è da aggiungersi il caso di eufemismi e


iperboli, ovvero quelle particolari forme di linguaggio in cui una situazione è
descritta in termini intermedi tra la realtà e il suo opposto [84]. Infine, è da rile-
varsi il caso di enunciati veri che possono essere appropriati ma non completamen-
te pertinenti alla situazione cui si riferiscono [77, 85]. Per riconoscere e poter
distinguere l’intenzione comunicativa veicolata da enunciati di questo tipo è
necessario utilizzare conoscenze di tipo metarappresentazionale e abilità di tipo
metalinguistico/pragmatico. Ciò è dovuto al fatto che la differenza tra linguaggio
letterale e non letterale è posta nella relazione tra ciò che è detto e ciò che è impli-
cato: nel linguaggio letterale/standard ciò che è detto è consistente con ciò che è
implicato. Al contrario, nella comunicazione non standard possono essere riscon-
trati differenti gradi di incongruenza tra ciò che è espresso e ciò che è inteso.
Per quanto riguarda la comprensione degli enunciati ironici il dibattito all’inter-
no della pragmatica è ancora vivo. Tuttavia possiamo riconoscere tre ipotesi prin-
cipali che tengono conto dell’interazione tra accesso lessicale e informazione con-
testuale: il modello sequenziale proprio della pragmatica standard [13, 15]; i
modelli di accesso parallelo [86-88]; il modello dell’accesso diretto [22, 89].
Secondo la teoria pragmatica standard [13, 15], l’ironia può essere considera-
ta, così come altre forme di linguaggio figurato, una violazione di massime con-
versazionali, in particolare della massima di qualità (verità). In altre parole, un
enunciato ironico è considerato un enunciato letterale falsificato dal contesto defi-
nito dalla realtà vero-condizionale. Per comprendere l’ironia è quindi necessario
riconoscere che il parlante sta fingendo e ricostruire il reale significato dell’enun-
ciato, solitamente contrapposto a ciò che è detto. In altre parole, al fine di com-
prendere l’intenzione ironica un individuo deve in primo luogo elaborare il signi-
ficato letterale di un enunciato, testandone il significato in base al contesto e, nel
caso fosse riscontrata un’incongruenza attribuita alla violazione di massime con-
versazionali, cercare un’alternativa non letterale che ripristini il senso dell’enun-
ciato. Il processo di recupero del significato inteso richiede processi inferenziali
ulteriori, denominati “implicature conversazionali”: soltanto alla fine di tale pro-
cesso l’incoerenza è risolta e il significato inteso ricostruito. Questo processo
richiede uno sforzo cognitivo, come testimoniato dalla presenza di tempi di elabo-
razione maggiori necessari a formulare la corretta interpretazione rispetto a enun-
ciati non ironici [86, 90]. Tuttavia, il modello standard è stato messo in discussio-
ne a più riprese da diversi studi empirici, che hanno trovato tempi di lettura, rela-
tivi a significati figurati in generale e ironici in particolare, non superiori a quelli
richiesti da enunciati letterali [22].
Altri modelli pragmatici propongono l’ipotesi dell’elaborazione parallela. Tale
approccio ipotizza che sia i significati letterali sia quelli non letterali siano elabo-
rati simultaneamente, senza avanzare, tuttavia, alcuna ipotesi interpretativa rispet-
to all’ordine in cui ciò avviene. I due principali modelli rappresentativi di questo
approccio sono da un lato la teoria dei gradi di salienza [25], dall’altro il modello
di accesso parallelo (Parallel Race Model) [88, 91].
Giora [25] suggerisce che i significati compresi primariamente siano quelli
salienti. In questo caso ironie familiari e convenzionali avranno due significati
salienti, quello letterale e quello ironico e l’ordine di elaborazione dipende dal loro
6. Dalla pragmatica alla prospettiva neuropragmatica 175

grado di salienza. Se il significato non letterale è meno saliente di quello letterale


otterrà accesso attraverso l’interpretazione letterale più saliente, attivata per prima.
Al contrario, Dews e Winner, a partire dal modello proposto da Long e
Graesser, ipotizzano che i significati letterali di enunciati ironici debbano essere
sempre attivati al fine di comprendere il reale contenuto dell’enunciato. Tuttavia
non esiste un ordine gerarchico di attivazione: entrambi i significati ottengono
accesso simultaneo e sono elaborati in concomitanza. Inoltre, entrambi sono utiliz-
zati per il processo di costruzione del significato. Tale modello ha trovato confer-
ma da parte di studi clinici, tra i quali uno recente ha mostrato che pazienti con abi-
lità pragmatiche compromesse a cui era stato richiesto di elaborare storie con fina-
li ironici, seppur non riuscissero a elaborare un’interpretazione ironica, riconosce-
vano il significato letterale come vero, ciò a indicare che il significato letterale era
comunque compreso [92].
Un terzo approccio suppone che, in casi particolari, il significato ironico possa
ottenere un accesso diretto [22, 93]. Secondo Gibbs, un contesto che offre sufficien-
ti elementi informativi per una comprensione ironica rende possibile un’interpreta-
zione non letterale diretta e automatica senza il bisogno di passare attraverso l’in-
terpretazione letterale incongruente. Ciò avverrebbe poiché, in un contesto dotato
di indizi sufficienti, l’interpretazione ironica diventa altamente convenzionale,
mentre l’elaborazione del significato letterale non appropriato e non convenziona-
le è opzionale e quindi non necessaria. Tali ipotesi sono state testate mediante il
paradigma dei tempi di lettura, la cui assunzione base riguarda il fatto che i tempi
di lettura di un enunciato possono riflettere i processi di comprensione iniziali.
Tempi superiori indicano che un enunciato richiede processi di elaborazione più
complessi, mentre tempi inferiori indicano un minore sforzo di elaborazione. I
tempi di lettura di enunciati ironici non convenzionali hanno indicato uno sforzo
cognitivo superiore per l’elaborazione rispetto alle controparti letterali, mentre ciò
non accadrebbe per enunciati ironici convenzionali [86, 90, 94]. La Tabella 6.2 pro-
pone una sintesi dei modelli discussi in precedenza.
Studi ERP sull’ironia sembrano propendere per l’ipotesi dell’accesso diretto.
In una recente indagine [95] sono state formulate due differenti ipotesi di lavoro.
Da un lato si è supposto che, in accordo con il modello pragmatico standard, l’in-
terpretazione ironica di un enunciato passi necessariamente attraverso l’analisi lin-
guistica e debba richiedere uno sforzo maggiore per l’integrazione del significato
e che ciò debba essere segnalato da un incremento dell’effetto N400. Al contrario,
in accordo con l’ipotesi dell’accesso diretto, l’informazione contestuale dovrebbe
essere immediatamente disponibile per la corretta interpretazione e ciò sarebbe
segnalato dalla mancanza di un incremento dell’indice N400. I risultati sperimen-
tali hanno evidenziato una sostanziale assenza di effetto N400 relativo all’ironia,
mostrando al contempo per questa condizione una negatività posteriore diffusa
attorno ai 100 ms e una positività posteriore tra i 500 e i 900 ms. L’assenza del-
l’effetto N400 sembra non deporre a favore del modello pragmatico standard, evi-
denziando al contempo che non sarebbe richiesto uno sforzo di integrazione mag-
giore nella condizione ironica rispetto a quella letterale. Tali risultati sono confer-
mati da un recente studio empirico [96] che, oltre a testare la modulazione dell’ef-
fetto N400 in enunciati ironici e non ironici, ha indagato il costrutto di “controfat-
176 M. Balconi, S. Amenta

Tabella 6.2 Modelli di elaborazione di enunciati ironici ed effetti ERP attesi

Modelli pragmatici Ipotesi di elaborazione Effetto ERP atteso


di enunciati ironici

Pragmatica standard – Priorità dell’informazione – Incremento dell’effetto


[13, 16] lessico-semantica N400 in presenza di
– Il significato ironico è derivato enunciati ironici
dopo che il significato letterale
è stato valutato incongruente
e conseguentemente scartato

Modelli di accesso
parallelo

Parallel Race Model – I significati lessicali e – Nessun incremento


[88] contestuali sono entrambi dell’effetto N400,
attivati e processati – Ipotizzati effetti ERP
concorrentemente a latenze successive
– Il significato letterale è
essenziale per la comprensione
del significato inteso

Ipotesi del grado di salienza – Priorità della “salienza” – Nessun incremento


[87] sull’appropriatezza contestuale dell’effetto N400 per ironie
– Le ironie familiari hanno convenzionali
un doppio significato saliente – Incremento dell’effetto
(letterale e ironico): entrambi N400 per ironie non
i significati sono attivati convenzionali
ed elaborati – Ipotizzati effetti ERP a
– Le ironie non familiari hanno latenze tardive (processi
un solo significato saliente di selezione del significato
(letterale): il significato ironico congruente)
è derivato successivamente
allo scarto del significato letterale

Direct Access View – Priorità dell’informazione – Nessun incremento


[89] contestuale dell’effetto N400
– Interazione precoce delle
informazioni contestuali e lessicali
al fine di costruire un significato
contestualmente appropriato
– Il significato ironico è
direttamente attivato

tualità” come condizione necessaria e sufficiente per la comprensione di enuncia-


ti ironici [97]. I risultati delle analisi non mettono in evidenza differenze signifi-
cative rispetto alla N400, tra condizione ironica, condizione ironica/controfattua-
le (enunciato ironico falso) e condizione letterale, ciò a indicare che non è possi-
bile considerare la controfattualità come condizione necessaria e sufficiente per la
comprensione del linguaggio ironico.
6. Dalla pragmatica alla prospettiva neuropragmatica 177

6.4.2. Contributo della neuropragmatica clinica


Sono soprattutto gli studi clinici che si sono occupati di rintracciare i contributi di
specifiche aree cerebrali per la comprensione di enunciati ironici. La maggior parte
di questi si è focalizzata sulla relazione tra comprensione e danni cerebrali con la
finalità di rintracciare le abilità necessarie alla comprensione di enunciati ironici e
la loro localizzazione cerebrale. Nel dominio dell’ironia è stato preso in considera-
zione in particolare il sarcasmo, come forma linguistica utilizzata per veicolare
implicitamente critiche o atteggiamenti negativi verso il destinatario. Ricerche sulla
comprensione di sarcasmo e ironia in popolazioni cliniche hanno messo in luce il
ruolo rilevante dell’emisfero destro [98-100], sottolineando l’importanza particola-
re delle zone frontali per il decoding ironico [56, 101-103].
L’emisfero destro è infatti attivo nella mediazione di funzioni visuospaziali e
non verbali. Nello specifico esso riveste un ruolo di primo piano nel dominio para-
linguistico per la modulazione delle componenti acustiche e prosodiche del lin-
guaggio [104] (per il concetto di paralinguaggio si veda il Capitolo 1). In aggiun-
ta, pazienti RH mostrano problemi con abilità pragmatiche generali riguardanti il
linguaggio non-letterale, presentando difficoltà nella comprensione di metafore,
idiomi, proverbi e dell’umorismo [39, 105-107]. Pazienti con danni cerebrali
destri riferiscono di avere un controllo ridotto della modulazione prosodica del
parlato e manifestano deficit nell’utilizzo di indici prosodici in compiti di com-
prensione del linguaggio [108-110]. Tompkins e Mateers [111] hanno investigato
le abilità di pazienti con lobotomia destra nella comprensione di enunciati sarca-
stici. Ai soggetti è stato chiesto di ascoltare coppie di stimoli (descrizione di
script), una con valenza prosodica positiva e l’altra negativa. Entrambe le vignet-
te terminavano con un commento positivo, pertanto congruente con la valenza del
brano nella prima condizione e incongruente nella seconda. Gli autori hanno ripor-
tato difficoltà da parte dei soggetti nel giudicare l’appropriatezza del tono di voce
e nell’integrazione del commento finale in caso di incongruenza. Pertanto, una
conclusione possibile è che la difficoltà riscontrata da pazienti RBD nella com-
prensione dell’ironia sarcastica possa riguardare l’utilizzo di indici prosodici
necessari ad attribuire un significato a stimoli linguistici sarcastici controfattuali
(condizione di incongruenza).
Inoltre, deficit nella comprensione dell’ironia e del sarcasmo possono indicare
la compromissione dell’abilità di riconoscimento di indizi legati a credenze, inten-
zioni, emozioni. Infatti, l’interpretazione di ironia e sarcasmo richiede la compren-
sione delle intenzioni espresse, implicando l’attivazione di conoscenze circa gli
stati mentali (teoria della mente) altrui. In effetti, pazienti RBD mostrano abilità
ridotte nella formulazione di una teoria della mente, limitando l’interpretazione del
commento ironico a una comprensione superficiale del significato esplicito del-
l’enunciato [99, 112, 113].
In sintesi, questi studi hanno confermato che l’elaborazione di enunciati ironici
è un processo complesso, che richiede differenti competenze inferenziali e abilità
cognitive. Essi suggeriscono inoltre che l’emisfero destro riveste un ruolo impor-
tante nella discriminazione di indici prosodici al fine di derimere le componenti
pragmatiche e di ricostruire l’intenzione comunicativa del parlante.
178 M. Balconi, S. Amenta

Bibliografia

1. Reddy MJ (1979) The conduit metaphor – a case of frame conflict in our language about lan-
guage. In: Ortony A (ed) Metaphor and thought. Cambridge University Press, London, pp.
284-324
2. Szabo ZC (2005) Semantics versus pragmatics. Oxford University Press, New York
3. Jaszczolt KM (2002) Semantics and pragmatics. Longman, London
4. Gibbs R (1999) Intentions in the experience of meaning. Cambridge University Press,
Cambridge
5. Peirce CS (1894) What is a sign? In: Collected papers. Harvard University Press, Cambridge
Mass, pp. 1931-1935
6. De Saussure (1916) Corso di linguistica generale. Laterza, Bari
7. Jackendoff R (1992) Languages of the mind: essays on mental representation. The MIT
Press, Cambridge Mass
8. Lakoff G (1987) Women, fire and dangerous thing: what categories reveal about the mind.
Chicago University Press, Chicago
9. Giannoli GI (2005) La comprensione inferenziale. In: Ferretti F, Gambarara D (eds)
Comunicazione e scienza cognitiva. Laterza, Bari, pp. 73-110
10. Verschueren J (1999) Understanding Pragmatics. Arnold, London
11. Wittgenstein L (1953) Philosophische Untersuchungen. Blackwell, Oxford
12. Morris CW (1938) Foundations of the theory of signs. In: Neurath O, Carnap R, Morris CW
(eds) International encyclopedia of unified science. University of Chicago Press, Chicago,
pp. 77-138
13. Grice P (1975) Logic and conversation. In: Cole P, Morgan JL (eds) Syntax and semantics 3:
Speech acts. Academic Press, New York, pp. 41-58
14. Austin JL (1962) How to do things with words: the William James lectures delivered in
Harvard University in 1955. Clarendon, Oxford
15. Searle JR (1969) Speech acts: an essay in the philosophy of language. Cambridge University
Press, Cambridge
16. Searle JR (1976) A classification of illocutionary acts. Language in Society 5:1-23
17. Dascal M (1983) Pragmatics and the philosophy of mind 1: thought in language. Pragmatics
and beyond. An Interdisciplinary Series of Language Studies 4:1-207
18. Ferretti F, Gambarara D (2005) Comunicazione e scienza cognitiva. Laterza, Bari
19. Sperber D, Wilson D (1986) Relevance: communication and cognition. Blackwell, Oxford
20. Levinson S (2000) Presumptive meanings: the theory of generalized conversational implica-
ture. The MIT Press, Cambridge Mass.
21. Récanati F (2003) Literal meaning. Cambridge University Press, Cambridge
22. Carston R (2002) Thoughts and utterances: the pragmatics of explicit communication.
Blackwell, Oxford
23. Sperber D, Noveck I (2004) Experimental pragmatics. Palgrave, San Diego
24. Gibbs RW (1999) Speakers’ intuitions and pragmatic theory. Cognition 69:355-359
25. Giora R (2003) On our mind: context, salience and figurative language. Oxford University
Press, New York
26. Gibbs RW (2002) A new look at literal meaning in understanding what is said and implica-
ted. J Pragmatics 34:457-486
27. Stemmer B (1999) Pragmatics: theoretical and clinical issues. Brain Lang 68:389-391
28. Stemmer B, Shönle PW (2000) Neuropragmatics in the 21st century. Brain Lang 71:233-236
29. Bara BG, Tirassa M (2000) Neuropragmatics: brain and communication. Brain Lang
71:10-14
30. Joanette Y, Brownell HH (1990) Discourse ability and brain damage: theoretical and empiri-
cal perspectives. Springer-Verlag, New York
31. Damico JS (1985) Clinical discourse analysis: a functional approach. In: Simon CS (ed)
Communication skills and classroom success. Taylor and Francis, Basingstoke, pp. 165-204
6. Dalla pragmatica alla prospettiva neuropragmatica 179

32. Hird K, Kirsner K (2003) The effect of right cerebral hemisphere damage on collaborati-
ve planning in conversation: an analysis of intentional structure. Clin Linguist Phonet
17:309-325
33. Joanette Y, Ansaldo AY (1999) Clinical note: acquired pragmatic impairments and aphasia.
Brain Lang 68:529-534
34. Levelt WJM (1999) Producing spoken language: a blueprint of the speaker. In: Brown
CM, Hagoort P (eds) The neurocognition of language. Oxford University Press, New
York, pp. 83-122
35. McDonald S (1998) Communication and language disturbances following traumatic brain
injury. In: Stemmer B, Whitaker HA (eds) Handbook of neurolinguistics. Academic Press,
San Diego London, pp. 485-494
36. Martin I, McDonald S (2003) Weak coherence, no theory of mind, or executive dysfunction?
Solving the puzzle of pragmatic language disorders. Brain Lang 85:451-466
37. Brownell H, Stingfellow A (1999) Making requests: illustration of how right hemisphere
brain damage can affect discourse production. Brain Lang 68:422-465
38. Kasher A, Batori G, Soroker N et al (1999) Effects of right-and left-hemisphere damage on
understanding conversational implicatures. Brain Lang 68:566-590
39. Giora R, Zaidel E, Soroker N et al (2000) Differential effects of right- and left-hemisphere
damage on understanding sarcasm and metaphor. Metaphor Symbol 15:63-83
40. Noveck IA, Posada A (2003) Characterizing the time course of an implicature: an evoked
potentials study. Brain Lang 85:203-210
41. Buchanan TW, Lutz K, Mirzazade S et al (2000) Recognition of emotional prosody and ver-
bal components of spoken language: an fMRI study. Cognitive Brain Res 9:227-238
42. Lee SS, Dapretto M (2006) Metaphorical vs. literal word meanings: fMRI evidence against
a selective role of the right hemisphere. Neuroimage 15:536-544
43. Coulson S (2004) Electrophisiology and pragmatic language comprehension. In: Sperber D,
Noveck IA (eds) Experimental pragmatics. Palgrave, Dan Diego, pp. 187-206
44. Keller J, Recht T (1998) Towards a modular description of the deficits in spontaneous spe-
ech in dementia. J Pragmatics 29:313-332
45. Kutas M (2006) One lesson learned: frame language processing – literal and figurative – as
a human brain function. Metaphor Symbol 4:285-325
46. Caplan D (1992) Language: structure, processing and disorders. The MIT Press, Cambridge
47. Bambini V (2003) Pragmatica e cervello: guida e stato dell’arte. Quaderni del laboratorio di
linguistica 4:1-29
48. Van Lanker D (1997) Rags to riches: our increasingly appreciation of cognitive and commu-
nicative abilities of human right cerebral hemisphere. Brain Lang 57:1-11
49. Joanette Y, Goulet P, Hannequin D (1990) Right hemisphere and verbal communication.
Springer-Verlag, New York
50. Davidson RJ, Hughdal K (1995) Brain asymmetry. MIT Press, Cambridge Mass.
51. Hellige JB (1993) Hemispheric asymmetry: what’s right and what’s left. Harvard University
Press, Cambridge Mass.
52. Beeman M, Chiarello C (1998) Right hemisphere language comprehension: perspectives
from cognitive neuroscience. Erlbaum, Hillsdale
53. Cummings L (2007) Pragmatics and adult language disorders: past achievements and future
directions. Seminars in Speech e Language 28:96-110
54. Feyereisen P, Berrewaerts J, Hupet M (2007) Pragmatic skills in the early stages of
Alzheimer’s disease: an analysis by means of a referential communication task. Int J Lan
Comm Dis 42:1-17
55. Martin I, McDonald S (2006) That can’t be right! What causes pragmatic language impair-
ment following right hemisphere damage? Brain Impairment 7:201-211
56. Uchiyama H, Seki A, Kageyama H et al (2006) Neural substrates of sarcasm: a functional
magnetic-resonance imaging study. Brain Res 1124:100-110
57. Commodari E (2002) Disturbi del linguaggio: i deficit della comunicazione orale: strumenti
di valutazione e riabilitazione. Città Aperta, Enna
180 M. Balconi, S. Amenta

58. Gardner H, Brownell HH (1986) Right hemisphere communication battery. Psychology


Service, Boston
59. Démonet JF, Thierry G, Cardebat D (2005) Renewal of the neurophysiology of language:
functional neuroimaging. Physiol Rev 85:49-95
60. Zaidel E (1998) Language in the right hemisphere following callosal disconnection. In: Stemmer
B, Whitaker HA (eds) Handbook of Neurolinguistics. Academic Press, San Diego, pp. 369-383
61. Kutas M, Hillyard S (1984) Brain potential during reading reflect word expectancies and
semantic association. Nature 307:161-163
62. Coulson S, King JW, Kutas M (1998) Expect the unexpected: event-related brain responses
to morphosyntactic violations. Lang Cognitive Proc 13:21-58
63. Balconi M, Pozzoli U (2004) N400 and P600 or the role of the ERP correlates in sentence
comprehension: some applications to the Italian language. J Gen Psychol 131:268-303
64. Balconi M, Pozzoli U (2005) Comprehending semantic and grammatical violations in Italian.
N400 and P600 comparison with visual and auditory stimuli. J of Psycholinguist Res 34:71-98
65. Kuperberg GR, Holcomb PJ, Sitnikova T et al (2003) Distinct patterns of neural modulation
during the processing of conceptual and syntactic anomalies. J Cognitive Neurosci 15:272-293
66. Nieuwland MS, Van Berkum JJA (2006) When peanuts fall in love: N400 evidence for the
power of discourse. J Cognitive Neurosci 18:1098-1111
67. Hagoort P, Halal L, Bastiaansen M et al (2004) Integration of word meaning and world kno-
wledge in language comprehension. Science 304:438-441
68. Coulson S, van Petten C (2002) Conceptual integration and metaphor: an event-related
potential study. Mem Cognit 30:958-968
69. Pynte J, Besson M, Robichon FH et al (1996) The time-course of metaphor comprehension:
an event-related potential study. Brain Lang 55:293-316
70. Tartter VC, Gomes H, Dubrovsky B et al (2002) Novel metaphors appear anomalous at least
momentarily: evidence from N400. Brain Lang 80:488-509
71. Balconi M, Tutino S (2006) A fighter is a lion. Neuropsychological and cognitive processes in
decoding a metaphor. An analysis through ERPs. J Int Neuropsych Soc 12, Supplement 2:88
72. Balconi M, Tutino S (2007) An ERP analysis of iconic language and iconic thinking. The
case of metaphor. J Int Neuropsych Soc 13, Supplement 2:74
73. Arzouan Y, Goldstein A, Faust M (2007) Dynamics of hemispheric activity during metaphor
comprehension: electrophysiological measures. Neuroimage 15:222-231
74. Galina I, Christine P, Laurent JP et al (2005) ERPs of metaphoric, literal, and incongruous
semantic processing in schizophrenia. Psychophisiology 42:380-390
75. Ferretti TR, Schwint CA, Katz AN (2007) Electrophysiological and behavioral measures of
the influence of literal and figurative contextual constraints on proverb comprehension. Bain
Lang 101:38-49
76 Kumon-Nakamura S, Glucksberg S, Brown M (1995) How about another piece of pie: the
allusional pretense theory of discourse irony. J Experimental Psychol Gen 124:3-21
77. Attardo S (2000) Irony as relevant inappropriateness. J Pragmatics 32:793-826
78. Gibbs RW (1994) The poetics of mind: figurative thought and figurative language. Academic
Press, San Diego
79. Kihara Y (2005) The mental space structure of verbal irony. Cognitive Linguist 16:513-530
80. Ritchie D (2005) Frame-shifting in humour and irony. Metaphor Symbol 20:275-294
81. Colston HL (2002) Contrast and assimilation in verbal irony. J Pragmatics 34:111-142
82. Anolli L, Ciceri R, Infantino MG (2002) Behind dark glasses: irony as a strategy for indirect
communication. Gen Soc Gen Psych 128:76-95
83. Kreuz RJ (2000) The production and processing of verbal irony. Metaphor Symbol 15:99-107
84. Colston HL, O’Brien J (2000) Contrast and pragmatics in figurative language: anything
understatement can do, irony can do better. J Pragmatics 32:1557-1583
85. Utsumi A (2000) Verbal irony as implicit display of ironic environment: distinguishing iro-
nic utterances from nonirony. J Pragmatics 32:1777-1806
86. Giora R, Fein O, Schwartz T (1998) Irony: graded salience and indirect negation. Metaphor
Symbol 13:83-101
6. Dalla pragmatica alla prospettiva neuropragmatica 181

87. Giora R, Fein O (1999) Irony: context and salience. Metaphor and Symbol 14:241-257
88. Dews S, Winner E (1999) Obligatory processing of literal and nonliteral meanings in verbal
irony. J Pragmatics 31:1579-1599
89. Gibbs RW (1999) Interpreting what speakers say and implicate. Brain Lang 68:466-485
90. Ivanko SL, Pexman PM (2003) Context incongruity and irony processing. Discourse Process
35:241-279
91. Long DL, Graesser AC (1988) Wit and humour in discourse processes. Discourse Process
11:35-60
92. Shamay-Tsoory SG, Tomer R, Ahron-Peretz J (2005) The neuroanatomical basis of under-
standing sarcasm and its relationship to social cognition. Neuropsychology 19:288-300
93. Colston HL, Katz AN (eds) (2005) Figurative language comprehension: social and cultural
influences. Lawrence Erlbaum Associates Publishers, Mahwah
94. Schwoebel J, Dews S, Winner E, et al (2000) Obligatory processing of the literal meaning of
ironic utterances: further evidence. Metaphor Symbol 15:47-61
95. Regel S, Gunter TC, Friederici AD (2006) Processing of ironic and non-ironic sentences exa-
mined with ERPs. Proceedings of the 19th Annual CUNY Conference on Human Sentence
Processing
96. Balconi M, Amenta S (2007) Neuropsychological processes in verbal irony comprehension:
an event-related potentials (ERPs) investigation. J Int Neuropsych Soc13, Supplement 2:77
97. Colston HL (2000) On necessary conditions for verbal irony comprehension. Pragmatics
Cognition 8:277-324
98. McDonald S (1999) Exploring the process of inference generation in sarcasm: a review of
normal and clinical studies. Brain Lang 68:486-506
99. McDonald S (2000) Neuropsychological studies on sarcasm. Metaphor and Symbol 15:85-
98
100. Brownell HH, Simpson TL, Bihrle AM et al (1990) Appreciation of metaphoric alternative
word meanings by left and right brain-damaged patients. Neuropsychologia 28:375-383
101. Winner E, Brownell H, Happe F et al (1998) Distinguishing lies from jokes: theory of mind
deficits and discourse interpretation in right hemisphere brain-damaged patients. Brain Lang
62:89-106
102. Stuss DT, Gallup GGJr, Alexander MP (2001) The frontal lobes are necessary for theory of
mind. Brain 124:279-286
103. McDonald S, Pearce S (1996) Clinical insights into pragmatic theory: frontal lobe deficits
and sarcasm. Brain Lang 53:81-104
104. Ross ED (2000) Affective prosody and the aprosodias. In: Mesulam MM (ed) Principles of
behavioral and cognitive neurology. Oxford University Press, New York, pp. 316-331
105. Shammi P, Stuss DT (1999) Humour appreciation: a role of the right frontal lobe. Brain
122:657-666
106. Burgess C, Chiarello C (1996) Neurocognitive mechanisms underlying metaphor compre-
hension and other figurative language. Metaphor Symbol 11:67-84
107. Bihrle AM, Brownell HH, Powelson JA et al (1986) Comprehension of humorous and non-
humorous materials by left and right brain-damaged patients. Brain Cognition 5:399-411
108. Pell MD (2007) Reduced sensitivity to prosodic attitudes in adults with focal right hemisphe-
re brain damage. Brain Lang 101:64-79
109. Walker J, Fongemie K, Daigle T (2001) Prosodic facilitation in the resolution of syntactic
ambiguities in subjects with left and right hemisphere damage. Brain Lang 78:169-196
110. Baum SR, Dwivedi VD (2003) Sensitivity to prosodic structure in left- and right-hemisphe-
re-damaged individuals. Brain Lang 87:278-289
111. Tompkins CA, Mateer CA (1985) Right hemisphere appreciation of prosodic and linguistic
indications of implicits attitude. Brain Lang 24:185–203
112. Channon S, Pellijeff A, Rule A (2005) Social cognition after head injury: sarcasm and theo-
ry of mind. Brain Lang 93:123-134
113. Griffin R, Friedman O, Ween J et al (2004) Theory of mind and the right cerebral hemisphe-
re: refining the scope of impairment. Laterality 3:195-225
Capitolo 7
Intenzioni comunicative, strategie di azione
e funzioni metacognitive
Michela Balconi

7.1 Introduzione: la comunicazione come processo


di intenzionalizzazione

L’atto comunicativo coinvolge processi complessi e tra loro diversificati.


Prerequisito perché esso abbia luogo è che l’individuo pianifichi intenzional-
mente i significati che vuole comunicare in modo consapevole e che metta in
atto strategie comportamentali adeguate alle proprie finalità. In particolare, fac-
ciamo riferimento al processo di intenzionalizzazione come meccanismo dina-
mico che coinvolge parlante e destinatario, in cui sono attivi sia i processi di esi-
bizione della propria intenzione comunicativa di produrre un effetto nel destina-
tario (intenzionalizzazione del parlante), sia i processi di interpretazione dell’in-
tenzione comunicativa del parlante da parte del destinatario (reintenzionalizza-
zione) [1, 2]. Tale processo supporta a sua volta una serie di funzioni che opera-
no affinché l’atto comunicativo abbia luogo efficacemente: la definizione degli
obiettivi comunicativi, le strategie comportamentali per l’attuazione del piano
comunicativo, il monitoraggio e l’automonitoraggio del processo in sé e degli
effetti prodotti dalle proprie azioni. L’intero sistema si avvale di un insieme di
competenze di coordinamento che sono necessarie alla regolazione dell’inten-
zione. In particolare, l’articolazione dei processi intenzionali richiede l’interven-
to di meccanismi attentivi finalizzati alla selezione dell’informazione e alla for-
mulazione di rappresentazioni appropriate (piano rappresentazionale comunica-
tivo), da un lato, e all’organizzazione del sistema effettore (pianificazione delle
azioni comunicative) dall’altro. Tali operazioni implicano il coinvolgimento di
meccanismi di coordinamento centrale, in quanto processi controllati di metali-
vello che richiedono l’intervento volontario da parte del comunicante [3].
Analizziamo in particolare in questo ambito il rapporto tra intenzione e intenzio-
nalità comunicativa, evidenziando il contributo della coscienza per la comunica-
zione. In secondo luogo, considereremo l’attenzione come garante delle opera-
zioni con funzioni di controllo. Infine, focalizzeremo i processi di pianificazio-
ne dell’azione, di definizione delle strategie, delle funzioni di monitoraggio e di
automonitoraggio degli effetti comunicativi.

M. Balconi (ed.), Neuropsicologia della comunicazione. © Springer 2008


184 M. Balconi

7.1.1 Intenzione e intenzionalità comunicativa

Definiamo come intenzione lo stato mentale dell’essere-orientato-verso-qualcosa e


con azione intenzionale la rappresentazione di un obiettivo, che implichi la capacità di
discernere la distinzione tra mezzi/fini, mediante deliberazione e sforzo mentale [4, 5].
Tale definizione include alcune proprietà peculiari: la direzionalità dell’intenzione
(essere orientato verso), la dimensione mentale/rappresentazionale (avere una rappre-
sentazione di) e la sua valenza psicologica (essere finalizzato a). Avere un’intenzione
implica anche essere in grado di formulare la distinzione sé-altro-mondo. Essa costi-
tuisce la componente interazionale e relazionale dell’intenzione (intentional relations),
per cui tutta l’attività intenzionale è un’attività di un agente indirizzata verso qualcosa
o qualcun altro da sé [6]. L’intenzione non costituisce, inoltre, un concetto univoca-
mente definito come condizione tutto-o-niente: è possibile, infatti, distinguerne livelli
differenti. La variabilità dei gradi di intenzione appare distribuita tra l’avere un’atten-
zione focalizzata o non focalizzata su di uno stimolo interno o esterno, tra il possede-
re o non possedere una coscienza riflessiva su di sé e sulle proprie azioni mentali. Dal
punto di vista ontogenetico, è rilevante la concomitanza tra sviluppo delle capacità
cognitive e l’acquisizione delle funzioni di controllo che consentono la regolazione
intenzionale dei piani di azione. Infatti, solo gradualmente, nel corso dello sviluppo,
l’azione motoria inizia a mostrare una chiara organizzazione in termini di rappresen-
tazione di mezzi/fini differenziati, parallelamente all’acquisizione di una competenza
cognitiva di grado via via superiore sino alla rappresentazione degli stati mentali pro-
pri e altrui (metacognizione) [7, 8].
Discriminanti per distinguere l’azione intenzionale da quella non intenzionale
appaiono due concetti tra loro intrinsecamente correlati: quello di coscienza e quel-
lo di attenzione per la scelta dell’azione. Nell’economia cognitiva dell’individuo, la
consapevolezza della propria condotta e la regolazione intenzionale dell’azione
divengono elementi discriminanti e flessibili in funzione degli scopi complessivi.
Rispetto al piano comunicativo, la modulazione delle intenzioni caratterizza il flus-
so della produzione comunicativa lungo un continuum, che va da condizioni mini-
me di intenzionalità (azioni automatizzate, come la risposta con un cenno del capo
a un saluto) a condizioni massime (azioni metintenzionali, come il mentire). È in
queste ultime, di maggiore complessità cognitiva, che si rende necessario l’inter-
vento congiunto delle funzioni attentive e della coscienza come dispositivi indi-
spensabili per la pianificazione intenzionale e strategica dell’azione comunicativa.

7.1.2 Intenzione e sistema di coscienza

Occorre innanzitutto precisare i termini entro cui viene rappresentato il sistema di


coscienza. La coscienza infatti viene intesa secondo tre accezioni prevalenti: come
consapevolezza delle proprie percezioni (consapevolezza percettiva) e dei propri
pensieri (consapevolezza cognitiva e metacognitiva), come facoltà cognitiva di alto
ordine (coincidente, ad esempio, con le funzioni del pensiero) o, ancora, come stato
di coscienza contrapposto agli stati inconsci [9]. In questo ambito adottiamo una
7. Intenzioni comunicative, strategie di azione e funzioni metacognitive 185

definizione di coscienza come insieme delle proprietà necessarie affinché vi sia con-
sapevolezza cognitiva delle proprie scelte. In tal senso essa costituisce un metapro-
cesso che interviene nel determinare il corso delle azioni e che presiede alle funzio-
ni mnestiche. Essa è definita da un insieme limitato di capacità e caratterizzata da un
grado, seppure variabile, di intenzionalità in quanto “orientata verso qualcosa” [10].
Elemento caratterizzante la condizione di coscienza è il paradosso dell’interez-
za nella molteplicità: l’unitarietà del processo è data come risultato e prodotto di
diverse operazioni che operano all’unisono (interezza). Essa, tuttavia, è definita da
una molteplicità di componenti sul piano dei contenuti, in quanto costituisce l’esi-
to della convergenza funzionale di molteplici sistemi informativi complessi (molte-
plicità) [11]. Questa concezione è supportata sul piano anatomico dalla proprietà
“distribuita” della coscienza, come dimostrato dall’attivazione simultanea di diver-
si sistemi neuronali in presenza di operazioni mentali coscienti. In particolare, il
modello definito processuale distribuito [12, 13] sottolinea l’esigenza della diffusi-
vità dei sistemi strutturali supportanti la coscienza e ciò in considerazione delle fun-
zioni discriminanti che la caratterizzano. Secondo tale modello la coscienza viene
definita come: a) un sistema con ruolo di integrazione delle unità computazionali,
b) un sistema che consente di incrementare l’attività cerebrale all’interno di un
insieme neurale, costituito al fine di svolgere le specifiche funzioni cognitive. Tali
proprietà non richiedono che le informazioni convergenti siano poste necessaria-
mente all’interno di un’unica struttura anatomica ma piuttosto rende necessario che
la struttura supportante la coscienza sia in grado di integrare informazioni prove-
nienti da sistemi anatomicamente separati, come ipotizzato dal modello distribuito.
Pertanto essa è rappresentabile come una rete neurale diffusa che prevede insiemi
eterogenei di attività neurali, sottostanti all’esperienza cosciente.

7.1.3 Coscienza e attenzione: due sistemi autonomi

In che modo è possibile definire il ruolo specifico della coscienza per la pianifica-
zione dell’intenzione comunicativa? Per comprendere la peculiarità del sistema di
coscienza rispetto ai processi di intenzionalizzazione comunicativa occorre tenere
presente la distinzione fra processi consapevoli e processi inconsapevoli. Tale
distinzione è basata sulla differenziazione dei processi cognitivi implicati, del
modo con cui le informazioni sono organizzate, del livello attentivo e dello sfor-
zo cognitivo richiesto [14]. La differenza è posta su un piano qualitativo e non solo
quantitativo: innanzitutto gli stati di coscienza, poiché includenti l’intenzione,
sono orientati verso uno scopo. Tale proprietà, tuttavia, non sembra esclusiva dei
processi consci, ma è invece condivisibile da quelli inconsci: ad esempio, anche
nella condizione di stimolazione subliminale, in cui la coscienza è assente, lo sti-
molo non viene elaborato consapevolmente dal soggetto percipiente, benché sia
comunque presente una selezione attiva delle informazioni [15]. Tale operazione
implica un orientamento finalizzato e una capacità di elaborare le caratteristiche
degli stimoli. Piuttosto la distinzione cosciente/inconscio appare riferibile al
sistema di relazioni che i contenuti coscienti possono stabilire con gli altri pro-
186 M. Balconi

cessi cognitivi attivati nel soggetto. Specificamente, il modello del campo inte-
grato [16] ipotizza che un attributo distintivo dei processi consci sia la loro con-
testualità, definita come la relazione che il contenuto di coscienza definisce con
gli altri contenuti/processi del sistema di elaborazione. Infatti, benché l’input
sensoriale, elaborato al di fuori della coscienza, possa modificare la probabilità
che un determinato comportamento si verifichi, tale processo appare slegato da
ogni altra condizione o stato cognitivo attuale del soggetto e il dato non può
essere codificato nel sistema di memoria.
Un ulteriore quesito che occorre porsi è: la coscienza interviene solo nei proces-
si attentivi controllati ed è assente in quelli automatici? In quest’ultimo caso essa
coinciderebbe con le funzioni attentive tout court. Tuttavia, seppure con gradi dif-
ferenti, è ipotizzabile la presenza della coscienza anche nei processi automatici.
Infatti, essa può esercitare un controllo su questi ultimi indirettamente, determinan-
do lo scopo cosciente che deve essere raggiunto; su quelli controllati, invece, eser-
cita un’influenza diretta, poiché organizza la sequenza di esecuzione delle opera-
zioni mentali implicate. Per tale ragione, il modello dell’indipendenza [17] ipotiz-
za che coscienza e attenzione siano due sistemi dissociabili: tale ipotesi si fonde-
rebbe sull’esistenza di processi attentivi che non necessitano della coscienza (ad
esempio, un’azione a cui prestiamo attenzione ma di cui non siamo coscienti), e di
caratteristiche o stimoli che possono divenire coscienti senza necessità di attenzio-
ne (ad esempio, nella stimolazione dicotica, in cui l’attenzione è assente, uno sti-
molo rilevante può divenire cosciente). La doppia dissociazione tra operazioni
mediate dall’attenzione e dal sistema di coscienza rende plausibile l’esistenza di
due sistemi autonomi seppure interagenti l’uno con l’altro.
Anche sul piano anatomo-strutturale alcuni riscontri empirici depongono a
favore dell’autonomia dei due sistemi [18, 19]. Due differenti network strutturali
supporterebbero infatti le funzioni della coscienza e dell’attenzione: nel primo
caso un sistema anteriore (corteccia prefrontale) sarebbe legato sia all’elaborazio-
ne consapevole degli stimoli sia alla loro selezione, mentre le aree posteriori pre-
siederebbero alle funzioni attentive di base, tra cui l’orientamento sensoriale, la
collocazione spaziale degli stimoli. Dai precedenti sarebbe, inoltre, distinto un
sistema di vigilanza, deputato alla regolazione dei processi di allertamento dell’in-
dividuo nel caso di situazioni in cui è richiesta l’elaborazione di stimoli nuovi o
insoliti. L’organizzazione strutturale del sistema anteriore prefrontale consentireb-
be l’integrazione tra diversi sistemi che agiscono su di un dato input: tale sistema
presenta infatti legami diretti sul piano anatomico sia con il sistema motorio sia
con i sistemi di memoria, indispensabili all’azione intenzionale. In particolare,
esso può disporre di un sistema di memoria necessario al mantenimento di uno
stato intenzionale (azione finalizzata) mentre vengono attivati i processi integrati-
vi necessari all’esecuzione dell’azione.
Inoltre, le fasi di sviluppo delle facoltà presiedute dalla coscienza rispetto alle
capacità attentive evidenziano una chiara differenziazione temporale, per cui, a
fronte di una maturazione precedente delle più generali funzioni attentive, l’acqui-
sizione di capacità di coordinazione e di programmazione delle azioni intenzionali
non compare prima dei nove mesi di età. Tale acquisizione implica lo sviluppo di
una mente propria, intesa come capacità di rappresentare se stessi e l’altro, condi-
7. Intenzioni comunicative, strategie di azione e funzioni metacognitive 187

zione necessaria alla formulazione di una teoria della mente, nonché alla capacità
di organizzare e pianificare intenzionalmente il corso dell’interazione [20].
Complessivamente, diversamente dal semplice sistema attenzionale, la coscien-
za non solo interviene come funzione di selezione per l’azione ma anche, paralle-
lamente, di selezione per il pensiero, in quanto fornisce le basi per l’azione volon-
taria nell’uomo e diviene indispensabile per la scelta attiva del corso delle proprie
azioni in un dato contesto comunicativo.

7.1.4 Funzioni della coscienza per la comunicazione

Ma quali sono le funzioni precipue del sistema di coscienza per la regolazione della
comunicazione? In primo luogo, la coscienza consente il controllo dell’accesso
delle informazioni prioritarie. Esempi di tali meccanismi sono le funzioni di sele-
zione e controllo delle componenti rappresentazionali destinate a divenire consce.
Mediante un’azione di sintesi e di selezione delle priorità è possibile infatti defini-
re il criterio di accesso delle informazioni. In questo senso, il passaggio di alcuni
contenuti al sistema di coscienza consente un migliore adattamento dell’organismo
all’ambiente, alla luce delle esigenze e delle finalità del processo comunicativo.
La coscienza opera, inoltre, in risposta alle richieste di flessibilità nell’organiz-
zazione dell’insieme di conoscenze. Più in generale, un sistema pensante necessita
di intervenire nell’ottimizzazione dei propri processi alternando strutture rigide e
automatizzate di risposta a modalità flessibili. Queste ultime sarebbero chiamate in
causa in situazioni nuove e non prevedibili, al contrario delle strutture automatiz-
zate adatte a rispondere a stimoli e situazioni note. A un livello successivo, la
coscienza interverrebbe direttamente nell’attivazione di azioni mentali e fisiche e
nella regolazione delle funzioni esecutive di presa di decisione (si veda al proposi-
to il paragrafo 7.2). Un esempio di tale funzione è costituito dalla definizione di
obiettivi consci che consentono di organizzare l’intervento sui sistemi motori per
l’esecuzione di azioni comunicative volontarie del sistema gestuale. Infine, una
funzione di più alto ordine nella gerarchia funzionale è costituita dalla funzione
riflessiva e di automonitoraggio esercitata dalla coscienza (si veda il paragrafo 7.3).
Complessivamente, la coscienza consente di attivare l’accesso a fonti rappresen-
tazionali indipendenti e multiple. L’organizzazione di informazioni coerenti e le fun-
zioni di controllo dell’azione volontaria appaiono essere componenti prioritarie
nelle prime fasi di regolazione del rapporto coscienza/comunicazione, mentre le fun-
zioni dell’automonitoraggio e dell’autoriflessività consentono un adattamento suc-
cessivo dell’individuo al contesto interattivo comunicativo. La coscienza fornirebbe
in questo caso un contributo rilevante nel processo di gestione flessibile delle cono-
scenze e nella configurazione di sistemi multipli, specializzati nella rappresentazio-
ne di sé all’interno del più complesso sistema di rappresentazioni mentali: nell’eco-
nomia cognitiva dell’individuo, la consapevolezza del proprio agire e la ricalibrazio-
ne dell’azione divengono elementi discriminanti. Lo schema seguente (Fig. 7.1)
ripropone le principali funzioni della coscienza per la pianificazione dell’azione e la
comunicazione, in relazione ai diversi livelli implicati.
188 M. Balconi

Fig. 7.1 Rappresentazione dei livelli e delle funzioni della coscienza. In particolare sono eviden-
ziate le funzioni di pianificazione e controllo dell’azione

7.2 Pianificazione e controllo dell’azione comunicativa

7.2.1 Funzioni esecutive

Un secondo obiettivo complessivo è quello di discernere il ruolo e il contributo dei


sistemi attenzionali e delle funzioni di memoria, in particolare della memoria di
lavoro, nella definizione dell’azione intenzionale per la comunicazione. È necessa-
rio innanzitutto individuare un sistema che non sia direttamente implicato nella rap-
presentazione degli stati cognitivi ma che operi per la loro organizzazione e per il
loro coordinamento, al fine di raggiungere gli obiettivi comunicativi prefissati. Le
funzioni esecutive costituiscono il riferimento privilegiato per la comprensione
delle operazioni eseguite sotto il controllo attentivo [21].
Tra i differenti modelli esistenti, prendiamo in considerazione quello proposto da
Shallice [22], che evidenzia le tre principali funzioni esecutive di orientamento
attentivo, discriminazione e mantenimento del sistema di allerta. In particolare, la
funzione di discriminazione viene rappresentata come unità esecutiva che include la
consapevolezza, l’elaborazione semantica e l’allocazione intenzionale delle risorse
attentive. Inoltre, un sistema di controllo “centrale” sarebbe separato da una molti-
tudine di processi “periferici” che esso controlla. Il sistema centrale, in contrapposi-
zione alle operazioni automatiche, necessita di risorse attentive e dello sforzo inten-
zionale: in quanto tale, esso possiede una capacità limitata di elaborare informazio-
ni e un insieme finito di risorse. Il sistema così delineato ha pertanto competenze sia
rappresentazionali sia strategiche. Complessivamente, il modello di Shallice preve-
7. Intenzioni comunicative, strategie di azione e funzioni metacognitive 189

de la compresenza di due distinti sistemi di regolazione del comportamento: il siste-


ma cognitivo legato al processamento automatico delle informazioni e alla regola-
zione intenzionale del comportamento, detto Sistema di Selezione Competitiva
(SSC), che opera al fine di attivare automaticamente una catena di azioni/comporta-
menti senza investimento di risorse attentive, almeno fino all’intervento di processi
inbitori che possono porre fine al suo funzionamento; il Sistema Attenzionale
Supervisore (SAS), sistema cognitivo che richiede una direzione dell’attenzione per
i processi decisionali consapevoli. Esso è attivo solo in certe condizioni, nel caso in
cui non siano utilizzabili schemi di processamento automatici attivati dal SSC, in
presenza di compiti complessi che richiedono il controllo diretto del soggetto. Il
SAS avrebbe accesso alle rappresentazioni dell’ambiente, alle intenzioni dell’orga-
nismo e non opererebbe mediante il controllo diretto del comportamento, bensì
modulando i livelli più bassi del SSC, che ha a sua volta il compito di attivare e di
inibire automaticamente specifici schemi di comportamento.
Rispetto al piano comunicativo, il sistema di controllo attenzionale ha accesso
a una rappresentazione “completa” del mondo esterno e delle intenzioni dell’indi-
viduo ed è al contempo un sistema strategico, in quanto determina e orienta le scel-
te comunicative all’interno di uno specifico contesto: esso consente la rappresenta-
zione delle gerarchie di azioni/piani, dal momento che esercita un controllo atten-
tivo non sulle operazioni mentali (o schemi) ma direttamente sul meccanismo di
selezione, modulando il livello di attivazione delle diverse operazioni. L’intervento
di processi automatizzati, che non richiedono attenzione e sforzo, o di quelli con-
trollati, viene calibrato di volta in volta, nell’intento di utilizzare funzionalmente le
risorse da parte del sistema cognitivo. Infatti, la presenza di una maggiore comples-
sità dei fattori cognitivi ed emotivi internamente ed esternamente all’individuo
rende necessario l’intervento di un meccanismo di scelta intenzionale, a fronte di
un utilizzo di energie maggiore rispetto alla condizione automatica.
Una serie di studi ha consentito di rilevare l’inattivazione parziale o totale delle
funzioni di controllo svolte dal SAS in presenza di un danno cerebrale al lobo
frontale, con conseguente deficit della programmazione volontaria a favore delle
funzioni automatiche presiedute dal SSC. La presenza di lesioni nell’area frontale
può indurre deficit nel coordinamento intenzionale, nella gestione del cambiamen-
to dei piani strategici e complessivamente nella flessibilità del comportamento, o,
più in generale, può comportare la perdita della capacità di programmare l’azione.
Inoltre, il mancato intervento del meccanismo di supervisione attenzionale impli-
ca la manipolazione diretta del comportamento da parte dell’ambiente esterno, che
attiva specifici repertori comportamentali (automatismi) in assenza di un control-
lo intenzionale di questi ultimi.

7.2.2 Funzioni esecutive per la comunicazione intenzionale

Il rapporto tra le funzioni esecutive e i processi comunicativi appare complesso. Da


un lato, infatti, le operazioni controllate e gestite dal sistema esecutivo interessano le
funzioni di rappresentazione dell’atto comunicativo, in quanto azione intenzionale
190 M. Balconi

finalizzata. Dall’altro, esse intervengono direttamente sulla pianificazione e sul con-


trollo dell’esecuzione dell’azione. In questo caso, le funzioni esecutive divengono un
fattore rilevante per la supervisione dell’azione, con un’incidenza diretta sul proces-
so comunicativo. Tali funzioni sono intese come l’insieme dei processi finalizzati a
regolare e a dirigere la condotta, mediante la gestione di alcune operazioni sovraor-
dinate, quali la definizione delle strategie e dei piani, l’organizzazione delle gerarchie
e delle sequenze delle azioni, nonché l’adattamento delle strategie al contesto.
Analizziamo più specificamente da un punto di vista neuropsicologico e cogni-
tivo l’applicazione delle funzioni di controllo centrale al processo di programmazio-
ne, monitoraggio e valutazione dell’azione che caratterizzano la comunicazione.
Infatti per la programmazione dell’azione intenzionale è richiesto un insieme di
competenze presiedute dalle funzioni centrali, che includono l’abilità di pianificare
l’azione in funzione di un obiettivo, di utilizzare flessibilmente le strategie comuni-
cative, di attivare una serie di processi di inferenza, nonché di implementare un com-
portamento complesso. Dal punto di vista anatomo-strutturale, specifiche aree (la
corteccia frontale e prefrontale) costituiscono il substrato anatomico per le funzioni
esecutive, come rilevato dall’analisi delle lesioni cerebrali che interessano tali regio-
ni corticali, analisi che hanno consentito di rilevare la presenza di una sostanziale
incapacità di gestire la programmazione e la realizzazione delle azioni finalizzate
nell’uomo. In particolare, i lobi frontali, collocati anteriormente alla scissura centra-
le, possono essere suddivisi in quattro sezioni principali: l’area motoria, l’area pre-
motoria, l’area prefrontale e la porzione basomediale dei lobi. Queste ultime due
sezioni sono indicate generalmente come area prefrontale, che presiede in generale
alle facoltà intellettive superiori, tra cui le funzioni mnestiche, il ragionamento e
l’azione intenzionale. La possibilità per tale area di supportare i processi cognitivi
superiori è giustificata sul piano anatomico dal fatto che essa possiede un numero
assai elevato di connessioni con le altre aree corticali, così come con le altre struttu-
re sottocorticali, quali, ad esempio, i gangli della base e il talamo [23].
Il dato filogenetico relativo allo sviluppo di tali strutture anatomiche ha consen-
tito di porre in luce la distintività delle funzioni di controllo nella specie umana
rispetto a quelle dei primati non umani. In particolare, l’area prefrontale umana ha
raggiunto notevoli dimensioni rispetto ad altre regioni cerebrali (circa un terzo del-
l’intero volume encefalico) in tempi evolutivamente recenti. Tale estensione è più
grande di quella registrata in qualsiasi altra specie: proporzionalmente essa occupa
più del 200% nell’uomo rispetto ai primati non umani. Questo dato anatomico sup-
porta la potenziale differenziazione tra gli umani e i primati non umani rispetto allo
sviluppo della capacità di riflessione sui piani di azione e all’acquisizione, in uno
stadio successivo, delle funzioni autoriflessive e metacognitive. Tuttavia, permane
quale problema ancora irrisolto, la questione relativa all’unitarietà del sistema di
controllo centrale, contrapposta all’esistenza di differenti sistemi processuali distin-
ti. La compromissione di alcune funzioni esecutive e non di altre in caso di deficit
prefrontali localizzati rende plausibile l’ipotesi dell’esistenza di più sistemi di con-
trollo responsabili di specifiche operazioni, che sarebbero compromesse a fronte di
altre comunque funzionanti.
In particolare, i soggetti con deficit frontali sono caratterizzati dalla mancanza
di adattamento flessibile delle scelte comunicative strategiche alla situazione e
7. Intenzioni comunicative, strategie di azione e funzioni metacognitive 191

dalla complessiva difficoltà nel passaggio da un’ipotesi cognitiva all’altra. Questi


soggetti evidenziano la prevalenza di ipotesi scorrette, anche nel caso in cui dispon-
gano di informazioni utili al rilevamento dell’errore (perseverazione del comporta-
mento erroneo). Un deficit correlato al precedente, connesso ai disturbi del sistema
esecutivo nella pianificazione dell’azione intenzionale, riguarda l’inabilità di utiliz-
zare informazioni salienti per formulare previsioni o per esprimere giudizi sulle
situazioni (deficit di valutazione cognitiva). L’incapacità di produrre piani di azio-
ne complessi include anche altre funzioni cognitive, come l’organizzazione di
sequenze gerarchiche che definiscano la priorità nell’esecuzione delle azioni.
Deficit nell’organizzazione della sequenza complessiva sono stati rilevati in sog-
getti con lesioni frontali, che presentano un profilo complessivo di incapacità nel-
l’organizzazione della condotta intenzionale (deficit dell’organizzazione in sequen-
ze). Tuttavia, occorre evidenziare che il sistema preposto alle funzioni esecutive e
quello che coordina i processi comunicativi appaiono distinti e caratterizzati da
meccanismi autonomi. Infatti, un deficit nel sistema esecutivo centrale non impli-
ca un concomitante deficit nelle capacità di rappresentazione del linguaggio, ma
soltanto la compromissione delle funzioni di pianificazione dell’azione intenziona-
le. Soggetti afasici, con o senza lesioni estese alla regione dorsolaterale nell’area
prefrontale sinistra, non presentano differenze nelle loro prestazioni linguistiche;
tuttavia, i soggetti con una lesione estesa appaiono maggiormente compromessi
nell’esecuzione di azioni controllate [24].

7.2.3 Working memory

In relazione all’attivazione delle funzioni di controllo intenzionale, un ruolo priori-


tario specificamente per compiti di tipo linguistico è svolto dal sistema della memo-
ria di lavoro. Innanzitutto, essa coincide con un sistema a capacità limitata, respon-
sabile dell’elaborazione e dell’immagazzinamento temporaneo delle informazioni
durante l’esecuzione dei compiti cognitivi. Secondo il modello proposto da
Baddeley [25] componenti costitutive della memoria di lavoro sono il sistema ese-
cutivo centrale modalità-indipendente e alcune componenti di supporto, quali il
loop fonologico e il taccuino visuospaziale. In particolare, abbiamo già sottolinea-
to come l’esecutivo centrale sia un sistema di controllo attenzionale a capacità limi-
tata, responsabile della selezione strategica, del controllo e del coordinamento di
una serie di processi implicati in compiti verbali e non-verbali.
Sul piano anatomo-strutturale si ritiene che la memoria di lavoro sia attivata nella
corteccia prefrontale laterale, nella corteccia orbitale e nella corteccia anteriore cin-
golata. La specificità funzionale e i correlati anatomo-strutturali della memoria di
lavoro, specificamente l’area dorsolaterale prefrontale, rendono plausibile l’accosta-
mento del concetto di esecutivo centrale a quello di sistema attenzionale superviso-
re formulato da Shallice. Entrambi, infatti, consentono precise previsioni in caso di
lesioni che coinvolgono l’area prefrontale, con particolare attenzione alle funzioni di
controllo relative alla rappresentazione degli obiettivi, alla formulazione di piani
strategici e alla definizione di rapporti di priorità temporali nella sequenza delle
192 M. Balconi

azioni intenzionali. In particolare, quest’ultima proprietà appare distintiva della


memoria di lavoro, che svolgerebbe più direttamente il monitoraggio sequenziale
delle azioni con priorità di realizzazione. Una serie di dati empirici consente, infat-
ti, di affermare che la codifica delle proprietà temporali di un evento avviene distin-
tamente dalla codifica del suo contenuto ed è legata alle aree prefrontali: specifica-
mente pazienti con lesioni del sistema di memoria a breve termine presentano note-
vole difficoltà nella codifica dell’esatto ordine in cui gli stimoli debbono essere
organizzati, benché appaia preservato il loro riconoscimento e il loro ricordo [26].
Si ritiene che la memoria di lavoro faccia riferimento a diverse memorie tampo-
ne, depositi temporanei in grado di trattenere gli stimoli elaborati in sistemi specia-
lizzati (come i sistemi sensoriali, spaziali o del linguaggio). Si pensa che le memo-
rie tampone siano numerose (una per ogni sistema sensoriale) e indipendenti l’una
dall’altra, che lavorino in parallelo e che si pongano in contatto con la memoria di
lavoro una per volta. Si creano in tal modo le condizioni per uno spazio di lavoro
polivalente, in cui l’informazione proveniente dalle memorie tampone sosta tempo-
raneamente, le informazioni (ricordi) a lungo termine sono attivate contemporanea-
mente e un insieme di funzioni esecutive controlla le operazioni compiute congiun-
tamente con tali informazioni. Si tratta di processi che hanno precise implicazioni
nella produzione e nell’esecuzione dell’atto comunicativo.

7.2.4 Working memory e funzioni comunicative

Oltre alle funzioni di controllo attribuite all’esecutivo centrale per la pianificazio-


ne, la memoria di lavoro è coinvolta direttamente nei processi linguistici e comuni-
cativi, quali la produzione e la comprensione linguistica, nonché l’acquisizione del
vocabolario. L’ipotesi introdotta da recenti modelli [27] è che tale sistema di
memoria possieda un magazzino per il consolidamento delle informazioni seman-
tiche e sintattiche, oltre che componenti fonologiche. Nello specifico, il contributo
della WM sarebbe relativo alla produzione di rappresentazioni mediante buffer spe-
cializzati e tali operazioni chiamerebbero in causa sia processi inferiori (magazzini
con accesso alle differenti rappresentazioni) sia superiori (esecutivo centrale). In
modo specifico, risulta essenziale il contributo del circuito fonologico nella com-
prensione del significato, in quanto attivo nella rappresentazione di stimoli lingui-
stici, come è stato dimostrato dalla connessione tra le lesioni focali del circuito
fonologico e la capacità di rappresentare il significato di parole [28].
Deficit selettivi della working memory appaiono condizionare la comprensione
del linguaggio. Focalizziamo in particolare il rapporto tra disfunzioni del loop fono-
logico e compromissione dell’elaborazione di frasi. È stato rilevato che pazienti con
deficit del loop fonologico mostrano una ridotta performance nel ricordo immedia-
to delle stringhe di materiale verbale-uditivo (numeri, lettere, parole). Alcuni pazien-
ti hanno mostrato deficit nella memoria a breve termine in concomitanza con un
deficit nel magazzino fonologico [29], mentre altri mostrano un deficit nel processo
di riattivazione (rehearsal) [30]. Tali dati rendono evidente una connessione diretta
tra compromissioni del loop fonologico e comprensione del linguaggio.
7. Intenzioni comunicative, strategie di azione e funzioni metacognitive 193

Una possibile ipotesi interpretativa pone in evidenza che l’immagazzinamento


fonologico è necessario come supporto di un processo linguistico iniziale in cui il
soggetto attiva una prima analisi sintattica della frase, in particolare nel caso in cui
il decoding corretto di quest’ultima risulti essere di particolare difficoltà. Difficoltà
di comprensione sono state rilevate in soggetti con deficit della memoria a breve
termine nel caso di frasi lunghe, semanticamente reversibili e al cui interno sono
presenti molte parole/contenuto [31]. Il magazzino fonologico può essere visto
come “finestra mnestica” [28], che preserva l’ordine delle parole mediante il ver-
batim fonologico. Una seconda interpretazione riguarda il ruolo della memoria
fonologica in un’analisi di secondo livello, successiva a quella sintattica ma in una
fase che precede l’interpretazione completa della struttura della frase. Ad esempio,
il secondo livello riguarderebbe il controllo post-sintattico dell’attribuzione dei
nomi al proprio dominio tematico [32, 33]. Un’interpretazione più complessa sup-
pone che, piuttosto che un legame tra specifiche componenti linguistiche e loop
fonologico, è possibile che intercorra un rapporto diretto tra il tipo di compito lin-
guistico previsto e componenti fonologiche, sintattiche o semantiche. Ad esempio,
in un compito di ricordo verbale le componenti sintattiche e lessicali-semantiche
possono essere legate alle informazioni fonologiche. Tale concezione differisce da
quella adottata inizialmente da Baddeley, che considera la working memory come
non legata ad alcuno specifico sistema cognitivo e che prevede, pertanto, l’esisten-
za di un magazzino specializzato per informazioni semantiche e sintattiche [34].

7.3 Strategie di azione per la comunicazione

Tra le funzioni esecutive superiori che intervengono nella comunicazione, la piani-


ficazione strategica, il monitoraggio e l’automonitoraggio della condotta richiedo-
no specifiche competenze cognitive. Tali operazioni, infatti, implicano la capacità
del soggetto di pianificare le azioni secondo i propri scopi strategici, di valutare gli
effetti della propria azione comunicativa, confrontandoli con le ipotesi formulate in
partenza, nonché la capacità di rappresentarsi la situazione tenendo conto delle
molteplici variabili intervenienti. Il riferimento è ai processi di programmazione
delle strategie di comunicazione da un lato, e alle competenze metacognitive dal-
l’altro. Si tratta di competenze con marcata valenza “sociale” che interessano tutto
il processo comunicativo, dalla fase iniziale della pianificazione all’analisi della
risposta per la successiva ricalibrazione dell’interazione [35, 36].

7.3.1 Modello gerarchico dell’azione di Stuss e Benson

Secondo il modello gerarchico proposto da Stuss e Benson [37], il controllo della


condotta avviene secondo un processo gerarchico. A livello più basso le informazio-
ni sensoriali e le conoscenze elementari sono elaborate in modo pressoché automati-
co, in quanto legate a un meccanismo non controllabile consapevolmente. Le regioni
194 M. Balconi

Fig. 7.2 Schema riassuntivo del rapporto tra sistemi comportamentali, meccanismi di azione e media-
zione della coscienza (autoconsapevolezza) nella produzione di comportamenti comunicativi

anatomiche posteriori del cervello costituiscono il substrato di tali processi elementa-


ri, in relazione alla specificità delle operazioni sensoriali implicate (le aree occipitali
per le informazioni visive, quelle temporali per gli stimoli uditivi ecc.). Al contrario,
il livello successivo è associato alle funzioni esecutive di supervisione, strettamente
connesse con il lobo frontale. Quattro tipi di processi caratterizzano questo secondo
livello: l’anticipazione dell’azione, la selezione dell’obiettivo, la pianificazione e il
monitoraggio. Al terzo livello, compaiono le funzioni di autoriflessione, che consen-
tono all’individuo di sviluppare l’autoconsapevolezza delle proprie scelte intenziona-
li, come pure l’acquisizione della conoscenza dei propri processi cognitivi (metaco-
gnizione). In particolare, le funzioni legate all’autoriflessione consentono al soggetto
di regolare consapevolmente il proprio rapporto con l’ambiente esterno: quest’ultimo
livello presiede alla formulazione delle rappresentazioni astratte per la scelta delle
azioni e per la comprensione del mondo, ovvero consente la formulazione di una
mappa complessiva del significato dei comportamenti cognitivi proprio e altrui, inter-
venendo al contempo alla regolazione delle funzioni metacognitive (Fig. 7.2).

7.3.2 Implementazione delle strategie

Abbiamo sottolineato come la pianificazione strategica e la rappresentazione del-


l’azione costituiscano un ambito articolato e complesso, in quanto chiamano in
causa una serie di differenti capacità cognitive. Tra queste vi sono la definizione di
un piano, che include la scelta della sequenza di azioni che devono essere eseguite
e l’attribuzione di priorità di scelta all’interno delle gerarchie di azioni, l’esplicita-
zione di previsioni e ipotesi circa il contesto interattivo e i possibili effetti dell’azio-
ne e la capacità di adattamento flessibile del proprio piano strategico in funzione dei
7. Intenzioni comunicative, strategie di azione e funzioni metacognitive 195

cambiamenti rilevabili. Analizziamo nello specifico le componenti atomiche del


processo di pianificazione e di definizione strategica dell’azione, considerandole
come fasi consequenziali, seppure non necessariamente distinte sul piano tempora-
le: la definizione della strategia complessiva, la rappresentazione degli script di azio-
ne e la preparazione all’azione.

Definizione di strategie di azione – L’impianto strategico richiede la realizzazione


di differenti compiti, che devono essere organizzati secondo un ordine sequenziale
e funzionale. La genesi di piani strategici per l’azione intenzionale prevede innan-
zitutto la formulazione di uno scopo complessivo dell’azione. Tale operazione
richiede a sua volta la capacità di utilizzare più elementi informativi derivati dal
contesto al fine di formulare la selezione del piano di azione più adeguato al con-
testo. È richiesto, in secondo luogo, di saper valutare preventivamente gli effetti
delle azioni incluse nel proprio piano strategico, parallelamente alla capacità di
introdurre variazioni e integrazioni della strategia in relazione ai cambiamenti rile-
vati nell’ambiente. A livello analitico, la pianificazione strategica prevede la scelta
di una sequenza di azioni appropriate agli scopi e un loro costante coordinamento
nel corso dell’interazione.

Rappresentazione di piani schematici di azione – La definizione di un piano strate-


gico chiama in causa la più ampia competenza della generazione di script. Tale com-
petenza è sottesa alla nostra abilità di pianificare, definire le azioni e concettualizza-
re le situazioni per quanto esse siano complesse e articolate. A questo proposito è
necessario esplicitare la complessa architettura cognitiva sottostante la rappresenta-
zione della conoscenza. Il concetto di script include, infatti, innanzitutto, la rappre-
sentazione di un insieme di concetti, eventi, o azioni tra loro collegate all’interno di
una rete: esso rappresenta unità di conoscenza globali che includono un insieme ete-
rogeneo di informazioni. In secondo luogo, tale unità è scomponibile in sottocom-
ponenti microanalitiche articolabili su differenti livelli cognitivi. Ciò consente di
definirle come unità di conoscenza manageriale (MKU, Managerial Knowledge
Unit), poiché intese come sistemi di conoscenza che contengono non solo specifici
contenuti (livello delle informazioni) ma anche indicazioni su come eseguire, usare
o manipolare singole azioni che possiedono un “tema” singolo unificante (livello
delle operazioni). Complessivamente, si tratta di rappresentazioni di network di
conoscenza di livelli di complessità distinti, dal controllo delle azioni alla rappresen-
tazione delle azioni stesse. Vi è inoltre la possibilità che tali MKU siano supportati
da differenti moduli rappresentazionali, ovvero mediante proprietà primariamente
linguistiche, o, al contrario, mediante rappresentazione per immagini.
Grafman [38] ha proposto una rappresentazione dei MKU mediante tre livelli
rappresentazionali, distinti in funzione della complessità e del grado di astrattezza
che li caratterizza: il livello più astratto contiene eventi non specifici, come la defi-
nizione degli scopi complessivi di un’intera sequenza, di azioni, le intenzioni del
soggetto ecc. Il secondo livello, svincolato dal riferimento stretto al contesto atti-
vante (context-free), consente una maggiore specificazione degli eventi/azioni che
devono essere realizzati. Il terzo livello, contesto-dipendente, la cui validità appare
limitata a situazioni specifiche e circoscritte, contiene l’insieme di istruzioni su
196 M. Balconi

come eseguire uno specifico compito in una determinata situazione. Ad esempio, in


cima alla gerarchia dello script viene rappresentata una serie di eventi schematiz-
zabili nella pianificazione dello scopo, nella predisposizione della sequenza di ini-
zio, nella realizzazione della sequenza e nella definizione del termine della stessa;
il livello successivo può includere la rappresentazione di un comportamento gene-
rale, come proporre un invito; a livello inferiore vengono invece rappresentate le
istruzioni con cui compiere l’azione specifica.
La capacità di immagazzinare complesse unità di memoria che rappresentano
proprietà tematiche (informazioni e operazioni) e temporali (sequenze) attribuisco-
no un indubbio vantaggio per il sistema cognitivo. Infatti, l’analisi in termini evo-
luzionistici dell’acquisizione della conoscenza schematica consente di rilevare la
specificità di utilizzo delle unità di rappresentazione organizzate in sequenze com-
plesse per le sole specie più evolute. Dal momento che tali unità di memoria tema-
tica sembrano essere immagazzinate nella corteccia prefrontale, in quanto rappre-
sentazioni di conoscenza di alto livello, lo sviluppo “anomalo” di tali aree nell’uo-
mo rispetto a tutte le altre specie viventi giustificherebbe la differenza e il vantag-
gio della mente umana nella rappresentazione del comportamento finalizzato.
Inoltre, dal punto di vista ontogenetico, la maturazione delle aree prefrontali appa-
re più lenta rispetto alla corteccia delle aree associative, non raggiungendo la matu-
rità fino al quindicesimo anno di età. Tale dato consentirebbe di spiegare il gradua-
le passaggio nella gerarchia cognitiva dell’uomo da modelli più semplici di rappre-
sentazione a modelli più complessi (quali appunto i MKU), cosicché, solo dopo un
lungo processo evolutivo, egli sarebbe in grado di produrre e comprendere cono-
scenze schematiche o serie di eventi complessi.

Preparazione all’azione – Il concetto di preparazione all’azione include due com-


ponenti sottostanti: la definizione del comportamento finalizzato e la preparazio-
ne motoria. La rappresentazione del comportamento finalizzato chiama in causa il
processo responsabile della selezione, dal flusso di eventi sensoriali dell’ambien-
te, degli stimoli per la risposta (selezione dello stimolo) e della valutazione del
significato che lo stimolo possiede per l’individuo (valutazione dello stimolo). Il
comportamento finalizzato svolge un ruolo adattativo nella scelta strategica, in
quanto prevede il coordinamento e la mediazione tra esigenze interne (individuo)
e richieste esterne (ambiente). Il concetto di incertezza è utile per comprendere il
comportamento finalizzato. Infatti, la specificità temporale e le caratteristiche del-
l’evento-comportamento (gli effetti della propria azione) rimangono indefinite fin-
che l’evento stesso non si realizza. Di conseguenza, il comportamento finalizzato
può essere considerato come una strategia comportamentale per far fronte all’in-
certezza. Il grado di incertezza è massimo nel caso in cui la situazione sia nuova
(ad esempio, attivare uno scambio comunicativo con un individuo sconosciuto) ed
è in questa circostanza che il soggetto mobilita la maggiore quantità di risorse.
Rispetto alla seconda componente, diversi sottoprocessi caratterizzano la prepara-
zione motoria, intesa come sistema effettore nella produzione di una risposta.
Possiamo definire la preparazione motoria come quell’insieme di operazioni che
intervengono dopo che lo stimolo/evento significativo è stato identificato e prima
che la risposta venga eseguita: essa è intesa come la selezione in memoria della
7. Intenzioni comunicative, strategie di azione e funzioni metacognitive 197

risposta associata allo stimolo e la pianificazione dell’output motorio attraverso


cui la riposta si realizza. In particolare, si ipotizza che, durante le fasi iniziali di
adattamento a un insieme di contingenze ambientali, le strutture cognitive instau-
rino un meccanismo di reciproco influenzamento di tipo feed-forward per la rego-
lazione in tempo reale dell’allocazione delle energie impiegate. Al contrario, nelle
fasi successive dell’adattamento, quando i fattori di incertezza e di complessità
appaiono ridotti, il processo di investimento di energie sarà guidato principalmen-
te da processi automatici autoregolatori.

7.3.3 Automonitoraggio e metacognizione

Tra le funzioni esecutive di alto ordine che intervengono nel processo comunicati-
vo, quelle di monitoraggio e di automonitoraggio del piano di azione chiamano in
causa ulteriori funzioni cognitive. Tali operazioni richiedono, infatti, la capacità del-
l’individuo di valutare gli effetti della propria azione comunicativa, confrontandoli
con le ipotesi formulate in partenza, nonché la capacità di rappresentarsi la situazio-
ne tenendo conto delle molteplici variabili presenti. In particolare, è necessario che
il soggetto sappia rappresentare le proprie competenze e quelle del destinatario del-
l’azione identificandole con proprietà tipiche di sistemi ritenuti cognitivamente
competenti. Il riferimento diretto è alle implicazioni pragmatiche della comunicazio-
ne, da un lato, e all’interpretazione dei processi cognitivi e metacognitivi, dall’altro.
Nel primo caso, le abilità inferenziali impiegate riguardano la valutazione degli esiti
della propria azione mediante raccordo tra previsioni degli effetti e valutazione dello
standard rispetto alla situazione reale (funzioni di automonitoraggio): tale competen-
za passa attraverso processi inferenziali sugli effetti cognitivi, emotivi e comporta-
mentali del corso delle azioni [1]. Nel secondo caso, vengono presi in considerazio-
ne i processi inferenziali di più alto ordine, che si riferiscono alle operazioni menta-
li che guidano le nostre azioni (metacognizione autodiretta), nonché l’interpretazio-
ne degli stati mentali altrui, ovvero l’attribuzione di stati epistemici all’altro come
pensieri, credenze ecc. (metacognizione eterodiretta) (per un confronto tra le due si
veda [39]). Le competenze sottese a tali operazioni sono dunque da ritenersi compo-
nenti trasversali del processo comunicativo, poiché interessano l’intera dinamica,
dalla fase iniziale della pianificazione all’analisi della risposta per la successiva rica-
librazione dell’interazione. Esse sono altresì da intendersi come competenze “socia-
li” delle quali i modelli neuropsicologici devono rendere conto.
Consideriamo, in particolare, l’impatto della riflessione metacognitiva autodiret-
ta sul corso delle azioni e del comportamento, ovvero il rapporto tra competenza
metacognitiva e comportamento. È indispensabile distinguere tra la più ampia cono-
scenza metacognitiva e la concettualizzazione metacognitiva attivata in relazione allo
svolgimento di un compito specifico. Infatti, la concettualizzazione è da intendersi
come attualizzazione della conoscenza metacognitiva in un dato contesto (ad esem-
pio, la consapevolezza che una determinata azione non può essere eseguita prima che
ne venga compiuta un’altra). Al contrario, la conoscenza metacognitiva viene intesa
come insieme di conoscenze e credenze, preesistenti alla situazione specifica, e di più
198 M. Balconi

ampia estensione rispetto alla sua applicazione contingente. Essa consta anche delle
attitudini emotive, oltre che cognitive, e delle inclinazioni di pensiero, acquisite nel
corso dello sviluppo ed è fondante l’implementazione di qualsiasi strategia cognitiva,
benché solo parzialmente attualizzata nella situazione specifica [40].
Esiste un comune substrato delle competenze metacognitive sia di tipo autodiret-
to sia eterodiretto? Recenti studi evidenziano l’implicazione dei lobi frontali nel-
l’impiego di competenze metacognitive e specificamente nelle formulazione di teo-
rie della mente. Inoltre, sembra sussistere un rapporto stretto tra deficit specifici del
sistema attenzionale e delle funzioni esecutive e la capacità di formulare ipotesi circa
i propri pensieri e i pensieri altrui. Lo studio di soggetti con lesioni nelle aree pre-
frontali, specificamente destre, sembra infatti evidenziare la compromissione della
corretta rappresentazione delle credenze di primo e di secondo ordine. Un contribu-
to esplicativo proviene dallo studio della sindrome autistica: soggetti affetti da auti-
smo presentano una comune incapacità di applicare inferenze relative a stati meta-
cognitivi anche elementari contemporaneamente al funzionamento deficitario di
alcune funzioni esecutive, quali l’impiego di strategie e di piani di azione guidati da
uno scopo. Sembra pertanto che le due competenze abbiano proprietà comuni, alme-
no per quanto concerne il comune substrato anatomo-funzionale [41, 42].

7.4 Conclusioni

Il processo comunicativo intrattiene un rapporto diretto con una serie di funzioni di


alto ordine come la coscienza, i meccanismi attentivi, la programmazione e l’ese-
cuzione dei piani di azione. In particolare, in quanto azione intenzionale, la comu-
nicazione costituisce un tipo particolare di azione orientata-verso-qualcosa (finaliz-
zata) e co-regolata con il proprio interlocutore (relazionale). In essa intervengono
sia meccanismi di primo ordine, come la focalizzazione dell’attenzione sugli ele-
menti informativi più salienti o di pianificazione intenzionale dei significati da
comunicare con intervento diretto della coscienza, sia di secondo ordine, di moni-
toraggio del corso dell’azione e degli effetti che l’atto comunicativo produce, non-
ché dell’automonitoraggio della propria condotta comunicativa in relazione alle
richieste del contesto di interazione che esigono una ricalibrazione flessibile del
corso dell’azione. L’organizzazione di piani gerarchici di funzioni di alto ordine
contraddistingue l’intero processo, che si caratterizza come multicomponenziale e
multifunzionale. Per alcune delle funzioni precedentemente considerate è possibile
individuare specifici correlati neurobiologici. In particolare le aree prefrontali sono
considerate di notevole importanza per la regolazione dell’azione comunicativa
intenzionale, sia rispetto alla pianificazione sia all’esecuzione e al monitoraggio
delle strategie di azione. Da ultimo le funzioni metacognitive di concettualizzazio-
ne delle componenti mentali ed emotive che caratterizzano l’interazione appaiono
di rilievo per la comprensione del processo complessivo di regolazione dell’atto
comunicativo. Anche in questo caso un ruolo di primo piano sarebbe svolto delle
aree frontali, in virtù della loro funzione di coordinamento e di regolazione delle
rappresentazioni di sé e dell’altro.
7. Intenzioni comunicative, strategie di azione e funzioni metacognitive 199

Bibliografia

1. Green GM (1996) Pragmatics and natural language understanding. Erlbaum, Mahwah


2. Sperber D, Wilson D (1986) Relevance: communication and cognition. Oxford University
Press, Oxford
3. Marraffa M, Meini C (2005) La mente sociale: le basi cognitive della comunicazione. Laterza,
Bari-Roma
4. Csibra G (2004) Teleological and referential understanding of action in infancy. In: Frith CD,
Wolpert DM (eds) The neuroscience of social interaction: decoding, imitating and influen-
cing the actions of others. Oxford University Press, Oxford, pp. 23-44
5. Tomasello M (1999) The cultural origins of human cognition. Harvard University Press,
Cambridge Mass.
6. Balconi M (2002) Neuropsicologia della comunicazione. In: Anolli L (ed) Psicologia della
comunicazione. Il Mulino, Bologna
7. Frith U, Frith CD (2004) Development and neurophysiology of mentalizing. In: Frith CD,
Wolpert DM (eds) The neuroscience of social interaction: decoding, imitating and influen-
cing the actions of others. Oxford University Press, Oxford, pp. 45-75
8. Gallese V (2004) The manifold nature of interpersonal relations: the quest for a common
mechanism. In: Frith CD, Wolpert DM (eds) The neuroscience of social interaction:
decoding, imitating and influencing the actions of others. Oxford University Press,
Oxford, pp. 159-182
9. Dennett D (2001) Are we explaining consciousness yet? Cognition 79:221-237
10. Zelazo PD (1999) Language, levels of consciousness, and the development of intentional
action. In: Zelazo PD, Astington JW, Olson DR (eds) Developing theories of intention: social
understanding and self control. Erlbaum, Mahwah, pp. 95-118
11. Balconi M (2006) Psicologia degli stati di coscienza: dalla coscienza percettiva alla consa-
pevolezza di sé. LED, Milano
12. Edelman M (1992) Bright air, brilliant fire: on the matter of the mind. Basic Books,
New York
13. Edelman M, Tononi G (2000) A universe of consciousness: How matter becomes imagina-
tion. Basic Books, New York
14. Kinsbourne M (1996) What qualifies a representation for a role in consciousness? In: Cohen
JD, Schooler JW (eds) Scientific approaches to consciousness: the twentyfifth annual
Carnegie symposium on cognition. Lawrence Erlbaum Associates, Hillsdale
15. Spence DP, Smith GW (1977) Experimenter bias against subliminal perception? Comments
on a replication. Brit J Psychol 68:279-280
16. Kinsbourne M (1988) Integrated field theory of consciousness. In: Marcel AE, Bisiach E
(eds) Consciousness in contemporary science. Clarendon Press, Oxford
17. Gazzaniga MS (1998) The mind’s past. University of California Press, Berkeley
18. Baars BJ (2003) How does a serial, integrated, and very limited stream of consciousness
emerge from a nervous system that is mostly unconscious, distributed, parallel, and of enor-
mous capacity? In: Baars BJ, Banks WP, Newman JB (eds) Essential sources in the scienti-
fic study of consciousness. The MIT Press, Cambridge Mass, pp. 1123-1130
19. Gazzaniga MS (1996) The cognitive neuroscience. The MIT Press, Cambridge Mass
20. Povinelli DJ, Bering JM (2002) The mentality of apes revisited. Curr Dir Psychol Sci 11:115-119
21. Umiltà C (1995) Manuale di neuroscienze. Il Mulino, Bologna
22. Shallice T (1988) From neuropsychology to mental structure. Cambridge University Press,
Cambridge
23. Bottini G, Paulesu E, Sterzi R et al (1995) Modulation of conscious experience in peripheral
sensory stimuli. Nature 376:778-780
24. Feyereisen P (1988) Non verbal communication. In: Rose FC, Whurr R, Wyke MA (eds)
Aphasia. Whurr, London, pp. 46-81
25. Baddeley A (1996) Exploring the central executive. Q J Exp Psychol-A 49:5-28
200 M. Balconi

26. Van der Linden M, Poncelet M (1998) The role of working memory in language and com-
munication disorders. In: Stemmer B, Whitaker HA (eds) Handbook of Neurolinguistics.
Academic Press, San Diego, pp. 289-300
27. Gazzaniga MS (1997) Conversations in the cognitive neurosciences. The MIT Press,
Cambridge Mass
28. Vallar G, Baddeley AD (1987) Phonological short-term store and sentence processing. Cogn
Neuropsychol 4:417-438
29. Vallar G, Baddeley AD (1984) Fractionation of working memory: neuropsychological evi-
dence for a phonological short-term store. J Verbl Learn Verb Be 23:151-161
30. Belleville S, Peretz I, Arguin H (1992) Contribution of articulatory reharsal to short-term
memory: evidence from a selective disruption. Brain Lang 43:713-746
31. Martin RC, Feher E (1990) The consequences of reduced memory span for the comprehen-
sion of semantic versus syntactic information. Brain Lan 38:1-20
32. McCarthy RA, Warrington EK (1990) Cognitive neuropsychology: a clinical introduction.
Academic Press, San Diego
33. Waters GS, Caplan D, Hildebrandt N (1991) On the structure of verbal short-term memory
and its functional role in sentence comprehension: evidence from neuropsychology. Cogn
Neuropsychol 8:82-126
34. Martin RC (1993) Short-term memory and sentence processing: evidence from neuropsycho-
logy. Mem Cognition 21:176-183
35. Damasio AR (2000) The feeling of what happens: body and emotion in the making of con-
sciousness. Vintage, London
36. Sommerhoff G (2000) Understanding consciousness. Its function and brain processes. Sage,
London
37. Stuss DT, Alexander MP, Benson DF (1997) Frontal lobe functions. In: Trimble MR,
Cummings JL (eds) Contemporary Behavioral Neurology. Butterworth-Heineman, Boston,
pp. 169-187
38. Grafman J (1995) Similarities and distinctions among current models of prefrontal cortical
functions. Annals of the New York Academy of Sciences 769:337-368
39. Frith CD, Wolpert DM (2004) The neuroscience of social interaction: decoding, imitating
and influencing the actions of others. Oxford University Press, New York
40. Mazzoni G, Nelson TO (1999) Metacognition and cognitive neuropsychology: monitoring and
control processes. Erlbaum, Mahwah
41. Baron-Cohen S (1995) Mindblindness: an essay on autism and theory of mind. The MIT
Press, Cambridge Mass.
42. Frith CD (2003) Neural hermeneutics: how brains interpret minds. Keynote lecture, 9th
Annual Meeting of the Organization of Human Brain Mapping, New York
Parte III
Comunicazione non-verbale
delle emozioni
Capitolo 8
Sistemi di comunicazione non-verbale
Michela Balconi

8.1 Introduzione

Tra le componenti di maggiore interesse nell’analisi del processo comunicativo


occorre considerare i sistemi di comunicazione non verbali. Questi ultimi costitui-
scono, infatti, assieme al verbale, l’intero dominio della significazione, in quanto
elementi che contribuiscono a definire la semiosi di un messaggio [1]. Al fine di
caratterizzare il ruolo delle componenti non verbali per la comunicazione occorre
domandarsi innanzitutto quale sia l’origine della comunicazione non-verbale e, in
secondo luogo, il rapporto di reciproca influenza che verbale e non-verbale hanno
avuto nel percorso evolutivo (filogenesi). Un aspetto di notevole interesse riguar-
da, inoltre, la natura della relazione sussistente tra i differenti sistemi di comunica-
zione non-verbale, alla luce della loro autonomia funzionale e al contempo della
relativa interdipendenza sul piano semiotico [2]. Tra le componenti di comunica-
zione non-verbale (sistema vocale, gestuale, mimico, prossemico e aptico) nel pre-
sente capitolo focalizzeremo in particolare due sistemi comunicativi, quello gestua-
le e quello vocale. Rispetto a quest’ultimo, più specificamente verrà analizzato il
contributo delle componenti vocali per l’espressione (encoding) e il riconoscimen-
to (decoding) dei correlati emotivi, poiché le modificazioni vocali costituiscono
elementi prioritari nel processo di comunicazione delle emozioni. Infine, sarà
oggetto di riflessione il problema della lateralizzazione delle funzioni comunicati-
ve non verbali. Recenti acquisizioni in ambito sperimentale hanno consentito infat-
ti di superare la dicotomia tra funzioni verbali ed emisfero sinistro e funzioni non
verbali ed emisfero destro.

8.2 Origine della comunicazione non-verbale

I differenti sistemi di comunicazione non-verbale sono stati collocati all’interno


della categoria della comunicazione extralinguistica, intesa come insieme di siste-
mi di segnalazione che, in aggiunta al verbale, contribuiscono a definire il signifi-
cato “modale” della comunicazione, qualificandola [3]. Alcuni dei sistemi di comu-
nicazione non-verbale sono stati più ampliamente esplorati, costituendo un ambito
di indagine avanzato, come nel caso della comunicazione mimica, soprattutto in
relazione alle funzioni di comunicazione delle emozioni a essa connaturate [4];

M. Balconi (ed.), Neuropsicologia della comunicazione. © Springer 2008


204 M. Balconi

altri, al contrario, presentano un insieme di conoscenze ridotte e alquanto frammen-


tate, come nel caso dei sistemi cinesici, che sono stati perlopiù studiati in relazione
alle funzioni di motilità manuale piuttosto che al loro valore comunicativo. Una
seconda considerazione che occorre fare riguarda la difficoltà che si riscontra nel-
l’individuare in modo univoco le unità di analisi dei sistemi coinvolti, ovvero per
alcuni dei sistemi di comunicazione non-verbale non vi è accordo circa il livello di
analiticità con cui segmentare le componenti costitutive (ad esempio, le unità gestua-
li microanalitiche o piuttosto pattern complessivi di configurazioni). Un terzo ele-
mento cui occorre prestare attenzione riguarda l’origine della comunicazione non-
verbale nel corso dello sviluppo filogenetico e, problema connesso al precedente, il
rapporto tra aspetti verbali e non verbali della comunicazione lungo il percorso evo-
lutivo. Affrontiamo dapprima quest’ultimo aspetto per riservare alle questioni pre-
cedenti uno spazio apposito nei paragrafi successivi.
Circa il significato e il decorso evolutivo della comunicazione non-verbale si
sono succedute prospettive interpretative differenti. In particolare consideriamo tre
approcci distinti.

Modelli neuroculturali – Tali modelli sono fondamentalmente ancorati alla conce-


zione darwiniana dell’innatismo (la comunicazione è presente sin dalla nascita e
scarsamente appresa) e dell’universalità (a parte casi ridotti di differenziazioni, è
presente con modalità simili tra le culture) della comunicazione non-verbale [5]. In
quanto eredità ancestrale dei primati, essa preserverebbe solo alcune delle funzioni
svolte in origine, non essendo attualmente più legata alle funzioni di mantenimento
della sopravvivenza, ma sarebbe piuttosto deputata alla regolazione dei rapporti tra
individui della stessa specie. Di particolare importanza è la funzione ancora attiva di
espressione e comprensione delle emozioni, in quanto elementi che fungono da
regolatori della condotta sociale [6]. Secondo tali modelli le componenti culturali e
di natura appresa svolgerebbero un ruolo significativo unicamente nella fase di rego-
lazione del comportamento per la sua manifestazione in un contesto pubblico, attra-
verso l’applicazione di regole di esibizione. Ne costituiscono un esempio le display
rules (regole di esibizione) applicate al sistema di comunicazione mimica [4].
Tuttavia elemento critico di tale approccio è costituito dall’eccessiva importanza
attribuita alle componenti innate, fatto che ne limita grandemente il potenziale espli-
cativo, data l’estrema varietà di modalità specifiche di produzione e di comprensio-
ne dei significati attribuiti al non-verbale tra gli individui e tra le culture.

Modelli culturali – In contrapposizione ai modelli neuroculturali appena presenta-


ti, tra i modelli di natura culturale vi è ampia condivisione circa il contributo rile-
vante dell’apprendimento. Elemento comune a questi modelli è la sostanziale dif-
ferenziazione dei sistemi di comunicazione non-verbale in termini di processi di
acquisizione e in stretta relazione alle culture di riferimento [1]. La forte valenza
culturalista assunta da tale prospettiva impedisce tuttavia in molti casi di cogliere
l’aspetto universale di molti significati condivisi anche tra culture differenti.

Modelli cognitivi – Secondo tale approccio solo una parte delle competenze comu-
nicative sarebbe di origine innata. Si tratta dell’insieme di competenze che contri-
8. Sistemi di comunicazione non-verbale 205

buiscono alla costruzione del piano intenzionale e della capacità di formulare rap-
presentazioni circa le credenze, mentre le altre competenze di alto ordine (come la
capacità di interpretare la mente altrui) sarebbero acquisite solo successivamente nel
corso dello sviluppo [7]. Inoltre, è possibile rilevare come la compromissione di
alcune componenti linguistiche non influenzi la capacità di utilizzare la comunica-
zione rispetto ai sottosistemi comunicativi che la caratterizzano, segnalando una
sostanziale indipendenza dei due livelli. In termini evolutivi ciò sarebbe supportato
da differenti fasi di acquisizione delle competenze linguistiche ed extralinguistiche.
Tuttavia, anche in questo caso è possibile individuare elementi di criticità nella pro-
spettiva teorica, in particolare per quanto concerne il processo di “sintesi” (si veda
anche il Capitolo 11) dei sistemi verbale e non verbali a favore di una sostanziale
autonomia e indipendenza dei due domini. Infatti, la rilevazione di una differenzia-
zione tra i sistemi neurali sottesi alle componenti linguistiche ed extralinguistiche
appare non sufficiente per ipotizzare l’esistenza di un percorso evolutivo totalmente
indipendente tra i due sistemi.

Un problema collegato alla questione dell’evoluzione dei sistemi di comunica-


zione non-verbale è inoltre relativo alla continuità/discontinuità nell’acquisizione
delle competenze non verbali rispetto alle forme comunicative presenti nei prima-
ti. Nel corso del tempo si sono succedute ipotesi alternative. Di particolare interes-
se è il modello proposto da Burling [8] che suppone una forma di continuità evolu-
tiva tra specie umana e primati per le componenti extralingusitiche e, al contrario,
una discontinuità sul piano linguistico. In altri termini, la comunicazione non-ver-
bale umana avrebbe molte caratteristiche comuni con quella dei primati, in partico-
lare per quanto concerne:

– la gradualità dei segnali, con una conversione sistematica senza continuità (sor-
riso e smorfia, ad esempio);
– lo scarso apporto dell’apprendimento (determinazione genetica di alcuni com-
portamenti come il sorridere);
– la condivisione informativa (ovvero l’equivalenza semiotica di buona parte dei
sistemi di comunicazione non-verbale tra uomo e primate);
– la ridotta controllabilità volontaria di alcuni segnali non verbali (come, ad
esempio, le componenti vocali).

Complessivamente, a fronte di una unicità e specificità delle caratteristiche


comunicative tra le specie, soprattutto nell’ambito delle componenti linguistiche, è
possibile individuare elementi di continuità rispetto al non-verbale, con particolare
riferimento alle funzioni di espressione e regolazione delle emozioni e, più in gene-
rale, della struttura sociale [9].
A favore di una sostanziale discontinuità si pongono, invece, i modelli di
Chomsky [10], secondo cui il linguaggio è una forma di comunicazione evoluta e
specifica della sola specie umana e di Lieberman [11], che fonda la non compara-
bilità delle due comunicazioni sulla base delle differenze sostanziali esistenti tra
apparato fonatorio dell’uomo e quello di altre specie. Una discontinuità cognitiva
viene postulata dal modello di Bara [7], secondo cui le evidenti differenziazioni
206 M. Balconi

rispetto al contributo e allo sviluppo corticale (in particolare la neocorteccia) impe-


direbbero di stabilire una continuità effettiva tra comunicazione umana e dei pri-
mati. Un salto qualitativo finalizzato nella comunicazione umana condurrebbe,
infatti, allo sviluppo di un protolinguaggio mantenuto e sviluppato per fini comu-
nicativi ma anche come supporto al sistema cognitivo. L’intervento e la reciprocità
di influenzamento tra pensiero e linguaggio permettendone un ulteriore sviluppo
delle competenze comunicative, permettendone la riorganizzazione in processi cen-
trali. Inoltre, lo sviluppo contemporaneo delle competenze manuali supporterebbe
l’acquisizione della scrittura, definendo un’ulteriore competenza distintiva della
comunicazione umana. In questa prospettiva le funzioni linguistiche ed extralingui-
stiche opererebbero indipendentemente l’una dall’altra con fasi di apprendimento
differenziate. Queste ultime, in particolare, sarebbero istanziate per prime e suppor-
tate da aree cerebrali distinte da quelle sottostanti al linguaggio.

8.3 Sistemi di comunicazione non-verbale: funzioni e componenti

8.3.1 Indipendenza semiotica dei sistemi


di comunicazione non-verbale

Il sistema di comunicazione non-verbale risulta costituito da un insieme di sottosi-


stemi tra loro indipendenti, sia sul piano strutturale sia funzionale. Infatti, rispetto
alle componenti strutturali, i sottosistemi sono supportati da strutture biologiche
differenti (il sistema gestuale, ad esempio, rispetto a quello vocale o mimico). In
merito alle componenti funzionali abbiamo già sottolineato come sia possibile
ricondurre tutti i sistemi non verbali al ruolo di compartecipi alla significazione
insieme al sistema verbale [12]. Tuttavia, ciascuno di essi appare caratterizzato da
alcune funzioni precipue: si pensi al ruolo del vocale e della mimica facciale per la
comunicazione delle emozioni (si veda il paragrafo 8.4), o al sistema cinesico asso-
ciato al verbale nell’organizzazione del linguaggio. È utile precisare, inoltre, che
diversi autori hanno riconosciuto alla comunicazione non-verbale un ruolo non
ausiliario al verbale rispetto alla possibilità di comunicare significati, in quanto
dotata di una propria semiosi [2]. Precedentemente relegata a veicolo del significa-
to modale [13], sempre più ampiamente essa viene considerata come elemento
costitutivo della complessa costruzione dei significati condivisi tra i parlanti, poi-
ché verbale e non-verbale insieme concorrono a determinare ciò che viene comu-
nicato. Più in generale, occorre tenere presente che l’analisi del piano semiotico
della comunicazione è solo fittiziamente suddiviso in porzioni o segmenti di signi-
ficato. Piuttosto la comunicazione non-verbale costituisce una semiosi complessa e
articolata che tiene conto delle diverse componenti per definire sinteticamente
significati comunicativi. Pur non disponendo di una struttura simbolica articolata al
pari di quella verbale, la comunicazione non-verbale, infatti, dispone di una enci-
clopedia di sistemi di significati in grado di confluire in una semiosi compiuta.
Al fine di derimere il contributo del non-verbale per il processo comunicativo, è
stata attuata una distinzione rilevante in relazione al carattere volontario o involonta-
8. Sistemi di comunicazione non-verbale 207

rio dei sistemi non verbali. Occorre, infatti, prestare attenzione alla distinzione tra i
cosiddetti comportamenti automatici (automatismi e riflessi), con funzioni prettamen-
te non comunicative, e azioni finalizzate a produrre effetti comunicativi sugli altri
individui, che caratterizzano il non-verbale come comportamento comunicativo. Ad
esempio, è possibile riconoscere una chiara distinzione tra gli automatismi dei gesti
non controllati intenzionalmente per la comunicazione da parte del soggetto (come il
riflesso di startle) e i gesti intenzionalmente programmati come atti comunicativi (si
pensi, ad esempio, al comportamento gestuale di saluto in risposta alla richiesta del
proprio interlocutore). Come sottolineato da diversi modelli, l’elemento distintivo del
valore comunicativo di qualsiasi comportamento prodotto è costituto dalla presenza
di un’intenzionalità del voler comunicare qualcosa (informatività) a qualcuno (dire-
zionalità), ovvero l’intenzione del parlante di produrre un effetto comunicativo sul
proprio interlocutore [14]. A questo riguardo, il processo di pianificazione intenzio-
nale costituisce per la comunicazione non-verbale, al pari di quella verbale, un carat-
tere distintivo del proprio valore semiotico (si veda anche il Capitolo 7). L’intervento
di sistemi di regolazione, quali i meccanismi di focalizzazione dell’attenzione e il
controllo dell’azione, contraddistinguono il coinvolgimento dei piani di intenziona-
lizzazione dell’azione per la comunicazione. Nel complesso dominio non-verbale
occorre riconoscere, tuttavia, una gradualità intenzionale, ovvero l’intervento dei
processi attentivi appare modulabile in funzione del contesto (maggiore o minore
focalizzazione attenzionale) e dello specifico sottosistema coinvolto (ad esempio, il
sistema vocale o quello mimico), poiché ciascuno di essi presenta peculiarità proprie
in relazione al grado di manipolabilità intenzionale da parte del parlante.

8.3.2 Sistemi e componenti non-verbali

Tenendo conto dell’eterogeneità dei sistemi di comunicazione non-verbale coinvol-


ti, presentiamo sinteticamente il quadro sinottico delle principali componenti.

– Le componenti vocali di tipo non-verbale pertengono propriamente alle pro-


prietà soprasegmentali dell’eloquio, che caratterizzano qualitativamente la
voce, e prosodici (profilo di intonazione), che conferiscono un’“impronta” spe-
cifica al parlato. In particolare, è possibile distinguere tra componenti legate al
tono, all’intensità, alle variazioni temporali (come il ritmo, la durata, la veloci-
tà di eloquio, le pause). Esse, assieme al verbale, costituiscono l’intera produ-
zione vocale dell’individuo e sono funzionalmente legate alla manifestazione
delle emozioni (si veda il paragrafo 8.4).
– Il sistema cinesico-gestuale include sia i gesti sia le componenti mimiche del
volto e lo sguardo. Nella complessa categoria gestuale distinguiamo una prima
sottocategoria definita dai gesti iconici [15] (o illustratori secondo la definizio-
ne di Ekman), in genere legati alla produzione verbale del soggetto, scarsamen-
te convenzionalizzati e dal valore semiotico ridotto, determinato contestual-
mente allo scambio. Accanto a questi vi sono i gesti simbolici (o emblemi), alta-
mente convenzionalizzati (come il gesto di autostop) e i gesti deittici, utilizzati
208 M. Balconi

per indicare, che in genere invitano l’interlocutore a dirigere la propria attenzio-


ne verso un elemento terzo. Ulteriori sottocategorie sono rappresentate dai gesti
motori (o manipolatori), legati perlopiù all’espressione della condizione emoti-
va del parlante (come i gesti di autocontatto) e dalle pantomime, che in genere
riproducono azioni mimandone le caratteristiche percettive. Uno spazio a sé è
dedicato al sistema mimico, che, pur facendo parte della cinesi generale, occu-
pa un ruolo privilegiato nel processo comunicativo. Il volto costituisce, infatti,
un veicolo prioritario per la comunicazione delle emozioni.
– Il sistema prossemico e aptico riguardano, rispettivamente, la regolazione dello
spazio interpersonale e i comportamenti finalizzati a co-regolare il contato cor-
poreo. Di particolare interesse per la psicologia, esso è alla base della definizio-
ne delle relazioni tra gli individui, rappresentandone il principale marcatore (per
un approfondimento di questo argomento, si veda [16,17]).

8.4 Componenti neuropsicologiche nella regolazione


dei sistemi non-verbali: il sistema cinesico-gestuale

8.4.1 Produzione gestuale e comunicazione

Nella produzione delle unità cinesico-gestuali sono coinvolti sia il sistema nervo-
so centrale sia quello periferico. In particolare, occorre precisare che specifici cir-
cuiti neurali intervengono nella regolazione degli atti motori sottesi alla produzio-
ne della comunicazione non-verbale, dal momento che sono coinvolti i sistemi
piramidale (area motoria e premotoria) ed extrapiramidale (striato e tronco ence-
falico). A tali componenti occorre aggiungere alcuni sistemi sovraordinati deputa-
ti alla regolazione, al coordinamento e alla sincronizzazione delle diverse unità
gestuali non verbali. Tali processi coinvolgono in primis le funzioni cognitive, che
comprendono il controllo dell’azione mediante la trasformazione di informazioni
visive in istruzioni per i muscoli delle gambe e delle braccia. Rientrano, inoltre,
come componenti ausiliarie nella produzione gestuale la rappresentazione dello
spazio personale (spazio egocentrico) e dello spazio in cui sono collocati gli altri
individui e gli oggetti (spazio extrapersonale) [17, 18]. Due elementi centrali dei
modelli teorici relativi alla gestualità riguardano il fatto che i movimenti sono gui-
dati da rappresentazioni mentali del movimento prima della loro esecuzione e che
i parametri spaziotemporali sono largamente predefiniti durante la fase di pianifi-
cazione e solo parzialmente essi vengono corretti da adattamenti locali. Inoltre, gli
individui possono anche immaginare i gesti senza eseguirli, grazie all’immagina-
zione motoria [19]. I movimenti finalizzati risultano quindi da una serie di com-
plesse trasformazioni delle informazioni disponibili prima che un comando sia tra-
smesso agli organi effettori. In secondo luogo, anche la finalità del gesto e la sua
dipendenza dal compito sono legate a specifiche rappresentazioni. Le coordinate
spaziali, di direzionalità e di intensità sono pertanto direttamente legate alla rap-
presentazione finalizzata a specifiche azioni da compiere.
8. Sistemi di comunicazione non-verbale 209

Studi su soggetti con lesioni in aree specifiche (ad esempio, aree ventrali o dor-
sali) hanno evidenziato l’indipendenza di alcuni percorsi corticali nella produzione
dei gesti in relazione al tipo di compito eseguito. Lesioni in aree deputate a rappre-
sentare determinate funzioni cognitive e motorie possono compromettere alcune
specifiche categorie di gesti (come le pantomime e l’imitazione delle azioni moto-
rie) [20]. Sistemi neurali differenti supporterebbero, ad esempio, le funzioni di
comprensione e di imitazione dei gesti. Nello specifico, un deficit selettivo per il
processo di imitazione è stato definito come aprassia da conduzione, in analogia
con la sindrome di afasia da conduzione in cui i pazienti non sono in grado di ripe-
tere parole che tuttavia possono comprendere [21]. Al riguardo, Goldenberg, e
Hagmann [22] propongono il termine aprassia visuoimitativa. Di converso, sono
stati documentati due casi di agnosia per le pantomime [23] per pazienti in grado
di riprodurre i movimenti eseguiti da altri ma incapaci di discriminare gesti presen-
tati in modalità visiva o di accoppiare gesti a immagini di oggetti.
Rispetto alla produzione e alla comprensione dei gesti in funzione delle proprietà
comunicative che li caratterizzano, la regolazione di tali sistemi motori è finalizzata
a elicitare specifiche risposte dal proprio interlocutore e, in generale, a produrre effet-
ti significativi sul suo stato mentale. Gesti differenti possono comunicare significati
pressoché simili, sebbene essi possano in parte differire rispetto alle modalità di esi-
bizione. In generale, l’individuazione di specifici significati associati alle singole
unità gestuali costituisce un quesito rilevante per lo studio delle funzioni cinesiche.
Nel corso degli ultimi anni sono state assunte differenti posizioni al riguardo: da un
lato, alcuni autori sostengono la ridotta significatività dei gesti come sistema semio-
tico autonomo [24], altri invece ne sottolineano l’elevato valore comunicativo [25]. Il
modello proposto da Feyereisen [3] rende evidente come i gesti (in particolare quel-
li prodotti in associazione alla comunicazione verbale) e la produzione linguistica
implichino una precisa coordinazione di componenti molteplici che costituiscono la
muscolatura delle mani, del volto, dell’apparato vocale. È stato infatti rilevato come
i sistemi neurali coinvolti nel controllo della produzione vocale e dell’attività manua-
le siano strettamente legati. Nello specifico, Kimura [26] ha sottolineato come la
conoscenza dei meccanismi neurali di controllo dei movimenti degli arti e delle mani
possa chiarire alcune caratteristiche del sistema comunicativo umano. Infatti, alcune
regioni dell’emisfero sinistro, specializzate per la selezione motoria, intervengono
anche nella ripetizione di sillabe prive di significato e nell’imitazione di gesti della
mano privi di senso. In linea con questa prospettiva, Lieberman [27] ha suggerito che
le competenze sintattiche si siano evolute a partire dalla capacità di combinare una
serie di movimenti non verbali in sequenze complesse.
Un modello omnicomprensivo della rappresentazione dei gesti e delle funzio-
ni da essi svolte in congiunzione o in assenza di parlato è stato proposto da Roy e
Hall [28]. Il modello prevede che alcuni deficit possano compromettere selettiva-
mente determinate funzioni della comunicazione gestuale e non altre. Ad esempio,
è stato rilevato che può esistere una dissociazione tra la conoscenza concettuale e
la produzione gestuale [29]. Inoltre, deficit delle pantomime possono accompa-
gnarsi a un funzionamento normale dei gesti di imitazione: la distinzione è analo-
ga a quella riscontrata per deficit specifici del linguaggio nel caso di soggetti che
presentano un’anomia in risposta a immagini che raffigurano una parola ma sono
210 M. Balconi

Fig. 8.1 Lo schema riproduce i percorsi che caratterizzano le fasi di produzione di specifiche
categorie gestuali

in grado di ripetere la parola stessa. È importante sottolineare che alcuni gesti,


come le pantomime, possono essere elicitati sia da comandi verbali sia da elabo-
razione di oggetti presenti, mentre l’imitazione richiede un’analisi visiva delle
informazioni fornite. Anche i processi cognitivi cui essi si rifanno differiscono: nel
caso delle pantomime occorre che vengano attivate conoscenze presenti nella
memoria semantica al fine di selezionare una specifica risposta e di generare
un’immagine mentale adeguata, mentre l’imitazione gestuale bypassa tale attiva-
zione poiché l’input visivo può attivare direttamente il programma motorio. Lo
schema (Fig. 8.1) riproduce i percorsi che caratterizzano le fasi di produzione di
specifiche categorie gestuali.

8.4.2 Dipendenza e indipendenza dei sistemi gestuale e linguistico

Un’importante questione attualmente dibattuta in ambito scientifico verte sul rap-


porto tra i cosiddetti gesti iconici e il linguaggio. Come sottolineato, è stata rileva-
ta infatti una compromissione parallela di tale categoria gestuale e di alcune fun-
zioni del linguaggio per la produzione orale in concomitanza a lesioni sinistre.
Tuttavia, occorre in primo luogo verificare se tale concomitanza riguardi una comu-
ne compromissione delle strutture atte a produrre i movimenti necessari alla produ-
zione gestuale e verbale o, piuttosto, riguardi il processo simbolico di rappresenta-
zione di gesti e parole. Inoltre, è necessario distinguere tra deficit di produzione
orale che riguardano la struttura fonologica l’aggregazione delle componenti fono-
logiche in una parola e la costruzione di frasi. È stato rilevato infatti che la produ-
zione di frasi può essere deficitaria a differenti livelli e non è chiaro come i diffe-
8. Sistemi di comunicazione non-verbale 211

Fig. 8.2 Principali fasi di produzione


gestuale, dalla pianificazione all’ese-
cuzione, in relazione alla produzione
verbale

renti disturbi afasici siano legati al disturbo aprassico concomitante [30]. Occorre
sottolineare inoltre che in molti casi aprassia e afasia appaiono disturbi distinti e
dissociati, come rilevato da studi empirici [31, 32].
Un ulteriore aspetto degno di nota, al fine di comprendere il rapporto tra gesti e lin-
guaggio, riguarda il possibile rapporto tra sistema gestuale e verbale nella comunica-
zione ordinaria. Occorre innanzitutto precisare la funzione del gestuale in relazione al
verbale. Alcuni autori ne hanno sottolineato il ruolo di “attivatore” della produzione
verbale [33]. Recenti risultati empirici andrebbero in questa direzione, dal momento
che soggetti con disordini verbali afasici tendono a produrre più gesti dei normali [34].
Kraus e Radar [35] hanno ipotizzato che i gesti possono svolgere anche una funzione
di stimolazione e di facilitazione per la riattivazione dei concetti. Nel modello da essi
introdotto la produzione gestuale precederebbe la concettualizzazione e la costruzione
del messaggio preverbale così come esso è stato formalizzato da Levelt (si veda il
Capitolo 1). Lo schema riproduce le principali fasi di produzione gestuale, dalla piani-
ficazione all’esecuzione. Ciascun gesto può rappresentare una o più caratteristiche spa-
ziali/dinamiche riportate nella fase iniziale dello schema (Fig. 8.2).

Complessivamente, il sistema gestuale opererebbe in termini di facilitatore per la


riattivazione del lessico. Il rapporto tra i due sistemi appare caratterizzato da uno “sbi-
lanciamento”, poiché il sistema gestuale avrebbe un ruolo di supporto al verbale e non
viceversa. Si sottolinea, inoltre, quale ulteriore elemento di rilievo nel modello, il
contributo della working memory per la produzione del sistema gestuale.
212 M. Balconi

L’indipendenza del sistema di gesti dai sistemi che supportano la produzione e


la comprensione della comunicazione verbale è ulteriormente sostanziata da una
serie di considerazioni critiche. In primo luogo, un’ampia categoria di gesti può
sussistere in assenza di parlato (ad esempio, le pantomime o i gesti simbolici).
Inoltre, l’indipendenza del sistema gestuale da quello del linguaggio è testimonia-
ta dalla possibilità di apprendere a utilizzare i gesti prima dell’acquisizione delle
competenze linguistiche da parte del bambino. In aggiunta, la comunicazione
gestuale può rappresentare una componente sostitutiva della lingua, come accade
nelle funzioni vicarianti del linguaggio verbale per bambini sordi. Abbiamo già evi-
denziato come differenti sindromi afasiche presentino una dissociazione rispetto ai
disturbi aprassici, fatto che ci induce a ritenere complessivamente non funzionale
una rappresentazione univoca dei sistemi linguistico e gestuale (per un’analisi
approfondita dal rapporto afasie/aprassie si rimanda a [36]).

8.5 Sistema vocale: esprimere le emozioni mediante la voce

Tra le funzioni comunicative di maggiore interesse proprie del sistema non-verba-


le, la manifestazione delle emozioni costituisce un dominio pressoché esclusivo, sia
in termini di produzione sia di riconoscimento. Gesti, postura, mimica e componen-
ti vocali concorrono nell’espressione dei correlati emotivi in concomitanza agli
aspetti linguistici. Più in particolare, quale indicatore privilegiato dello stato emo-
tivo dell’individuo, accanto alle variazioni del sistema mimico, occorre annovera-
re il canale vocale. In particolare, quest’ultimo riveste un ruolo di primo piano nel-
l’espressione e nel riconoscimento delle emozioni. L’approfondimento del ruolo
della voce nell’espressione delle emozioni è tuttavia ancora agli esordi. Tra gli altri
modelli, quello proposto da Scherer [37] ipotizza che il sistema vocale svolga due
principali funzioni, da un lato la funzione comunicativa, che veicola il contenuto
del messaggio verbale, dall’altro esso presiede a un sistema di segnalazione che
comprende le componenti emotive in senso stretto. In particolare, nell’espressione
delle emozioni la voce svolge due compiti principali:

– è definita come segnale dello stato emotivo di chi lo emette;


– è un segnale volto a elicitare una risposta da parte di un ricevente.

Tali funzioni sarebbero tra loro interdipendenti, preservando tuttavia una specifi-
ca autonomia.
Le variazioni dell’apparato vocale in relazione agli stati emotivi del soggetto
possono essere rilevate mediante una serie di parametri acustici, che includono sia
cambiamenti fisiologici in diverse parti del sistema di produzione vocale sia la
valutazione delle qualità vocali. Al fine di fornire un quadro complessivo delle
variazioni dei parametri fisiologici implicati all’espressione vocale delle emozioni
sia nelle fasi di encoding sia di decoding, analizziamo gli indici acustici che si sono
rivelati particolarmente significativi. In particolare, prendiamo in considerazione
quattro categorie di parametri: le variazioni temporali, l’intensità, la frequenza fon-
8. Sistemi di comunicazione non-verbale 213

damentale e una misura più articolata che include pattern di variazioni concorren-
ti tempo-frequenza-energia. Le prime tre categorie sono strettamente legate ai para-
metri percettivi della velocità, dell’intensità e dell’acutezza della voce, mentre l’ul-
tima pertiene maggiormente alle proprietà del timbro e delle qualità vocali.
Analizziamo in maggiore dettaglio i parametri elencati in precedenza. In parti-
colare, rispetto alle variazioni relative al tempo, sono state esplorate sia la velocità
sia la durata del suono e delle pause. Rispetto ai parametri dell’intensità, si è ana-
lizzata l’energia dello stimolo sonoro, rilevabile a livello percettivo come variazio-
ne di intensità. Essa è espressa come quantità di energia presente nel segnale ed è
misurata in dB. Per quanto concerne i parametri relativi alla frequenza fondamen-
tale (misurata in cicli/sec o Hz), la F0 è la velocità con cui le corde vocali si apro-
no e si chiudono attraverso la glottide e determina il tono con cui la voce è perce-
pita. Tuttavia, nell’ambito dell’analisi dell’emozioni è necessario prevedere misure
di più lunga latenza, che riguardino non semplici segmenti della produzione voca-
le ma indici che consentano di rilevare variazioni stabili e di maggiore durata.
Alcune misure più complesse considerano la distribuzione dell’energia lungo una
banda di frequenza, detta spettro medio di lungo termine (LTA, Long Term Average
Spectrum). Tale misura esprime le caratteristiche di lungo termine correlate alla
voce del parlante, tra cui, appunto, le componenti emotive.

8.5.1 Variazioni fisiologiche e parametri vocali

Diversamente dal sistema mimico, il sistema vocale si caratterizza come veicolo


comunicativo che agisce su una lunga distanza. Le principali determinanti delle varia-
zioni vocali legate alle emozioni sono costituite dai cambiamenti fisiologici che
accompagnano i diversi domini emotivi, in grado di produrre a loro volta cambiamen-
ti nel sistema di produzione vocale. In sostanza, i cambiamenti prodotti nel sistema
nervoso autonomico e somatico inducono cambiamenti nel funzionamento di parti
del sistema di produzione vocale, come la respirazione, la vibrazione delle corde
vocali e l’articolazione del suono [38-40]. Ad esempio, nel caso di un’emozione che
comporti un innalzamento dell’arousal del soggetto, come la collera, l’aumento della
tensione della muscolatura della laringe induce un aumento della pressione della glot-
tide che produce a sua volta un cambiamento del suono e delle qualità vocali.
Utilizzando il modello di rappresentazione delle emozioni mediato da meccanismi
di valutazione (o appraisal, (si veda al riguardo [41]) che inducono a definire lo stato
emotivo del soggetto come risposta a specifici bisogni di adattamento dell’organismo,
è possibile osservare, in risposta a differenti profili valutativi, variazioni fisiologiche e
concomitanti modificazioni vocali. Secondo il modello di Scherer possiamo, infatti,
prevedere gli effetti della valutazione attuata dal soggetto sul sistema nervoso, facen-
do riferimento a un insieme di criteri, tra cui la novità, la piacevolezza, la rilevanza per
gli scopi, il coping, nonché la compatibilità della situazione con le norme sociali. In
particolare, tra i differenti parametri elencati, il coping risulta particolarmente rilevan-
te nella valutazione che il soggetto compie rispetto alle proprie risorse per far fronte
allo stimolo. Nello specifico, nel caso di una maggiore controllabilità percepita da
214 M. Balconi

parte del soggetto si è rilevata una maggiore attivazione ergotropica, mentre, al contra-
rio, la percezione di impossibilità nel far fronte allo stimolo produce una maggiore
azione del sistema trofotropico [42]. Infine, nel caso di una valutazione complessiva
di totale mancanza di controllabilità dello stimolo (come per le emozioni della tristez-
za o della disperazione) si rileva ipotensione della muscolatura striata.
A loro volta, le modificazione del sistema nervoso centrale (SNC) producono
effetti diretti sulla tensione delle fibre muscolari attive nell’apparato fonatorio. Al
riguardo è necessario fare una distinzione tra effetti isometrici, con aumento del
tono dei muscoli, e rilassamenti fasici, che producono posture o movimenti coordi-
nati. I due effetti tonici e fasici costituiscono un rapporto caleidoscopico del tipo
figura/sfondo. In particolare, gli effetti tonici costituiscono la base per le modifica-
zioni muscolari fasiche. I primi non sarebbero controllati volontariamente, mentre
i secondi esprimerebbero l’intenzione dell’organismo di controllare l’espressione
vocale delle emozioni. Altre unità muscolari implicate nell’emissione della voce
sono influenzate dal sistema nervoso autonomo simpatico e parasimpatico che par-
tecipa alla regolazione del ritmo respiratorio e della secrezione di saliva. È interes-
sante, al riguardo, introdurre un’ulteriore distinzione tra “tipi” di voce, che rendo-
no conto di differenti atteggiamenti del soggetto verso la situazione emotiva. In par-
ticolare, distinguiamo tra voce piena e voce sottile [43]. Nel primo caso si rileva
come l’organismo confidi nelle proprie risorse e si prepari all’attacco, manifestan-
do una tensione modesta e una respirazione profonda. Nel secondo caso, la voce
sottile è caratteristica di un organismo che si prepara alla fuga, con tipici correlati
come una respirazione non profonda, un aumento della frequenza fondamentale
(F0) e una riduzione dell’ampiezza del parametro vocale.

8.5.2 Correlati acustici emozione-specifici

L’analisi dei parametri acustici emozione-specifici ha consentito di rilevare una


consistenza nelle variazioni vocali in relazione alle singole emozioni. In parti-
colare, come vedremo, le variazioni di arousal rendono conto delle principali
variazioni acustiche rilevate sperimentalmente. Tale dato è stato confermato sia
da studi applicati ai processi di encoding delle emozioni sia da studi sul deco-
ding vocale [44].

La voce dello stress – Benché lo stress non sia un’unica emozione, è utile ana-
lizzare innanzitutto gli indicatori acustici dello stress fisiologico e psicologico.
Una condizione di stress elevato comporta una serie di modificazioni sistemati-
che delle proprietà vocali, quali l’aumento del valore della F0, una maggiore
intensità vocale, nonché un aumento della velocità di eloquio. Tali risultati appa-
iono difficilmente interpretabili in modo univoco, dal momento che i cambia-
menti di tali parametri risultano dipendere da fattori tra loro eterogenei, quali i
livelli di sensibilità allo stress del soggetto e le strategie di coping adottate.
Inoltre, ricerche empiriche applicate alla voce dello stress hanno rilevato un rap-
porto diretto con le variazioni di arousal, così come è stata osservata una stret-
8. Sistemi di comunicazione non-verbale 215

ta correlazione tra aumento dello stress, aumento della tensione muscolare e


innalzamento della frequenza della voce.

La voce della rabbia e della paura – In generale nella voce della rabbia è stato rile-
vato un aumento nel valore medio della F0 e dell’intensità della voce: studi hanno
sottolineato un aumento della variabilità della F0, con frequenti escursioni vocali;
in secondo luogo, la rabbia appare caratterizzata da un aumento dell’intensità della
voce. Un profilo per certi aspetti analogo è correlato alla voce della paura. Infatti,
è stato osservato sia un aumento della media del parametro F0, sia della intensità
vocale. Inoltre, anche la velocità di articolazione appare maggiore rispetto a quan-
to rilevato per altre emozioni, quali, ad esempio, la tristezza. Tali variazioni sareb-
bero strettamente correlate all’aumento dei livelli di arousal, parametro che, come
abbiamo già sottolineato, risulta particolarmente rilevante nell’analisi delle caratte-
ristiche acustiche della voce delle emozioni.

La voce della tristezza e della gioia – Gli studi applicati alla tristezza hanno mostra-
to risultati convergenti rispetto ai parametri vocali analizzati. In particolare, è stata
osservata una diminuzione della F0 e dell’intensità vocale. A livello percettivo, la
voce della tristezza appare sottile e debole, con un ritmo di articolazione rallentato.
Anche in questo caso i parametri di arousal mostrano una stretta correlazione con
le variazioni vocali, per cui il quadro sopra delineato sarebbe correlato a una con-
sistente diminuzione dell’attivazione dell’organismo. L’emozione della gioia costi-
tuisce una delle emozioni positive più studiate. In concordanza a un aumento dei
livelli di arousal, gli studi sperimentali hanno rilevato l’incremento della media di
F0, nonché dei parametri dell’intensità e del ritmo di articolazione. Inoltre, la voce
della gioia è caratterizzata da un setting vocale di tipo rilassato e non teso, come
invece rilevato per alcune emozioni ad alto arousal, ma con valenza edonica nega-
tiva (ad esempio, la paura).

8.5.3 Integrazione dei codici comunicativi: l’esempio del volto


e della voce nella comunicazione delle emozioni

Alla luce dei recenti risultati sulla neuroanatomia delle emozioni e sul coinvol-
gimento di centri multipli nella codifica delle esperienze emotive, alcuni studi
hanno cercato di analizzare in primo luogo il rapporto esistente tra correlati cor-
ticali delle componenti vocali e mimiche e, in secondo luogo, si sono prefissi di
analizzare più specificamente la convergenza o divergenza tra i due canali sen-
soriali. Sono stati analizzati in particolare pazienti con deficit delle componenti
prosodiche della comunicazione veicolate dal sistema vocale, al fine di rilevare
eventuali compromissioni concomitanti nella percezione/produzione delle com-
ponenti mimiche. Al contrario, altre ricerche hanno considerato deficit manife-
sti delle componenti espressive, al fine di rilevare eventuali correlazioni con
deficit vocali [45]. In generale, in condizioni normali un osservatore percepisce
le informazioni fornite dalla voce, dal volto e dal corpo non come unità indipen-
216 M. Balconi

denti ma come una gestalt complessiva dotata di significato unitario. Elemento


decisivo per la valutazione complessiva del significato dello stimolo è costitui-
to dal giudizio di congruenza o discrepanza delle informazioni veicolate dai
diversi codici e, nel caso in cui uno dei canali fornisca informazioni discrepan-
ti, è il canale mimico a essere privilegiato per l’attribuzione di uno stato emoti-
vo. Un insieme sistematico di risultati sperimentali ha consentito di confermare
che il volto è analizzato e identificato più accuratamente, dal momento che pro-
duce un maggiore accordo tra i giudici [46].
Una serie di modelli teorici ha cercato di spiegare come possa avvenire l’in-
tegrazione tra i due sistemi. In particolare, il modello dell’indipendenza ha sot-
tolineato l’autonomia dei processi di produzione delle componenti mimiche e
vocali, poiché essi avrebbero luogo separatamente e sarebbero supportati, a
livello fisiologico, da sistemi strutturalmente distinti. Al contrario, il modello
della dipendenza sottolinea l’integrazione dei due percorsi di codifica, ipotiz-
zando la convergenza fisiologica, oltre che funzionale, dei processi sottostanti.
In entrambi i casi, occorre fornire dati che consentano di spiegare i meccanismi
sottostanti l’integrazione dei due codici, sia che essi operino da principio in con-
sonanza, sia che vengano fatti convergere successivamente [47, 48]. Come è
possibile analizzare tale processo di convergenza a livello neuropsicologico? Il
metodo della rilevazione elettroencefalografica e in particolare dei potenziali
evocati corticali (ERP) consente di rendere conto non solo delle proprietà del
processo in questione ma anche delle sue caratteristiche temporali. Inoltre, studi
con risonanza magnetica hanno consentito di analizzare più in dettaglio i possi-
bili percorsi anatomici della convergenza intermodale. Le informazioni di inte-
grazione possono essere fornite mediante una via diretta (corticale) o indiretta
(sottocorticale). In quest’ultimo caso, è possibile ipotizzare il ruolo centrale del-
l’amigdala, che funge da sistema di convergenza di input provenienti da regioni
corticali differenti (ad esempio, l’area temporale e quella parietale), deputate a
elaborare informazioni di diversa natura.

8.6 Rappresentazione dei sistemi verbale


e non-verbale nei due emisferi

8.6.1 Verbale/non-verbale: un’asimmetria di “funzioni”?

Un obiettivo generale posto alla neuropsicologia rispetto alla distinzione tra


comunicazione verbale e comunicazione non-verbale riguarda la formulazione
della complessa architettura cognitiva e dei singoli processi sottesi a questi siste-
mi di segnalazione. All’attuale stato delle conoscenze la localizzazione di speci-
fiche funzioni implicate dai sistemi non verbali appare prematura. Infatti, l’obiet-
tivo di individuare una corrispondenza biunivoca tra le funzioni psicologiche di
input e di output e i dispositivi nervosi risulta poco praticabile a fronte della com-
plessità dei processi in oggetto. Inoltre, è opportuno sottolineare la varietà dei
8. Sistemi di comunicazione non-verbale 217

sistemi non verbali di segnalazione. Sono state rilevate, infatti, compromissioni


“eterogenee” relative a differenti sistemi non verbali, tra cui deficit relativi alla
capacità di identificare componenti vocali, di articolare complesse sequenze di
gesti e di riconoscere configurazioni di volti [36]. Abbiamo già sottolineato come
differenti aree corticali e subcorticali di entrambi gli emisferi siano implicate
nella produzione di gesti simbolici, così come nella comprensione degli aspetti
vocali (o paralinguistici).
Una spiegazione univoca per tale insieme eterogeneo di fenomeni appare, al
momento, poco funzionale. Una serie di studi con pazienti destri e sinistri ha rile-
vato la presenza di una specializzazione destra per le componenti non verbali
(extralinguistiche) della comunicazione [49]. Focalizzando in particolare le compo-
nenti mimiche è stata rilevata una maggiore capacità di riconoscimento di queste
ultime per i soggetti con lesioni sinistre piuttosto che destre. Ciò andrebbe nella
direzione di una chiara specializzazione emisferica destra per le componenti non
verbali. Tuttavia, è legittimo chiedersi se abbia fondamento la rappresentazione
dell’asimmetria emisferica fra le funzioni verbali e quelle non verbali. Il modello
tradizionale, basato sull’equazione “verbale = emisfero sinistro” e “non-verbale =
emisfero destro”, appare oggi in parte superato. Da un lato, è possibile rilevare che
l’emisfero sinistro può supportare alcune funzioni non verbali, e, d’altro lato è stato
osservato che l’emisfero destro è in grado di svolgere anche funzioni eminentemen-
te linguistiche. A livello neuropsicologico lo studio del linguaggio dei segni (LS)
ha consentito di superare l’equazione classicamente riproposta. Esso, al pari del lin-
guaggio verbale, possiede una complessa struttura formale, sia morfologica sia
grammaticale, che consente di modulare gli aspetti di significato e di manipolare la
forma dei segni in concomitanza alle necessità sintattiche. Un aspetto particolare
del LS concerne la funzione grammaticale delle espressioni facciali, che consento-
no di introdurre marcatori avverbiali alla struttura frasale, distinguendosi nettamen-
te dalle espressioni emotive [50]. La rilevazione di una compromissione delle fun-
zioni di comprensione e di produzione del LS, in seguito a lesioni delle aree corti-
cali dell’emisfero sinistro deputate al linguaggio, induce a ritenere che tale emisfe-
ro sia idoneo altresì a svolgere il controllo di alcune funzioni non verbali che abbia-
no un preciso valore simbolico. La presenza di una doppia dissociazione tra distur-
bi aprassici (relativi alla pianificazione e all’esecuzione di atti motori complessi
implicati nel LS) in cui l’emisfero sinistro è dominante e disturbi afasici (relativi
esclusivamente alle funzioni linguistiche) confermerebbe ulteriormente la specifi-
cità dell’emisfero sinistro per i sistemi non verbali (almeno per quello cinesico).
D’altro canto, una serie di ricerche ha sottolineato la funzione linguistica svol-
ta dall’emisfero destro rispetto all’elaborazione di parole [51]. Attraverso un’inda-
gine PET è stata rilevata l’attivazione della corteccia posteriore destra per la lettu-
ra di stringhe di lettere non parole e stimoli simili a lettere rispetto alla condizione
di controllo (visione di un punto) [52]. Più in generale l’emisfero destro sarebbe
deputato all’elaborazione della forma delle parole [53]. Interessanti risultati hanno
sottolineato il ruolo dell’emisfero destro a livello sovraordinato, rispetto al ricono-
scimento di parole all’interno di contesti frasali, o ancora nella rilevazione di vin-
coli imposti dal contesto enunciativo [54] (per le funzioni linguistiche dell’emisfe-
ro destro si veda [55]).
218 M. Balconi

8.6.2 Modelli di indipendenza funzionale

Inoltre, se, da un lato, la superiorità dell’emisfero sinistro per i compiti verbali costi-
tuisce un dato più volte confermato in ambito neuropsicologico, dall’altro occorre
chiarire se la specializzazione sinistra sia legata esclusivamente a specifici processi
linguistici (come la rappresentazione unilaterale della fonologia e delle proprietà
sintattiche) o se, al contrario, la dicotomia “verbale/non-verbale” sia connessa con
una specializzazione più profonda e più estesa, attribuibile alle competenze “simbo-
liche” dell’emisfero sinistro rispetto a quello destro. Tre ipotesi hanno cercato di
illustrare tale distintività [56].

– Innanzitutto, si è ritenuto che la superiorità dell’emisfero sinistro sia generale,


in quanto sistema di elaborazione simbolica. Il modello del sistema simbolico
ipotizza che il complesso insieme di comportamenti non verbali non sia presie-
duto da un sistema separato, ma piuttosto sia originato, assieme alle parole, da
un unico sistema che opererebbe in parallelo [57]. Da questo punto di vista, la
specializzazione emisferica sinistra per i processi simbolici non è ristretta ai
simboli verbali ma riguarderebbe anche l’uso di quelli non verbali. Il sistema
simbolico chiamato in causa può essere considerato pertanto come un sistema
di controllo centrale più generale, in grado di gestire cambiamenti in parallelo
nella comunicazione verbale e non-verbale.
– La seconda ipotesi prevede una dominanza dell’emisfero sinistro per quanto
concerne l’organizzazione dei movimenti sequenziali. Entrambe le forme verba-
le e non-verbale di comunicazione comportano la presenza di azioni motorie,
per cui una generale incapacità di controllare sequenze di movimenti produrreb-
be deficit a entrambe le forme. I processi sottesi a questo sistema di controllo
sono intesi come dispositivi effettori nella gestione dei cambiamenti rapidi
durante la conversazione e nell’attivazione degli apparati visivo-cinesici per
sequenze di movimenti complessi.
– La terza ipotesi sottolinea il ruolo centrale della dicotomia fra emotivo e
cognitivo, che sottende competenze distinte, attribuibili rispettivamente
all’emisfero destro e a quello sinistro. La specializzazione destra per le pro-
prietà emotive non consente, tuttavia, di rendere conto più in generale delle
competenze non verbali di natura non emotiva, che caratterizzano la comu-
nicazione non-verbale. Inoltre, dato il carattere poliedrico dei sistemi non
verbali di significazione e di segnalazione, e considerando la multifunziona-
lità dei comportamenti sottesi, occorre fare ricorso al processo di fraziona-
mento neuropsicologico (si veda anche il Capitolo 1) per spiegare l’indipen-
denza delle funzioni presiedute dall’emisfero destro. L’ipotesi dell’esistenza
di funzioni autonome, almeno per quanto riguarda le componenti visive e
vocali, appare confermata dai risultati ottenuti dall’analisi di lesioni cerebra-
li specifiche. La rilevazione di una doppia dissociazione per l’elaborazione
di informazioni emotive visive ma non del sistema prosodico fa supporre che
esistano sistemi di elaborazione almeno parzialmente autonomi, supportati
da moduli cerebrali distinti [58].
8. Sistemi di comunicazione non-verbale 219

8.6.3 Interdipendenza e coordinamento interemisferico


fra il sistema verbale e i sistemi non-verbali

Nello studio della rappresentazione dei sistemi verbale e non-verbale di segnalazio-


ne merita attenzione il quesito circa la loro indipendenza funzionale in relazione alle
modalità di rappresentazione delle informazioni. L’ipotesi classica relativa a tale
autonomia appare fondata sulla distinzione tra differenti modalità di rappresentazio-
ne del significato. Vi sarebbe una modalità linguistica, propria dell’emisfero sinistro
e una modalità non linguistica (ad esempio, il formato visivo-spaziale delle imma-
gini), specifica dell’emisfero destro. Ciascuno dei due percorsi consentirebbe l’attri-
buzione del significato grazie a un processo dipendente dallo specifico formato con
cui l’informazione è rappresentata. Il risultato di tale processo è una rappresentazio-
ne del significato sufficiente a specificare l’identità semantica dello stimolo affinché
possa essere archiviato in memoria. La distintività dei due emisferi per informazio-
ni modalità-specifiche non esclude, tuttavia, che l’emisfero destro possieda compe-
tenze per la comprensione di parole o, al contrario, che quello sinistro non possa ela-
borare informazioni non linguistiche, quali immagini o scene. Entrambi gli emisfe-
ri hanno infatti la possibilità di attribuire significato agli stimoli, indipendentemen-
te dal formato rappresentazionale di partenza [56]. Una rappresentazione modalità-
indipendente si affianca, infatti, a un percorso più convenzionale, prioritario e imme-
diato, modalità-dipendente. Da un lato, quest’ultimo garantisce una rapida selezio-
ne del significato pertinente, una rappresentazione semantica più precisa e circoscrit-
ta; al contrario, la rappresentazione modalità-indipendente, più generica e indefini-
ta, appare idonea alla comprensione degli aspetti indiretti, vaghi e ambigui della
comunicazione, che coprono un’estesa gamma di fenomeni comunicativi (dai termi-
ni polisemici al significato figurato e metaforico). Complessivamente, i due emisfe-
ri avrebbero la possibilità di cooperare nell’attribuzione del significato, benché sia
l’emisfero dominante per la specifica modalità rappresentazionale a svolgere un
ruolo prioritario rispetto a quello non dominante. In tal modo diventa possibile illu-
strare a livello neuropsicologico il fenomeno dell’interdipendenza essenziale fra i
sistemi verbali e non verbali di segnalazione nella produzione e nella definizione dei
significati di un atto comunicativo.
Una seconda questione correlata alla precedente riguarda l’effettiva possibilità
di organizzazione e di coordinamento tra i due emisferi. Infatti, benché gli emisfe-
ri cerebrali siano specializzati per differenti processi, le nostre azioni e la nostra
esperienza quotidiana riflettono l’operato unitario di una sola mente piuttosto che
il risultato di due menti distinte. Pertanto, se l’emisfero sinistro è preposto princi-
palmente a elaborare le informazioni in una modalità verbale (analitico e tempora-
le) mentre quello destro informazioni non verbali (olistiche e spaziali), come è pos-
sibile che si realizzi la comunicazione come processo unitario? E in che modo pos-
sono essere coordinate le azioni di risposta? In generale, gli emisferi possono inte-
ragire in modo multiforme e flessibile secondo un processo dinamico e variabile.
Innanzitutto, l’interazione tra gli emisferi, supportata dalle strutture del corpo cal-
loso, non avviene solo in qualità di semplice trasferimento delle informazioni da un
emisfero all’altro. Tale interazione può aumentare la complessiva capacità di ela-
220 M. Balconi

borazione soprattutto nel caso in cui il processo sia particolarmente complesso e


debbano essere trattate simultaneamente molte informazioni in breve tempo.
Inoltre, la presenza di subprocessi separati ma tra loro integrabili può costituire
un’alternativa funzionale all’attivazione di un unico processo complessivo [59].
Ma come operano effettivamente i sistemi di coordinamento delle informazio-
ni? Sono state proposte tre ipotesi disposte lungo un continuum [60]. A un estremo,
il modello della dominanza emisferica ipotizza che, di volta in volta, in funzione
dei diversi compiti, uno dei due emisferi divenga dominante e operi come un siste-
ma atto alle funzioni di metacontrollo. In sostanza, uno solo dei due presiederebbe
alla regolazione dell’attività complessiva, mentre l’altro svolgerebbe le operazioni
per cui è preposto. Il modello dell’alternanza, al contrario, suppone che vi sia un
“miscelamento” nell’attività dei due emisferi, ovvero che essi operino con funzio-
ni di metacontrollo simultaneamente, per cui ciascun emisfero dominerebbe un
aspetto distintivo del processo. Infine, all’altro estremo del continuum, si colloca il
modello dell’unicità interemisferica, secondo cui entrambi contribuirebbero alla
realizzazione dell’intera prestazione, seppure in misura differente. Pertanto, non si
può prevedere a priori il prodotto finale dell’integrazione interemisferica come la
somma di due singoli prodotti intraemisferici, ma esso deriverebbe dalla calibrazio-
ne delle operazioni mentali gestite in parallelo dall’emisfero sinistro e da quello
destro. Questa condizione contribuisce a illustrare a livello neuropsicologico gli
aspetti ricorrenti di indeterminatezza e di “gestione locale” dei processi comunica-
tivi in funzione della situazione contingente.

8.7 Conclusioni

Il significato e il ruolo della comunicazione non-verbale è stato ampiamente analiz-


zato in primo luogo in relazione alle sue origini e, in secondo luogo, rispetto al rap-
porto che esso intrattiene con il sistema verbale. Benché le teorie neuropsicologiche
di riferimento appaiano diversificate, rispettivamente a favore o contro la continuità
evolutiva dei due sistemi, gli studi recenti hanno posto in evidenza la stretta relazio-
ne che sussiste tra strutture finalizzate alla regolazione della produzione verbale e
strutture di supporto dei sistemi non verbali (quale ad esempio, quello gestuale).
Inoltre, al suo interno, il panorama dei sistemi di comunicazione non-verbale
appare eterogeneo. In particolare, i differenti sistemi di comunicazione concorrono
nella definizione del più ampio significato del messaggio assieme al sistema di
comunicazione verbale. Tra le principali funzioni comunicative svolte dal non-ver-
bale, l’espressione delle emozioni si caratterizza come sua proprietà precipua, di
diretta competenza dei due sistemi mimico e vocale. Quest’ultimo si caratterizza
per la diretta correlazione che stabilisce tra modificazione di specifici parametri
(quali intensità e tono) e comunicazione di determinati pattern emotivi. La media-
zione del fattore di arousal, variabile lungo un continuum alto-basso, consente di
spiegare l’ampia gamma di modificazioni vocali in concomitanza alla comunica-
zione delle diverse emozioni. In aggiunta, la sincronia tra sistemi di comunicazio-
ne non-verbale (ad esempio, quello mimico e vocale) garantisce la regolazione del
8. Sistemi di comunicazione non-verbale 221

processo comunicativo come multicomponenziale e integrato, risultante dalla con-


vergenza piuttosto che dalla divergenza delle singole unità componenti. Infine, il
fattore lateralizzazione emisferica consente di spiegare il contributo destro e sini-
stro nella regolazione delle funzioni verbali e non verbali, nell’ottica dell’integra-
zione emisferica piuttosto che della dominanza o dell’alternanza emisferica.

Bibliografia

1. Birdwhistell RL (1970) Kinesis and context: essay on body-motion communication. Pennsylvania


University Press, Philadelphia
2. Anolli L (2002) Psicologia della comunicazione. Il Mulino, Bologna
3. Feldman RS, Rimé B (1991) Fundamentals of nonverbal behavior. Cambridge University Press,
Cambridge
4. Ekman P (1994) Strong evidence for universals in facial expressions: a reply to Russell’s
mistaken critique. Psychol Bull 115:268-287
5. Ekman P (1984) Expression and the nature of emotion. In: Scherer KR, Ekman P (eds)
Approaches to emotion. Erlbaum, Hillsdale, pp. 176-198
6. Izard CE (1994) Innate and universal facial expressions: evidence from developmental cross-
cultural research. Psychol Bull 115:288-299
7. Bara BG (1999) Pragmatica cognitiva: i processi mentali della comunicazione. Bollati
Boringhieri, Torino
8. Burling R (1993) Primate calls, human language, and nonverbal communication. Curr
Anthropol 343:25-53
9. Tomasello M, Call J (1997) Primate cognition. Oxford University Press, New York
10. Chomsky N (1986) Knowledge of language: its nature, origin and use. Praeger, New York
11. Lieberman P (1991) Uniquely human: the evolution of speech, thought and selfless behavior.
Harvard University Press, Cambridge Mass.
12. Siegman AW, Feldstein S (1987) Nonverbal behavior and communication. Erlbaum, Hillsdale
13. Rimé B (1984) Langage et communication. In: Moscovici S (ed) Psychologie sociale. PUF, Paris
14. Green GM (1996) Pragmatics and natural language understanding. Erlbaum, Mahwah
15. McNeill D (2000) Language and gestures. Oxford University Press, New York
16. Maravita A (2006) La rappresentazione del corpo. In: Cacciari C, Papagno C (eds) Psicologia
generale e neuroscienze cognitive. Il Mulino, Bologna
17. Serino A, Farnè A, Làdavas E (1996) Visual peripersonal space. In: Vecchi T, Bottini G (eds)
Imagery and spatial cognition: Methods, models and cognitive assessment. John Benjamins
Publishing Company, Amsterdam, pp. 325-337
18. Degos JD, Bachoud-Levi AC, Ergis AM et al (1997) Selective inability to point to extra-
personal targets after left posterior parietal lesion: an objectivisation disorder? Neurocase
3:31-39
19. Decety J (1996) Do imagined and executed actions share the same neural substrate?
Cognitive Brain Res 3:87-93
20. Rizzolatti G, Luppino G, Matelli M (1998) The organization of the motor cortical system:
new concepts. Electroen Clin Neuro 106:283-296
21. Ochipa C, Rothi LJ, Heilman KM (1994) Conduction apraxia. J Neurol Neurosur Ps
57:1241-1244
22. Goldenberg G, Hagmann S (1997) The meaning of meaningless gestures: a study of visuo-
imitative apraxia. Neuropsychologia 35:333-341
23. Rothi LJ, Mack L, Heilman KM (1986) Pantomime agnosia. J Neurol Neurosur Ps 49:451-454
24. Krauss RM, Morrel-Samuels P, Colasante C (1991) Do conversational hand gestures com-
municate? J Pers Soc Psychol 61:743-754
222 M. Balconi

25. Kendon A (1994) Do gestures communicate? A review. Res Lang Soc Interac 27:175-200
26. Kimura D (1993) Neuromotor mechanisms in human communication. Oxford University
Press, New York
27. Lieberman P (1992) Could an autonomous syntax module have evolved? Brain Lang
43:768-774
28. Roy EA, Hall C (1997) Limb apraxia: a process approach. In: Proteau L, Elliott D (eds)
Advances in psychology: Vision and motor control. North-Holland, Amsterdam, pp. 261-282
29. Buxbaum LJ, Schwartz MF, Carew TG (1997) The role of semantic memory in object use.
Cognitive Neuropsyc 14:219-254
30. Caplan D (1992) Language: structure, processing and disorders. The MIT Press, Cambridge
Mass
31. Papagno C, Della Sala S, Basso A (1993) Ideomotor apraxia without aphasia and aphasia
without apraxia: the anatomical support for a double dissociation. J Neurol Neurosur Ps
56:286-289
32. Cubelli R, Trentini P, Montagna CG (1991) Re-education of gestural communication in a
case of chronic global aphasia and limb apraxia. Cogn Neuropsychol 8:369-380
33. Rauscher FH, Krauss R M, Chen Y (1996) Gesture, speech and lexical access: The role of
lexical movements in speech production. Psychol Sci 7:226-231
34. Hadar U, Wenkert-Olenik D, Krauss R et al (1998) Gesture and the processing of Speech:
neuropsychological evidence. Brain Lang 62:107-126
35. Krauss RM, Hadar U (1999) The role of speech-related gestures in word retrieval. In:
Messing LS, Campbell R (eds) Gesture, speech, and sign. Oxford University Press, Oxford
36. Feyereisen P, Delannoy J-D (1991) Gestures and speech: psychological investigations.
Cambridge University Press, Cambridge
37. Scherer KR (1986) Vocal affect expression: a review and a model for future research. Psychol
Bull 99: 143-165
38. Fonagy I (1971) The functions of vocal style. In: Chatman S (ed) Literary style: a sympo-
sium. Oxford University Press, London
39. Scherer KR (1982) Methods of research on vocal communication: paradigms and parame-
ters. In: Scherer KR, Ekman P (eds) Handbook of methods in nonverbal behavior research.
Cambridge University Press, Cambridge, pp. 136-198
40. Van Bezooyen (1984) Characteristics and recognizability of vocal expressions of emotion.
Foris Publications, Dordrecht
41. Scherer KR (2001) The nature and study of appraisal: a review of the issues. In: Scherer KR,
Schorr A, Johnstone T (eds) Appraisal processes in emotion: Theory, methods, research.
Oxford University Press, New York, pp. 369-391
42. Lazarus RS (1982) Thoughts on the relationship between emotion and cognition. Am Psychol
37:1019-1024
43. Laver J (1980) The phonetic description of voice quality. Cambridge University Press,
Cambridge
44. Scherer KR, Johnstone T, Klasmeyer G (2003) Vocal expression of Emotion. In: Davidson
RJ, Scherer KR, Goldsmith HH (eds) Handbook of affective science. Oxford University
Press, New York
45. Schroeder CE, Foxe JJ (2005) The case for feedforward multisensory convergence during
early cortical processing. Neuroreport 16:419-423
46. De Gelder B, Vroomen J, Bertelson P (1998) Upright but not inverted faces modify the per-
ception of emotion in the voice. Cah Psychol Cogn 17:1021-1031
47. Calvert GA, Hansen P, Iversen S et al (2000) Crossmodal integration of non-speech audio-
visual stimuli. Neuroimage 11:suppl. 27
48. Giard MH, Peronnet F (1999) Auditory-visual integration during multimodal object recogni-
tion in humans: a behavioral and electrophysiological study. J Cognitive Neurosci 11:473-490
49. Cutica I, Bucciarelli M, Bara BG (2006) Neuropragmatics: extralinguistic pragmatic ability
is better preserved in left-hemisphere-damaged patients than in right-hemisphere-damaged
patients. Brain Lang 98:12-25
8. Sistemi di comunicazione non-verbale 223

50. Marschark M, Siple P, Lillo-Martin M et al (1997) Relations of language and thought: the
view from sign language and deaf children. Oxford University Press, New York
51. Rayman J, Zaidel E (1991) Rhyming and the right hemisphere. Brain Lang 40:89-105
52. Peterson SE, Fox PT, Poster MI et al (1988) Positron emission tomographic studies of the
cortical analysis of single-word processing. Nature 331:585-589
53. Marsolek CJ (1995) Abstract visual-form representations in the left cerebral hemisphere. J
Exp Psychol Human 21:375-386
54. Faust M (1998) Obtaining evidence of language comprehension from sentence priming. In:
Beeman M, Chiarello C (eds) Right hemisphere language comprehension: Perspectives from
cognitive neuroscience. Erlbaum, Hillsdale, pp. 161-186
55. Borod JC, Bloom RL, Santschi-Haywood C (1998) Verbal aspects of emotional communica-
tion. In: Beeman M, Chiarello C (eds) Right hemisphere language comprehension: perspec-
tives from cognitive neuroscience. Erlbaum, Hillsdale, pp. 285-308
56. Chiarello C (1998) On codes of meaning and the meaning of codes: semantic access and
retrieval within and between hemispheres. In: Beeman M, Chiarello C (eds) Right hemisphe-
re language comprehension: perspectives from cognitive neuroscience. Erlbaum, Hillsdale,
pp. 141-160
57. Glosser G, Wiener M, Kaplan E (1986) Communicative gestures in aphasia. Brain Lang
27:345-359
58. Varney NR, Damasio H, Adler S (1989) The role of individual difference in determining the
nature of comprehension defects in aphasia. Cortex 25:47-55
59. Banich MT (1997) Neuropsychology: the neural bases of mental function. Houghton Miffin
Company, New York
60. Banich MT, Nicholas CD (1998) Neuropsychology: the neural basis of mental function.
Houghton-Mifflin, Boston
Capitolo 9
Neuropsicologia delle espressioni facciali
Michela Balconi

9.1 Funzioni della mimica facciale

Indagini relative all’espressione facciale delle emozioni da una prospettiva neuropsi-


cologica e cognitiva sono state condotte a partire dai lavori pionieristici di Darwin [1],
che ha caratterizzato l’ambito di studio delle emozioni tenendo conto contemporanea-
mente di un approccio etologico, evolutivo e genetico. Secondo Darwin l’espressio-
ne delle emozioni è basata su alcuni principi di base, per cui alcune espressioni fac-
ciali sarebbero innate e avrebbero la funzione di riflettere uno stato motivazionale o
un’intenzione, utili alla sopravvivenza e all’evoluzione della specie. Proponiamo
quattro differenti prospettive di analisi della mimica facciale, al fine di evidenziare il
significato eminentemente comunicativo di quest’ultima.
La teoria neuroculturale di Ekman [2] ha proposto un modello cerebrale di pro-
duzione delle espressioni facciali, su base innata. Il programma delle espressioni fac-
ciali prevede alcuni aspetti centrali, tra cui la presenza di un numero ristretto di emo-
zioni di base, determinate geneticamente, diffuse universalmente e distinte le une
dalle altre sul piano fisiologico e psicologico. Ciascuna avrebbe in particolare un pat-
tern coerente di proprietà in relazione ai diversi livelli dell’esperienza emotiva, ovve-
ro un comportamento facciale caratteristico, una differente esperienza cosciente, spe-
cifiche basi fisiologiche, nonché funzioni cognitive e psicologiche distintive. Ekman
ha sottolineato, inoltre, come ciascuna di esse attivi differenti percorsi di codifica a
livello neurale, in quanto pattern di risposta emozione-specifici del SNC (sistema
nervoso centrale) e del SNA (sistema nervoso autonomico). Più in generale, i sistemi
di produzione e di riconoscimento delle espressioni facciali garantirebbero l’esisten-
za di un meccanismo di segnalazione con funzioni di adattamento, acquisito attraver-
so l’evoluzione specie-specifica: è per tale ragione che il significato dell’espressione
facciale non muterebbe in funzione del contesto in cui essa è percepita.
Specificamente, l’universalità delle espressioni facciali è dimostrata dal fatto che,
da un lato, in differenti gruppi di soggetti appartenenti anche ad ambiti culturali molto
diversi tra loro sono presenti gli stessi pattern mimici per l’espressione delle emozio-
ni; dall’altro, il processo di decoding presenta un ampio margine di omogeneità nelle
diverse culture. Tuttavia, a fronte di una complessiva omogeneità nelle due direzioni
della produzione e del riconoscimento dei correlati emotivi, studi sistematici hanno
consentito di evidenziare alcune divergenze nel sistema di valutazione e di produzio-
ne dei correlati mimici [3]. Tali differenze nella produzione e nel riconoscimento sono
state successivamente giustificate introducendo una distinzione tra programmi espres-

M. Balconi (ed.), Neuropsicologia della comunicazione. © Springer 2008


226 M. Balconi

sivi innati universalmente presenti e meccanismi appresi di regolazione delle espres-


sioni facciali stesse, che garantirebbero alla specie la possibilità di manipolare la mani-
festazione dei propri vissuti in funzione del contesto relazionale.
Al contrario, l’approccio dimensionale suppone che le emozioni non siano real-
tà discrete e separate, ma piuttosto concettualizza queste ultime come diversificate
in funzione di variazioni di un gradiente di intensità rispetto ad alcune “dimensio-
ni”. Nella prospettiva dimensionale le espressioni facciali non rappresentano unica-
mente segnali di specifiche emozioni, ma piuttosto il focus dell’analisi è rivolto al
più ampio potenziale comunicativo che esse possiedono. In secondo luogo, l’ap-
proccio dimensionale sottolinea il ruolo svolto dal decoder che inferisce informa-
zioni su quanto un individuo esprime, dal livello di attenzione richiesto, dal grado
di piacevolezza espresso, nonché dal livello di arousal presente [4].
Collegato al precedente, l’approccio componenziale [5] ipotizza che almeno
alcune componenti della mimica facciale possiedano un significato intrinseco, piut-
tosto che essere arbitrariamente codificate e prive di valore semiotico autonomo.
Ovvero, le espressioni emotive possiedono una struttura sistematica, coerente e
dotata di significato. Tale approccio svolge più in generale una funzione ponte tra i
modelli categoriali neuroculturali e quelli dimensionali: infatti, mentre esso appare
porsi in una posizione più “neutrale” rispetto all’esistenza di un insieme ristretto di
emozioni di base, introduce la concettualizzazione di insieme “sfocato” o “fami-
glia” di emozioni. Elemento costitutivo di tale approccio è l’intento di considerare
la mimica facciale come un indicatore dei processi di valutazione (o appraisal).
Specificamente, tra gli altri Smith e Scott [5] hanno individuato quattro dimensio-
ni di significato lungo le quali si organizzano le componenti mimiche, tenendo in
particolare considerazione il loro ruolo adattivo: la piacevolezza dello stato emoti-
vo, l’attività attenzionale associata a quest’ultimo, l’attivazione o arousal e il con-
trollo del soggetto sulla propria condizione (o agency). Ad esempio, la dimensione
edonica risulta essere associata alla rilevazione di eventuali ostacoli o allo sforzo
soggettivo richiesto, mentre le componenti attenzionali riflettono la valutazione
della novità della situazione e il grado di incertezza percepita dal soggetto circa la
situazione emotiva. Da questa prospettiva, i correlati emotivi appaiono organizzar-
si all’interno di uno spazio a struttura dimensionale, in grado di configurare fami-
glie emotive, ciascuna delle quali si caratterizza grazie a un insieme di componen-
ti tra loro in parte sovrapponentesi.
All’interno dello specifico approccio comunicativo la mimica facciale è rappre-
sentata in qualità di messaggio che si esplica all’interno di un contesto interattivo,
grazie alla propria valenza comunicativa. Essa possiederebbe cioè una funzione
comunicativa in sé, manifestandosi in congiunzione ad altre componenti comunica-
tive, come la gestualità, le componenti vocali, ecc. Specificamente Chovil [6] si è
prefisso di sintetizzare, all’interno di un modello teorico fortemente ancorato al
piano empirico, il ruolo sociale comunicativo della mimica facciale. Un assunto
centrale della prospettiva comunicativa stabilisce che la mimica facciale si verifica
generalmente e con maggiore frequenza in situazioni sociali rispetto a situazioni
non sociali. Ad esempio, la presenza di un ricevente aumenta la probabilità che
abbia luogo una modificazione del display facciale, o, ancora, l’esibizione facciale
è maggiormente presente nelle interazioni faccia-a-faccia rispetto alle interazioni a
9. Neuropsicologia delle espressioni facciali 227

distanza [7]. Più specificamente, il display facciale è più facilmente prodotto in pre-
senza di un ricevente, nel caso in cui sia utile comunicare particolari informazioni
e nel caso in cui l’informazione sia pertinente o appropriata all’interazione sociale.
Tra gli altri, Dimberg e Öhman [8] hanno rilevato come il display dell’emozione
della rabbia sia in grado di generare paura nel decoder, così come la manifestazio-
ne di stress in un emittente produca preoccupazione ed evochi un atteggiamento di
supporto in chi lo osserva, già a partire dagli otto mesi di età.

9.2 Processi di codifica e riconoscimento del volto

La produzione e la percezione delle configurazioni mimiche costituiscono una parte


essenziale delle competenze sociali degli essere umani. Introduciamo, innanzitutto,
alcune premesse circa le funzioni del volto come canale comunicativo e come fondan-
te gli scambi interattivi tra gli individui, per caratterizzarne successivamente il signifi-
cato emotivo. Il volto costituisce uno stimolo specifico e altamente prioritario rispetto
all’elaborazione di altri oggetti, dal momento che possiede caratteristiche distintive e
uniche se confrontato con altre configurazioni visive. Esso è definito, infatti, come una
gestalt unitaria, non ulteriormente scomponibile in sottocomponenti.

9.2.1 Modelli di riconoscimento del volto

Come avviene il riconoscimento di pattern facciali? Il modello recente di


Goldman e colleghi [9] ha proposto una chiave di lettura cognitiva alla compren-
sione di volti emotivi. Il modello prevede che gli individui tipicamente mettano in
moto un’attività di simulazione mentale per l’attribuzione di un’emozione al
volto: il decoder attiva un processo di attribuzione mentale simulando, replicando
o riproducendo nella propria mente lo stato emotivo di un altro individuo.
Attraverso un modello simulativo è possibile ipotizzare che il decoder selezioni
uno stato mentale da attribuire all’espressione dopo aver riprodotto o riattivato al
suo interno lo stato in questione. In altri termini, egli opererebbe al fine di repli-
care lo stato mentale altrui attivando un processo mentale simile a quello ipotizza-
to essere presente negli altri. Ciò presuppone che nella mimica emotiva vi siano
informazioni sufficienti a selezionare uno stato emotivo corrispondente appropria-
to: basandosi su un procedimento euristico (un’euristica di generazione di test) il
decoder inizia con l’ipotizzare il ruolo causale di certe emozioni nel display fac-
ciale e procede nel ricostruire un’emozione, ovvero a produrne un facsimile nel
proprio sistema rappresentazionale. Le fasi di costruzione di un modello dell’emo-
zione includono in particolare la produzione dell’espressione facciale. Un succes-
sivo confronto tra espressione osservata ed espressione simulata può condurre, in
caso di diretta comparabilità, alla conferma del correlato emotivo con la conse-
guente attribuzione di quell’emozione al target. La figura seguente (Fig. 9.1) ripro-
duce le principali componenti del modello.
228 M. Balconi

Fig. 9.1 Rappresentazione del model-


lo euristico di riconoscimento delle
espressioni facciali delle emozioni
mediante simulazione

Secondo il modello gerarchico funzionale di produzione e comprensione dei


volti proposto da Bruce e Young [10], il processo di encoding e di decoding di volti
prevede il contributo di molteplici livelli informativi, tra cui, ad esempio, il livello
di elaborazione della struttura del volto, di identificazione del grado di familiarità
dello stimolo o di analisi dell’espressione e della mimica facciale. Nel modello
cognitivo di riconoscimento del volto proposto da Bruce e Young il processo di
riconoscimento è rappresentabile mediante percorsi di elaborazione e moduli dedi-
cati alla rilevazione delle informazioni veicolate dalla mimica. Per certi aspetti il
riconoscimento del volto può essere descritto come un accesso sequenziale a diffe-
renti codici. Tali codici non sono essi stessi componenti funzionali del sistema di
elaborazione del volto, ma piuttosto risultano essere, a loro volta, prodotti delle
operazioni di componenti funzionali. Esiste cioè una distinzione tra i prodotti di un
processo e i processi in sé, poiché è necessario considerare le procedure che sono
in grado di generare e di accedere ai codici descritti. In altri termini, occorre foca-
lizzare i processi funzionali che consentono di attivare e collegare tra loro codici
differenti. Ovvero, così come siamo in grado di riconoscere passivamente le espres-
sioni facciali, l’identità ecc., a partire dal volto, è possibile codificare alcuni tipi di
informazioni selettivamente e strategicamente.
Nello specifico, nell’elaborazione del volto sono presenti sette differenti tipolo-
gie di codici: il codice pittorico, strutturale, visivo, semantico, identità-specifico,
relativo al nome e relativo all’espressione. L’immagine della Figura 9.2 sintetizza
il modello proposto da Bruce e Young.

Tra gli altri, il codice pittorico fornisce informazioni circa la luminosità dello
stimolo, gli elementi di contrasto ecc. Esso quindi restituisce un’immagine bidi-
mensionale del volto. Al contrario, il codice strutturale è in grado di rappresentare
gli aspetti configurazionali del volto che lo distinguono dagli altri. Rispetto al
primo codice, esso costituisce la descrizione di un’immagine che non tiene conto
delle informazioni prospettiva-specifiche. Inoltre, il codice pittorico da solo non
9. Neuropsicologia delle espressioni facciali 229

Fig. 9.2 Il modello di Bruce e Young per la rappresentazione dei volti. Modificata da [10]

può consentire il riconoscimento del volto indipendentemente dai cambiamenti


prodotti dalle modificazioni posturali (come l’angolo di rotazione), della mimica,
definiti dall’età e così via. Pertanto, a partire dall’immagine del volto deve poter
essere stabilita una rappresentazione visiva più astratta che possa mediarne il rico-
noscimento. Per tale ragione è necessario procedere a estrapolarne un codice strut-
turale, che possa caratterizzare gli aspetti della struttura mimica essenziali per
distinguerlo da altri volti. Occorre anche precisare che il codice strutturale contri-
buisce in misura differente al riconoscimento di volti familiari rispetto a volti non
familiari. Ad esempio, le caratteristiche interne dei volti familiari assumono un
ruolo privilegiato per il riconoscimento, mentre per i volti non familiari sia le carat-
teristiche interne sia quelle esterne risultano essere rilevanti in misura eguale. Il
codice strutturale per stimoli familiari enfatizza infatti le regioni del volto più infor-
mative e meno soggette al cambiamento. Solo successivamente viene prodotta una
descrizione più astratta, espressione-indipendente, che costituirà a sua volta un’uni-
tà di riconoscimento per le fase successive del decoding.
A partire da entrambe le tipologie di volti, familiari e non familiari, possiamo
derivare non solo informazioni concernenti l’età e il genere, ma possiamo anche
interpretare il significato delle espressioni facciali. Analizzando infatti la forma o
la postura delle caratteristiche mimiche possiamo giungere a definire un individuo
come felice, triste o arrabbiato. In relazione all’espressione emotiva, occorre sotto-
lineare che il modello non considera il codice dell’espressione indispensabile per il
riconoscimento: l’espressione facciale è considerata una descrizione prospettiva-
specifica, variabile in funzione dei differenti contesti e, pertanto, elaborata da parte
230 M. Balconi

del sistema cognitivo separatamente da altri livelli rappresentazionali, al fine di


estrapolarne il contenuto emotivo. Il modello assume pertanto un’indipendenza
funzionale tra il processo di elaborazione dell’espressione e gli altri processi, quale
quello di definizione dell’identità.
Al fine di sintetizzare in un’ottica neuropsicologica le principali caratteristiche
dell’elaborazione del volto secondo l’approccio del codice, è possibile sottolinear-
ne alcuni elementi distintivi, primo fra tutti il presupposto dell’indipendenza fun-
zionale di ciascun codice, grazie al contributo di evidenze neuropsicologiche rile-
vate in soggetti con lesioni corticali. I risultati sperimentali pongono in luce infatti
una chiara dissociazione tra riconoscimento del pattern visivo, dell’espressione e
dell’identità [11, 12]. Tale distinzione poggia sulla differenziazione tra un insieme
di componenti stabili relative alla struttura dello stimolo quali, ad esempio, le carat-
teristiche che definiscono l’identità dell’individuo, rispetto al riconoscimento del-
l’espressione specifica, quale quella emotiva, come elemento variabile della strut-
tura. Entrambe le componenti implicano l’attivazione dell’emisfero destro, seppu-
re esse siano rappresentate in aree differenti dell’encefalo. Un esperimento realiz-
zato da Etcoff [13] ha consentito di rilevare la distintività di alcune aree corticali in
relazione a compiti di riconoscimento differenziati (volti vs. emozioni). Nello spe-
cifico, i soggetti sperimentali sono stati suddivisi in tre sottogruppi: due gruppi di
soggetti cerebrolesi destri e sinistri con specifico quadro clinico e specifica localiz-
zazione della lesione, e soggetti normali (gruppo di controllo). Gli stimoli utilizza-
ti includevano volti femminili esprimenti due distinte emozioni: gioia o tristezza. Il
compito attribuito ai soggetti prevedeva la classificazione delle immagini in funzio-
ne del tipo di espressione (allegra o triste) o dell’identità del soggetto indipenden-
temente dall’espressione. I risultati sperimentali hanno consentito di rilevare la pre-
senza di abilità cognitive e di percorsi cerebrali distinti per le due componenti, sep-
pure entrambi mediati dall’emisfero destro.
Di converso, alcuni studi di particolare interesse sul piano neuropsicologico
hanno rilevato la presenza di uno specifico deficit correlato all’analisi di volti. Il
disturbo prosopagnosico prevede, infatti, che pur essendo, preservata l’abilità di
identificare gli oggetti in generale, risulti compromessa l’incapacità di elaborare
caratteristiche specifiche dei volti familiari. Analisi più approfondite hanno con-
sentito di rilevare, tuttavia, come alcuni aspetti del riconoscimento siano preser-
vati, in quanto processi automatici che avvengono indipendentemente dal contri-
buto della coscienza. Ciò che andrebbe perduto sarebbe piuttosto la consapevo-
lezza del riconoscimento delle proprietà dei volti. La distinzione tra le compo-
nenti consapevoli e inconsce nell’elaborazione dei volti viene regolata a livello
anatomico da due differenti vie cortico-limbiche, deputate a supportare distinti
processi di analisi. Una prima via, la via ventrale, danneggiata nei soggetti pro-
sopagnosici, sarebbe deputata al riconoscimento conscio ed esplicito delle infor-
mazioni del volto, mentre una seconda via, quella dorsale, preservata nel distur-
bo prosopagnosico, garantisce l’attribuzione inconsapevole del significato (spe-
cificamente quello emotivo) al volto. Nel riconoscimento implicito è probabile
che il sistema di identificazione dei volti sia disconnesso dal sistema cognitivo
consapevole, ma sia in grado di interagire, seppure in modo limitato, con altri
sistemi di riconoscimento degli input.
9. Neuropsicologia delle espressioni facciali 231

Occorre tuttavia sottolineare la presenza di elementi critici nell’approccio fun-


zionale proposto da Bruce e Young. Recenti ricerche hanno rilevato infatti elemen-
ti che risultano contrastare con alcune assunzioni del modello, poiché le variabili
che contribuiscono al riconoscimento del volto appaiono essere più complesse di
quelle previste dagli autori. Questi ultimi hanno ipotizzato, ad esempio, che cam-
biamenti contenuti dell’angolo visivo e dell’espressione facciale non condizionano
l’accuratezza del riconoscimento in sé. Al contrario, ulteriori contributi empirici
sottolineano come tali cambiamenti possano influenzare in particolare il riconosci-
mento di volti non familiari, mentre quelli familiari non appaiono esserne influen-
zati in misura consistente [14]. In aggiunta, rispetto all’espressione delle emozioni,
esperimenti che prevedevano la presenza di volti familiari o non familiari espri-
menti differenti emozioni (neutro, gioia e rabbia) hanno fatto rilevare una maggio-
re velocità di risposta del soggetto per volti familiari con espressione neutra rispet-
to a volti esprimenti gioia o rabbia. Ciò suggerisce il coinvolgimento di processi
differenti nel riconoscimento delle diverse emozioni, in contrapposizione a quanto
supposto dal modello di Bruce e Young. Infine, il riconoscimento di volti non fami-
liari appare condizionato da fattori di natura pittorica, come la rotazione, mentre
non è stato rilevato tale effetto per i volti familiari.

9.2.2 Meccanismi strutturali e semantici dell’elaborazione della


mimica. Evidenze empiriche mediante rilevazioni ERP

È possibile che differenti componenti ERP volto-specifiche riflettano fasi successi-


ve della comprensione del volto, a partire dall’analisi percettiva e dalla codifica
strutturale delle componenti dello stesso fino alla classificazione e all’identificazio-
ne degli stimoli facciali individuali. Al fine di comprendere come tali componenti
ERP possano essere legate alle fasi di elaborazione volto-specifiche, è essenziale
considerare come esse siano influenzate dalle manipolazioni sperimentali che hanno
un impatto sulla qualità della percezione e del riconoscimento del volto. Tra le fasi
di elaborazione che caratterizzano la comprensione del volto, quella strutturale e
quella semantica sono state ampiamente esplorate. È emerso che le regioni cerebra-
li implicate in aspetti distinti dell’elaborazione dei volti sono topograficamente sepa-
rate [15] ed è stata supportata empiricamente la specificità funzionale dei meccani-
smi cerebrali responsabili dell’elaborazione del volto, grazie a studi psicofisiologici
che hanno impiegato potenziali evento-correlati a lunga latenza [16, 17].
Il processo di codifica strutturale è probabilmente la fase finale dell’analisi visi-
va e il suo prodotto è una rappresentazione sensoriale astratta del volto, indipenden-
te dal contesto o dalla prospettiva. Uno specifico marcatore ERP di tale elaborazio-
ne è l’effetto N170. Esso non risulta essere influenzato dalla familiarità del volto
presentato ed è considerato un marcatore dell’analisi visiva dello stimolo piuttosto
che del processo di riconoscimento in sé. Ad esempio, l’orientamento dello stimo-
lo può influenzare l’ampiezza della N170, come rilevato in precedenza [18].
Inoltre, alcune recenti ricerche hanno mostrato che la N170 elicitata da volti capo-
volti appare più ampia rispetto a quella elicitata da volti orientati correttamente.
232 M. Balconi

Una possibile interpretazione di tale effetto è che l’aumento di ampiezza, nonché


una maggiore latenza di comparsa dell’indice N170, sia dovuto a una maggiore dif-
ficoltà di codifica di volti invertiti. Ciò è ipotizzabile in primo luogo sulla base del-
l’assunzione che la codifica del volto sia basata su un processo olistico di estrapo-
lazione della gestalt complessiva, che risulta essere distorta nel caso di inversione
e, in secondo luogo, in ragione del fatto che gli stimoli non orientati normalmente
sono più complessi da elaborare rispetto a quelli normalmente orientati. Ovvero,
procedure che modificano i pattern facciali rispetto ai loro dettagli percettivi
dovrebbero influenzare la comprensione degli stimoli facciali, con un aumento del-
l’ampiezza di picco della N170 [19]. A tale proposito, sono state condotte alcune
manipolazioni sperimentali al fine di comprendere come avvenga la decodifica
strutturale del volto. Ad esempio, stimoli isolati (come gli occhi) o la combinazio-
ne di componenti primarie presentate in assenza dei contorni del volto producono
una N170 più ampia rispetto a quella elicitata da volti completi.
In accordo alla prospettiva di Bruce e Young, il decoding facciale possiede una
struttura gerarchica che distingue un sistema nucleare per l’analisi visiva dei volti
e un sistema esteso che elabora il significato delle informazioni ottenute dal volto.
Pertanto, il riconoscimento di un volto individuale è ottenuto grazie alla compara-
zione della descrizione strutturale ricavata dall’analisi percettiva con le rappresen-
tazioni precedentemente immagazzinate dei singoli volti (unità di riconoscimento
del volto). Quando tali unità sono attivate grazie alla loro convergenza con la
descrizione strutturale, è possibile accedere ai nodi dell’identità personale presenti
nella memoria semantica, producendo l’identificazione del volto.
Per tale processo è stata rilevata la modulazione di un effetto ERP a lunga
latenza in risposta alla codifica semantica del volto. In uno studio in cui sono stati
rilevati ERP in risposta a volti familiari e a volti e altri oggetti non familiari, si è
rilevato come i volti non familiari possano produrre una maggiore negatività tra i
300 e i 500 ms (definito come effetto N400), seguita da una maggiore positività
circa 500 ms dopo la stimolazione (effetto P600) [20]. Tali effetti apparivano nella
loro massima ampiezza dopo la prima presentazione di volti non familiari indivi-
duali, mentre mostravano un decremento per stimolazioni successive alla prima.
In virtù della loro responsività alla familiarità del volto, gli effetti N400 e la P600
possono essere rappresentativi di processi coinvolti nel riconoscimento e nel-
l’identificazione dei volti. Nello specifico, essi rifletterebbero i meccanismi cere-
brali coinvolti nell’attivazione delle rappresentazioni dei volti immagazzinati e la
successiva attivazione della memoria semantica, contrariamente all’effetto N170
che sarebbe legato all’analisi percettiva precategoriale dello stimolo facciale.
Variazioni simili alla N400 sono state osservate per volti non familiari rispetto a
quelli familiari [11, 17], volti sconosciuti rispetto a quelli noti, confronti semanti-
ci rispetto a quelli non semantici, congruenti rispetto a non congruenti [21, 22].
La ricerca di uno specifico ERP per il volto è stata sostenuta da disegni speri-
mentali che hanno consentito di attuare un confronto diretto tra un paradigma di
studio proprio del dominio linguistico (anomalia semantica) e quello del riconosci-
mento di volti. Il potenziale evocato elicitato dal volto in condizione di incongruen-
za è rappresentato da una deflessione negativa, paragonabile alla componente N400
prodotta in risposta a stimoli linguistici (parole) e modulato dall’anomalia seman-
9. Neuropsicologia delle espressioni facciali 233

tica, dal momento che tale potenziale si manifesta alla medesima latenza.
Un’ipotesi circa il significato funzionale della N400 per stimoli linguistici è relati-
va all’effetto di incongruenza semantica, poiché tale componente indicherebbe l’at-
tivazione di network semantici. Koyama e colleghi [23] hanno proposto un’ulterio-
re ipotesi che associa la N400 al processo di inibizione di conoscenze non compa-
tibili, attivate dagli stimoli elicitanti a causa di rappresentazioni non attese e non
congruenti con le aspettative del soggetto. Per gli studi sulla mimica, si è assunto
che volti sconosciuti richiedano una maggiore inibizione delle conoscenze e ciò eli-
citerebbe un effetto N400 più ampio di quello prodotto per volti conosciuti.
Pertanto, l’effetto N400, evocato da frasi semanticamente incongruenti nel lin-
guaggio [24, 25], rifletterebbe l’elaborazione delle informazioni “anomale” non solo
in ambito linguistico, ma, più in generale, nel caso di un accesso ai sistemi rappre-
sentazionali semantici in condizione di anomalia [26]. Pertanto, la N400 sarebbe
modulabile non solo da termini semanticamente incongruenti, ma anche nel caso in
cui uno stimolo attivi il sistema rappresentazionale semantico in memoria. La N400
rifletterebbe l’accesso e l’attività di un sistema di memoria semantica e potrebbe evi-
denziare la risposta neurale addizionale alle informazioni semanticamente incon-
gruenti di stimoli complessi.

9.3 Vie corticali del riconoscimento di volti

Allo stato attuale sono stati condotti importanti studi per esplorare l’architettura
funzionale dei meccanismi neurali che mediano la codifica strutturale del volto nel
sistema visivo. La ricerca dei sistemi che governano il riconoscimento del volto si
è focalizzata principalmente sul ruolo della codifica strutturale nell’identificazione
(si veda il paragrafo 9.2). Alcuni studi hanno rilevato come variazioni nelle condi-
zioni visive possano influenzare il riconoscimento del volto o la configurazione
dello stimolo. I risultati empirici suggeriscono che una singola visione del volto
possa contenere sufficienti informazioni invarianti per consentire il riconoscimen-
to anche in presenza di cambiamenti modesti della posa o dell’espressione assunta.
Precisamente è stata rilevata una specifica area, il giro fusiforme, attivata da stimo-
li facciali rispetto a stimoli non facciali. È stato ipotizzato che tale regione sia coin-
volta selettivamente in alcuni aspetti dell’analisi percettiva del volto, come la codi-
fica strutturale delle informazioni necessarie al suo riconoscimento. Recentemente
Kanwisher e colleghi [27] hanno supposto che tale area possa essere interpretata
come un modulo specializzato per la percezione del volto e per tale ragione è stata
denominata area fusiforme del volto (FFA, Fusiform Face Area). In alcuni esperi-
menti è stato rilevato che la FFA risponde in modo più consistente alla vista di volti
intatti piuttosto che non intatti e alla visione frontale dei volti rispetto a quella del-
l’immagine di una casa. L’attivazione della FFA sembra anche dipendere dal livel-
lo di attenzione rivolto agli stimoli facciali. Infatti, quando i volti cadono al di fuori
del fuoco attentivo, la sua attività risulta essere ridotta.
Prendiamo in considerazione in questo paragrafo alcuni modelli recenti relativi ai
network corticali implicati nell’elaborazione dei volti. La figura seguente (Fig. 9.3)
234 M. Balconi

riporta una rappresentazione del sistema neurale distribuito implicato nell’elaborazio-


ne del volto negli esseri umani, secondo il modello di Haxby e colleghi [28].

All’interno del modello, si ipotizza che gli individui elaborino due differenti
componenti a partire dal volto: da un lato, l’insieme delle caratteristiche invarianti,
dall’altro, gli aspetti modificabili del volto, come l’espressione facciale, lo sguar-
do, i movimenti delle labbra ecc. A livello corticale, il modello appare essere di
natura gerarchica ed è suddiviso in un sistema nucleare e in un sistema esteso. In
particolare, il sistema nucleare è composto da tre regioni bilaterali della corteccia
extrastriata visiva occipitotemporale, che includono il giro occipitale inferiore, il
giro fusiforme laterale e il solco temporale superiore.
Un ulteriore aspetto analizzato dal modello di Haxby (mediante l’impiego di
rilevazioni PET) è costituito dalla distinzione tra le aree di attivazione in risposta
alla codifica e al riconoscimento di volti. I pattern di attivazione rilevati durante i
due processi mostrano una dissociazione dei sistemi neurali coinvolti. Il riconosci-
mento in particolare ha fatto rilevare l’attivazione della corteccia frontale destra,
della corteccia cingolata anteriore, della corteccia parietale bilaterale inferiore e del
cervelletto. Specificamente, la corteccia prefrontale destra risulta essere attivata
unicamente per compiti di riconoscimento e non per compiti di codifica.

Fig. 9.3 Rappresentazione del network corticale implicato nella percezione del volto.
Modificata da [28]
9. Neuropsicologia delle espressioni facciali 235

Un’area particolarmente rilevante nell’elaborazione del volto è la corteccia


orbitofrontale. Due differenti fonti confermano tale ruolo. Da un lato, ricerche con-
dotte su soggetti con lesioni corticali hanno rilevato che danni orbitofrontali sono
associati alla compromissione della capacità di identificare la mimica emotiva.
Dall’altro, alcuni studi PET hanno posto in evidenza che la corteccia orbitofronta-
le è attivata in risposta alla presentazione di volti emotivi rispetto a volti neutri [29].
Gli studi sulla mimica facciale generalmente si sono focalizzati sulla percezione
statica del volto, mediante fotografie o riproduzioni dell’espressione stessa. Al con-
trario, altri approcci hanno supposto che una rappresentazione dinamica incrementi
la possibilità di riconoscimento e di discriminazione rispetto a una rappresentazione
statica. In aggiunta, la rilevazione di una dissociazione di effetti prodotti da danni
cerebrali o psicopatologie sull’abilità di riconoscere le emozioni nelle espressioni
facciali dinamiche o statiche suggerisce il coinvolgimento di correlati neurali distin-
ti. Alcune ricerche hanno analizzato come pattern codificati in modo dinamico o sta-
tico attivino network corticali differenti nel riconoscimento. Un’ampia differenza di
attivazione è stata rilevata non solo a partire dai sistemi neurali, ma anche in relazio-
ne alle strategie mentali implicate nel decoding. La differenziazione di correlati cor-
ticali nel decoding di espressioni statiche e dinamiche è stata rilevata anche in una
recente ricerca di Kilts e colleghi [30]. Specificamente l’area visiva V5 e il solco
temporale superiore mostrano differenziazioni di risposta in relazione al tipo di sti-
molo prodotto. Parallelamente, in ambito clinico Adolphs e colleghi [31] hanno
riportato il caso di un soggetto incapace di riconoscere le emozioni primarie, a ecce-
zione della gioia, quando le espressioni venivano presentate in modalità statica o
come singole etichette verbali. Al contrario, egli era in grado di riconoscere corret-
tamente tutte le emozioni primarie a partire da stimoli dinamici.

9.4 Specificità corticale nel decoding


delle espressioni facciali delle emozioni

Evidenze sperimentali hanno sottolineato la presenza di singole cellule volto-spe-


cifiche in primati non umani. Da tali studi è stato possibile rilevare un quadro sin-
tetico dei pattern di attivazione neurale in risposta ai volti nelle regioni temporali
del cervello, sottolineando come cellule specifiche appaiano particolarmente
responsive dell’identità e dell’espressione del volto. In aggiunta, la rilevazione del-
l’attività di singole cellule ha posto in luce l’indipendenza delle due componenti.
Più specificamente, Hasselmo, Rolls e Baylis [32] hanno esplorato il ruolo del-
l’identità e dell’espressione nella risposta volto-selettiva dei neuroni nella corteccia
visiva temporale delle scimmie: alcuni neuroni appaiono rispondere all’identità
indipendentemente dall’espressione del volto, mentre altri rispondono all’espres-
sione del volto indipendentemente dall’identità. È possibile osservare pattern di
attivazione simili nella popolazione umana? Risultati empirici specifici sono stati
individuati anche per il volto umano. Inoltre, un numero crescente di ricerche ha
esplorato le caratteristiche cognitive e neuropsicologiche della comprensione dei
volti [33]. In particolare, alcuni studi PET [28, 34], con risonanza magnetica fun-
236 M. Balconi

zionale [27, 35, 36] e mediante potenziali evocati evento-correlati (ERP) [37, 38]
hanno evidenziato una specificità corticale nella decodifica delle diverse emozioni.
Un ulteriore esempio di selettività del riconoscimento è evidenziato dai deficit
nel decoding di espressioni emotive. Nello specifico, un soggetto con un danno bila-
terale all’amigdala, struttura mediale temporale che è coinvolta nell’esperienza emo-
tiva, presentava un deficit nel riconoscimento di alcune espressioni emotive, tra cui
la rabbia e la paura, mantenendo inalterata la capacità di riconoscerne altre [39]. La
paura presenta un percorso privilegiato di codifica grazie al supporto dell’amigda-
la, in quanto emozione che possiede una specificità evolutiva e una funzione più
generale di salvaguardia dell’organismo. Specificamente, lesioni dell’amigdala
sembrano compromettere l’abilità di riconoscere le espressioni facciali della paura
e le vocalizzazioni connesse a tale emozione, ma non l’abilità di riconoscere le
espressioni della tristezza. Una serie di studi volti a indagare gli effetti della deco-
difica di stimoli emotivi in condizioni di deficit ha focalizzato la propria attenzio-
ne sugli indici elettrodermici, quali la conduttanza cutanea, mediante la tecnica
della stimolazione subliminale [40]. I risultati ottenuti hanno permesso di osserva-
re un incremento della conduttanza cutanea in risposta a particolari pattern emo-
tivi rispetto ad altri, parallelamente a quanto accade nel caso di somministrazione
di stimoli sovraliminali.

9.4.1 Deficit nell’elaborazione delle espressioni emotive


e della familiarità. Il caso della prosopagnosia

Molti pazienti prosopagnosici, nonostante l’impossibilità di identificare volti fami-


liari, possiedono una capacità parziale di riconoscimento delle espressioni facciali
delle emozioni. Il profilo è comune in pazienti che presentano una forma relativa-
mente pura di agnosia per i volti, ovvero nel caso in cui il deficit di riconoscimen-
to della identità del volto si verifichi in assenza di altri deficit principali nella per-
cezione visiva e sia strettamente associato a danni bilaterali della corteccia associa-
tiva visiva di alto ordine nelle regioni occipitotemporali. È stata rilevata anche una
dissociazione inversa, ovvero il mancato riconoscimento delle espressioni facciali
delle emozioni parallelamente a un riconoscimento normale dell’identità del volto.
Tale dissociazione è legata a differenti correlati neuroatomici (ad esempio, danni
all’amigdala bilaterale) [41]. Studi di laboratorio hanno fornito evidenze consisten-
ti circa il fatto che l’amigdala sia rilevante nel comportamento sociale, specialmen-
te quello legato alla paura e all’aggressività. È pertanto probabile che l’amigdala
abbia la funzione di segnalare le informazioni emotivamente e socialmente rilevan-
ti in risposta a stimoli visivi. Tali risultati suggeriscono che il sistema neurale sot-
tostante l’elaborazione dell’identità del volto e dell’espressione facciale delle emo-
zioni siano, almeno in parte, anatomicamente distinti.
Alcuni esperimenti hanno impiegato indici psicofisiologici (quale, ad esempio, la
conduttanza cutanea) al fine di verificare se pazienti prosopagnosici possano produr-
re qualche evidenza della capacità di discriminare volti noti da volti di estranei [42].
Soggetti prosopagnosici producono una risposta cutanea significativamente maggio-
9. Neuropsicologia delle espressioni facciali 237

re per volti target rispetto a volti non target. Pertanto, i soggetti prosopagnosici segna-
lano, seppure indirettamente e in modo non conscio, la propria capacità di attuare una
discriminazione degli stimoli facciali che non sono in grado di riconoscere consape-
volmente. I risultati suggeriscono che una parte del processo fisiologico del ricono-
scimento di volti permanga intatto, benché i risultati di tale processo non siano utiliz-
zabili dalla coscienza. La presenza della compromissione del riconoscimento
cosciente dei volti, a fronte di un riconoscimento normale a livello non conscio, sup-
porta una doppia dissociazione sia anatomica sia comportamentale tra il riconosci-
mento esplicito e implicito degli stessi. In altri termini, il fatto che i soggetti siano in
grado di produrre una discriminazione del volto mediante variazioni della conduttan-
za cutanea nel caso in cui siano esposti a stimoli visivi suggerisce che le operazioni
neurali responsabili della formazione e del mantenimento delle informazioni relative
ai volti può procedere indipendentemente dall’intervento della coscienza.
Stimoli con elevata valenza affettiva producono un’intensificazione della rispo-
sta cutanea anche in soggetti normali. L’ipotesi del marcatore somatico suppone
che l’attivazione di tale indice possa verificarsi in risposta alla percezione di volti
altamente familiari, dato che tali stimoli possiedono un grado elevato di rilevanza
personale, di familiarità e complessivamente di significatività per il soggetto [42].

9.4.2 Analisi della mimica emotiva mediante ERP

Le rilevazioni elettroencefalografiche costituiscono una promessa in qualità di stru-


menti impiegati per lo studio dei processi cognitivi sottostanti la comprensione dei
volti. Dal momento che alcune componenti ERP endogene appaiono essere alta-
mente sensibili a specifici mutamenti nello stato cognitivo del soggetto, esse con-
sentono un’analisi delle differenze funzionali nella cognizione mediante rilevazio-
ne delle variazioni nel profilo d’onda dell’ERP (per una disamina della tecnica ERP
si veda [43]). Gli studi ERP negli umani hanno fornito evidenze rispetto alla speci-
ficità del volto, sottolineando l’emergenza precoce dell’elaborazione, nonché la sua
distintività rispetto ad altri processi cognitivi.
In linea con studi precedenti, alcune ricerche che hanno impiegato misure ERP
hanno consentito di individuare correlati neurali specifici per l’identificazione del
volto, ovvero indicatori che mostrano una maggiore ampiezza (intensità di picco)
per il volto rispetto a molti altri stimoli, come case, macchine, occhi ecc. [11, 44].
Rispetto alle componenti emotive, il fatto che i volti esprimenti emozioni elicitino
specifici pattern di attività corticale fornisce supporto all’ipotesi dell’esistenza di
un meccanismo cognitivo dedicato e specifico per il volto. Benché molti studi ERP
abbiano preso in considerazione componenti endogene a lunga latenza [45, 46] è
possibile affermare che il processo emotivo abbia luogo in tempi brevi. Ad esem-
pio, è stata rilevata una variazione d’onda (picco) positiva circa 100 ms dopo la pre-
sentazione dello stimolo (P1) [47], strettamente legata alla valenza emotiva della
mimica facciale. Tale picco precoce pone in luce il fatto che la percezione emotiva
può aver luogo preattentivamente e automaticamente. In aggiunta, alcuni recenti
studi hanno rilevato una negatività distribuita posteriormente (con picco intorno ai
238 M. Balconi

260-280 ms) che riflette un processo emozione-specifico [48]. Complessivamente,


alcune variazioni elettroencefalografiche di segno positivo (P300 e P200) e negati-
vo (N220, N300 ed N400) circoscrivono l’insieme di fenomeni corticali associati
al decoding di volti esprimenti emozioni. Una specificità è attribuibile alle due
variazioni di polarità negativa N220 e N400, in quanto correlati corticali delle
espressioni emotive, rispettivamente, alla mimica emotiva e al valore semantico
delle espressioni facciali. È stato dimostrato infatti che i volti esprimenti emozioni
(in particolare paura e gioia) producono una variazione negativa più ampia, intor-
no ai 270 ms, rispetto a volti neutri nelle aree corticali temporali posteriori [49-51].
Inoltre, la variazione N220 appare sensibile e responsiva a differenti tipologie di
emozioni. Specificamente, la maggiore o minore ampiezza di picco sarebbe corre-
lata alle componenti di arousal dell’emozione espressa (maggiore ampiezza nel
caso di emozioni a elevato arousal) [52, 53].

9.4.3 Un network cerebrale emozione-specifico?

Una questione centrale posta dalla ricerca attuale riguarda l’osservazione di even-
tuali differenziazioni nei correlati neurofisiologici dei volti in funzione delle diver-
se emozioni. Una serie di modelli ha cercato di rendere conto della mappa eteroge-
nea di correlati fisiologici delle singole emozioni (modelli categoriali), sottolinean-
do la presenza di pattern autonomici distinti per l’espressione delle emozioni [54].
Al contrario, altri approcci hanno rilevato l’incidenza di due criteri distintivi nella
differenziazione delle risposte autonomiche, ovvero i livelli di arousal e la valenza
edonica, che consentirebbero di sintetizzare la variabilità di risposte fisiologiche
dell’intero universo emotivo (modelli dimensionali) [55-57].
Mediante l’applicazione della risonanza magnetica è stato rilevato che il deco-
ding di differenti espressioni facciali produce l’attivazioni di regioni cerebrali tra
loro eterogenee. Ad esempio, la decodifica di volti che esprimono paura produce
un’attivazione nell’amigdala sinistra, il volto della tristezza elicita risposte nel-
l’amigdala destra e nel lobo temporale destro, mentre la percezione della rabbia
attiva maggiormente la corteccia orbitofrontale destra e la corteccia cingolata ante-
riore. Infine, è stato rilevato come il disgusto produca una maggiore attivazione nel-
l’insula anteriore. Individui affetti dalla corea di Huntington (che comporta un defi-
cit localizzato nell’insula), mostrano di non essere in grado di analizzare le espres-
sioni del disgusto ma contemporaneamente presentano una buona accuratezza nel
riconoscimento di altre emozioni con valenza negative.
L’attivazione dell’amigdala appare altamente correlata alla valenza emotiva
dello stimolo. Ad esempio, è stato rilevato un incremento di attività nell’amigdala
sinistra associato a espressioni negative come la tristezza e il grado di cambiamen-
to della valenza negativa percepita appare proporzionale al grado di attivazione del-
l’amigdala sinistra [58, 59]. In particolare, è stato evidenziato come la percezione
di volti esprimenti paura attivi regioni sinistre dell’amigdala. In secondo luogo,
anche studi su lesioni corticali hanno fatto rilevare che la percezione di emozioni
di diversa natura è associata a differenti regioni corticali. Lesioni bilaterali del-
9. Neuropsicologia delle espressioni facciali 239

l’amigdala compromettono la capacità di riconoscere le espressioni facciali della


paura, mentre mantengono inalterate le abilità di decoding delle espressioni faccia-
li della gioia, del disgusto e della tristezza. Alcuni dati empirici, infatti, forniscono
dettagli rilevanti circa una compromissione nel riconoscimento della mimica emo-
tiva della rabbia in soggetti con danno bilaterale dell’amigdala. Tale danno non
comporta un deficit totale delle conoscenze relative all’emozione della paura, ma,
piuttosto, implica una compromissione circa la consapevolezza che la paura abbia
un valore di primo piano tra le emozioni, fatto che può costituire un fattore rilevan-
te nell’abilità di prevedere un danno potenziale, poiché la presenza di una risposta
automatica di fronte a situazioni di minaccia può costituire un vantaggio rilevante
per la salvaguardia dell’individuo.
Gli studi consentono di porre in rilievo il ruolo cruciale dell’amigdala nel met-
tere in atto comportamenti di risposta specifici in situazioni di minaccia. Più in
generale, alcune ricerche hanno dimostrato che l’amigdala gioca un ruolo impor-
tante nel riconoscimento delle emozioni a partire dall’espressione facciale [60]. In
aggiunta, è stata riconosciuta una funzione prioritaria all’amigdala nell’elaborazio-
ne diretta dell’arousal emotivo e della valenza dello stimolo. Infatti l’amigdala pos-
siede una collocazione anatomica funzionale all’integrazione di stimoli esterocetti-
vi ed enterocettivi ed è in grado di modulare i processi di elaborazione sensoriale,
motoria e autonomica. Essa inoltre riceve input olfattivi, gustativi e viscerali: que-
sti ultimi forniscono informazioni rispetto alle proprietà positive e negative degli
stimoli e circa il loro valore biologico [35-61].

9.5 Asimmetrie emisferiche nell’elaborazione della mimica emotiva

Esistono diverse incongruenze tra i risultati ottenuti dagli studi sull’effetto della
lateralizzazione sul processo di elaborazione della mimica facciale. Il problema
principale è costituito dal fatto che l’elaborazione del volto è considerato un pro-
cesso univoco e non, piuttosto, multicomponenziale. Ad esempio, non è stata attua-
ta una adeguata distinzione tra stimolazione mediante volti familiari e non familia-
ri. In generale, molti studi coinvolgono la presentazione di volti non familiari piut-
tosto che familiari. Sulla base dei risultati delle ricerche sulla comprensione di volti
con campo visivo diviso, appare giustificato concludere che entrambi gli emisferi
siano dotati delle strutture necessarie per operare la discriminazione e il riconosci-
mento dei volti, così come l’elaborazione delle proprietà semantiche ottenute visi-
vamente dai volti. Tale conclusione deriva dal fatto che differenti studi hanno rile-
vato che l’emisfero destro o quello sinistro sono di volta in volta competenti per
alcune operazione e non per altre. Ad esempio, alcuni studi hanno rilevato che
l’emisfero destro è migliore del sinistro nell’effettuare la comparazione dei volti,
mentre molti altri hanno evidenziato una migliore abilità sinistra nell’identificazio-
ne di volti famosi o noti [62].
Ciò può far ipotizzare un ruolo speciale dell’emisfero destro nella fase iniziale
di immagazzinamento delle informazioni facciali, ma un’abilità equipollente degli
emisferi cerebrali nell’accedere alle informazioni mimiche precedentemente imma-
240 M. Balconi

gazzinate. Molti esperimenti che hanno impiegato i livelli di accuratezza di ricono-


scimento come variabile dipendente principale hanno evidenziato una superiorità
emisferica destra. D’altro canto, alcuni risultati suggeriscono un ruolo significativo
per l’emisfero sinistro nell’elaborazione dei volti per quanto concerne gli indici di
latenza delle risposte. Rispetto alle componenti emotive è possibile sintetizzare i
principali modelli sull’asimmetria del riconoscimento emotivo, utilizzando quattro
categorie esplicative generali:

– l’emisfero destro possiede una superiorità generale (o dominanza) su quello


sinistro per differenti aspetti del comportamento emotivo;
– l’emisfero destro è dominante per le espressioni emotive in modo parallelo alla
dominanza sinistra per le funzioni del linguaggio;
– l’emisfero destro è dominante per la percezione degli indici emotivi, come le
sfumature della mimica emotiva, la postura, la prosodia ecc.;
– i due emisferi possiedono una specializzazione complementare per il controllo
di differenti aspetti della modalità emotiva. In particolare, l’emisfero sinistro è
considerato dominante per le emozioni positive, il destro per quelle negative.

Possiamo constatare che gli studi precedenti non hanno dato origine a una chia-
ra risoluzione circa la possibilità di sintetizzare in modo sistematico i dati empirici
a disposizione. Da un lato, Kolb e Taylor [63] hanno sostenuto che sia poco proba-
bile che il cervello abbia sviluppato un controllo asimmetrico del comportamento
emotivo. Piuttosto, appare possibile che, sebbene esistano alcune asimmetrie nel
controllo neurale delle emozioni, tali asimmetrie siano un prodotto del controllo
asimmetrico di altre funzioni, come il controllo del movimento, del linguaggio ecc.
Dall’altro, l’ipotesi della valenza ha supposto, nella sua versione di partenza, una
specializzazione destra e sinistra rispettivamente per le emozioni negative e positi-
ve, indipendentemente dalla modalità di elaborazione. La dimensione della piace-
volezza sarebbe particolarmente critica rispetto al coinvolgimento emisferico per le
emozioni: comportamenti di allontanamento sarebbero connessi con l’emisfero
destro, comportamenti di avvicinamento a quello sinistro [64]. Successivamente è
stato proposto che la specializzazione emisferica rispetto alla valenza sia rilevabile
unicamente per le espressioni delle emozioni, mentre la percezione delle emozioni
sarebbe localizzata nelle regioni posteriori destre. Infine, alcune ricerche hanno
proposto che l’emisfero destro sia dominante nell’espressione e nella percezione
delle emozioni, indipendentemente dalla valenza.
Cosa è possibile concludere da tali evidenze? Una prima osservazione è che
l’elaborazione di informazioni emotive implica strategie (non-verbali, integrati-
ve, olistiche) e funzioni (percezione di pattern, organizzazione visuospaziale)
specifiche dell’emisfero destro, mentre l’emisfero sinistro sarebbe maggiormen-
te implicato nella focalizzazione attentiva e analitica degli stimoli (al riguardo si
veda anche il Capitolo 1). Un secondo aspetto è relativo al fatto che l’emisfero
destro, grazie alle sue caratteristiche di elaborazione, risulta essere più adatto
all’elaborazione delle componenti non-verbali (ad esempio, le emozioni) e quel-
lo sinistro per l’elaborazione verbale (il linguaggio) [65]. Focalizzeremo tale
aspetto nel paragrafo successivo.
9. Neuropsicologia delle espressioni facciali 241

9.5.1 Una specializzazione destra per la comprensione


dell’espressione facciale delle emozioni?

Abbiamo già sottolineato come differenti canali siano impiegati nell’espressione di


segnali non-verbali. Tali canali includono, tra gli altri, le espressioni facciali, il tono
di voce e i gesti. Le ricerche empiriche normalmente sostengono che l’emisfero
destro è specializzato nel comportamento non-verbale. Ad esempio, pazienti con
lesioni destre nelle regioni parietali mostrano una generale compromissione nel
decoding del tono vocale emotivo. Più in generale i pazienti con danni cerebrali
dell’emisfero destro mostrano una performance peggiore rispetto ai soggetti con
lesioni sinistre in tre ambiti specifici:

– nel caso in cui debbano distinguere tra volti esprimenti emozioni o debbano
attribuire un nome a scene emotive;
– nel caso di confronto tra espressioni emotive;
– quando devono raggruppare sia scene sia volti presentati in formato pittorico o
in formato scritto.

L’emisfero destro svolge un ruolo prioritario nella comprensione delle informa-


zioni emotive, come evidenziato da molti studi con pazienti neurologicamente
intatti. Ad esempio, mediante la tecnica del campo visivo diviso, i ricercatori hanno
rilevato una facilitazione del campo visivo sinistro (emisfero destro) per compiti
che richiedono ai soggetti di discriminare espressioni emotive dei volti; di ricorda-
re espressioni facciali emotive; di confrontare volti emotivi a parole scritte [66]. In
aggiunta, altri studi hanno utilizzato un paradigma con stimoli emotivi chimerici,
composto da volti combinati insieme a formare un pattern complessivo irreale. Ad
esempio, una parte del volto esprimeva un’emozione (gioia) e una seconda parte
un’emozione diversa (tristezza). Generalmente i soggetti destrimani giudicano il
volto come più felice quando il sorriso compare nel loro emicampo sinistro, fatto
che suggerisce che l’informazione sia emotivamente più saliente quando è elabora-
ta dall’emisfero destro.
In secondo luogo, una serie di studi sui tracciati EEG ha preso in considerazio-
ne variazioni nelle bande di frequenza del tracciato in concomitanza a specifici sti-
moli emotivi. Come abbiamo sottolineato in precedenza, l’esecuzione di una speci-
fica attività cognitiva comporta una maggiore attivazione cerebrale, (con conse-
guente diminuzione della banda di frequenza α; si veda anche il Capitolo 2). Nel
caso specifico della mimica emotiva, è stata rilevata una diminuzione nella banda
α per stimoli emotigeni negativi proiettati nell’emisfero destro rispetto a proiezio-
ni nell’emisfero sinistro. Tali risultati supporterebbero ulteriormente i modelli della
lateralizzazione emisferica nella comprensione della mimica emotiva, in particola-
re in funzione della valenza edonica dello stimolo.
Un ulteriore aspetto da considerare è se la comprensione delle informazioni
emotive sia solo un esempio specifico di un compito percettivo complesso che
coinvolge le informazioni relazionali, piuttosto che un processo distinto per il quale
l’emisfero destro sarebbe specializzato. Infatti, la percezione dei volti è un compi-
242 M. Balconi

to visuospaziale che implica una configurazione di caratteristiche organizzate in un


pattern specifico, l’una messa in relazione all’altra. È comunque possibile che non
esista un unico meccanismo emisferico destro finalizzato a elaborare le espressio-
ni emotive: probabilmente tale emisfero è in grado di attivare il medesimo proces-
so chiamato in causa nel riconoscimento dei volti anche nell’organizzazione di un
pattern spaziale in un insieme dotato di significato.
Con un intento di sintesi è possibile rilevare che esistono molti esempi di dis-
sociazione tra l’abilità di riconoscere un volto e l’abilità di interpretare un volto
per le proprie caratteristiche emotive. Avendo sottolineato come sia possibile
attribuire la presenza di sistemi funzionali separati o moduli attraverso la rileva-
zione di una dissociazione funzionale [67], se due compiti dipendono da una
regione comune del cervello, un danno a tale regione probabilmente interferirà
nella performance di entrambi i compiti. Ancora più interessante è il caso in cui
si verifichino dissociazioni opposte (doppia dissociazione). Tali risultati sugge-
riscono che l’emisfero destro possiede una specializzazione per l’elaborazione
delle informazioni emotive del volto, a partire dalla quale le emozioni sono
comunicate. Sono stati riportati casi di pazienti prosopagnosici che possono
identificare volti esprimenti emozioni. Al contrario, altri pazienti possono rico-
noscere i volti ma non sono in grado di identificare l’espressione emotiva.
Ricerche che hanno esaminato la percezione dei volti vs. delle emozioni in sog-
getti neurologicamente intatti hanno ottenuto risultati a favore di una dissocia-
zione funzionale di sistemi. Inoltre, quando vengono presentati volti emotivi o
non emotivi mediante campo visivo diviso, i soggetti mostrano un maggiore
vantaggio del campo visivo sinistro (emisfero destro) per volti emotivi rispetto
a volti non emotivi [52].

9.5.2 Lateralizzazione nella produzione e comprensione


di volti emotivi

Un ulteriore elemento da considerare nella definizione dell’effetto di lateralizzazio-


ne è la distinzione tra i processi di codifica (produzione) e di decodifica (compren-
sione) delle espressioni facciali delle emozioni. Innanzitutto, come rilevato dalla
figura seguente, dal punto di vista della produzione mimica è possibile rilevare
un’asimmetria facciale nel volto (Fig. 9.4).

Una tecnica utilizzata frequentemente al fine di esplorare l’asimmetria faccia-


le è quella di dividere l’immagine del volto e di comporre due metà in un’unica
configurazione artificiale. In genere il lato sinistro del volto risulta essere più
espressivo di quello destro, in particolare per le emozioni negative. Al contrario, i
due lati del volto sono giudicati essere più simmetrici per le espressioni positive.
Complessivamente, è possibile ritenere che l’emisfero destro giochi un ruolo di
primo piano nell’espressione facciale.
In secondo luogo, evidenze empiriche suggeriscono che esprimere un’emo-
zione possa costituire un fenomeno distinto dal riconoscere quell’emozione.
9. Neuropsicologia delle espressioni facciali 243

Fig. 9.4 Lateralizzazione della mimica emotiva nell’espressione delle emozioni, con predomi-
nanza dell’espressione di correlati negativi nel lato sinistro del volto (emisfero destro) rispetto a
quello destro (emisfero sinistro)

C’è infatti concordanza nel ritenere che, nonostante la valutazione dell’emozione


e l’espressione emotiva possano non essere indipendenti l’una dall’altra, esse
devono essere mantenute distinte. In aggiunta, esse appaiono dipendere primaria-
mente da regioni differenti del cervello. In particolare, la valutazione delle emo-
zioni risulta essere una specializzazione posteriore dell’emisfero destro, mentre
l’espressione delle emozioni appare essere maggiormente associata alle regioni
anteriori. Un’altra area rilevante implicata nell’elaborazione del volto è il lobo
temporale. Esso include il tessuto neocorticale così come la corteccia limbica e
le strutture sottocorticali (amigdala e ippocampo). La corteccia temporale è ricca
di connessioni con i sistemi sensoriali, specialmente quello visivo e uditivo, e con
il lobo frontale. In aggiunta, essa possiede ricche connessioni con l’amigdala, che
si ipotizza avere un ruolo centrale nel comportamento emotivo (si veda il para-
grafo 9.4.3). Un’ovvia differenza tra la corteccia temporale sinistra e destra è che
la prima è coinvolta nell’elaborazione del linguaggio, mentre quella destra risul-
ta principalmente legata all’elaborazione dei volti.
Infine, differenti emozioni sono accompagnate da differenti pattern di atti-
vità nell’emisfero destro e sinistro. Emozioni negative, come il disgusto, la
paura e la tristezza tendono a essere associate a una maggiore attivazione destra
frontale rispetto a quella sinistra, mentre emozioni positive risultano associate
a una maggiore attivazione del lobo frontale sinistro. Davidson e Hugdhal [68]
hanno supposto che le regioni frontali sinistre dispongano di un sistema impli-
cato nei comportamenti di avvicinamento e che l’aumento di attività dell’area
frontale sinistra sia associato alle emozioni che tendono a essere accompagna-
te da una tendenza ad accettare la situazione/stimolo. Al contrario, le regioni
frontali destre ospitano un sistema che dà origine a comportamenti di allonta-
namento, come per le emozioni della paura e del disgusto. Alla base di tale ipo-
tesi è posta la concettualizzazione che avvicinamento e allontanamento siano i
sistemi di azione di base adottati dall’organismo nel rispondere adattivamente
all’ambiente. In aggiunta, il lobo frontale è considerato come zona di conver-
genza in cui le informazioni dalle regioni di elaborazione percettiva posteriori
(il lobo parietale) sono congiunte con le informazioni provenienti dalle regioni
sottocorticali (come l’amigdala), coinvolte nell’attribuzione del significato
emotivo agli input sensoriali.
244 M. Balconi

9.6 Conclusioni

La ricerca in ambio neuropsicologico ha sottolineato la peculiarità della mimica


facciale per la comunicazione, individuando specifici correlati neurali per la produ-
zione e il riconoscimento dei pattern mimici. Tra le altre, l’area fusiforme per il
volto (FFA) risulta essere specificamente deputata a elaborare informazioni mimi-
che. Inoltre, è stata evidenziata la presenza di un’organizzazione modulare dei pro-
cessi di produzione/comprensione rispetto alle componenti strutturali-percettive, di
identità del volto e semantiche, anche grazie all’ausilio di numerose ricerche con
applicazioni ERP. L’universo emotivo, eterogeneo al suo interno, appare essere
caratterizzato da una chiara differenziazione di correlati emozione-specifici. Infatti,
deficit per il decoding di pattern mimici sono stati individuati per alcune emozioni
e non per altre. Nello specifico, lesioni dell’amigdala sembrano compromettere la
capacità di identificare espressioni negative come la rabbia e la paura ma non
espressioni positive, come la gioia. Al contempo, è stata rilavata una chiara specia-
lizzazione destra per il decoding dei volti e in particolare per l’espressione delle
emozioni. Pur in assenza di un modello esaustivo circa la piena dominanza destra
per il riconoscimento mimico o, al contrario, per una prevalenza solo parziale dello
stesso, il contributo principale dell’emisfero destro è stato evidenziato da numero-
se ricerche empiriche. Inoltre, lo specifico contenuto emotivo dei pattern facciali
(con valenza positiva vs. negativa) avrebbe un ruolo determinante nell’attivazione
di determinate aree corticali, con una dominanza emisferica frontale destra per pat-
tern negativi (come rabbia e paura).

Bibliografia

1. Darwin C (1872) The expression of the emotions in man and animals. Chicago University
Press, Chicago
2. Ekman P (1982) Emotion in the human face. Cambridge University Press, New York
3. Russell JA, Fernández-Dols JM (1997) The psychology of facial expression. Cambridge
University Press, Cambridge
4. Russell JA (1997) Reading emotions from and into faces: resurrecting a dimensional-contex-
tual perspective. In: Russell JA, Fernández-Dols JM (1997) The psychology of facial expres-
sion. Cambridge University Press, Cambridge, pp. 295-320
5. Smith CA, Scott HS (1997) A Componential approach to the meaning of facial expressions.
In: Russell JA, Fernández-Dols JM (eds) The psychology of facial expression. Cambridge
University Press, Cambridge, pp. 229-254
6. Chovil N (1997) Faces in dialogue. In: Russell JA, Fernández-Dols JM (eds) The psycholo-
gy of facial expression. Cambridge University Press, Cambridge, pp. 321-333
7. Blair RJR (2004) Facial expressions, their communicatory functions and neuro-cognitive
substrates. In: Frith CD, Wolpert DM (eds) The neuroscience of social interaction: decoding,
imitating and influencing the actions of others. Oxford University Press, New York
8. Dimberg U, Öhman A (1996) Behold the wrath: psychophysiological responses to facial sti-
muli. Motiv Emotion 20:149-182
9. Goldman IA, Sekhar Sripada C (2004) Simulationist models of face-based emotion recogni-
tion. Cognition 94:193-213
9. Neuropsicologia delle espressioni facciali 245

10. Bruce AW, Young AW (1986) Undestanding face recognition. Brit J Psychol 77:305-327
11. Bentin S, Deouell LY (2000) Structural encoding and identification in face processing: ERP
evidence for separate mechanisms. Cognitive Neuropsych 17:35-54
12. Lane RD, Chua PM-L, Dolan RJ (1998) Common effects of emotional valence, arousal and
attention on neural activation during visual processing of pictures. Neuropsychologia
37:989-997
13. Etcoff NL (1986) The neuropsychology of emotional expression. In: Goldstein G, Tarter RE
(eds) Advances in clinical neuropsychology. Plenum Press, New York, pp. 49-76
14. Wiser AK, Andreasen NC, O’Leary DS et al ( 2000) Novel vs. well-learned memory for
faces: a positron emission tomography study. J Cognitive Neurosci 12:255-266
15. Holmes A, Vuilleumier P, Eimer M (2003) The processing of emotional facial expressions is gated
by spatial attention: evidence from event-related brain potentials. Cognitive Brain Res 16:174-184
16. Caldara R, Thut G, Servoir P et al (2003) Face versus non-face object perception and the
“other-race” effect: a spatio-temporal event-related potential study. Clinical Neurophysiol
114:515-528
17. Eimer M (2000) Attentional modulations of event-related brain potentials sensitive to faces.
Cognitive Neuropsych 17:103-116
18. Rossion B, Delvenne JF, Debatisse D et al (1999) Spatio-temporal localization of the face
inversion effect: an event-related potentials study. Biol Psychol 50:173-189
19. Jemel B, George N, Olivares E et al (1999) Event-related potentials to structural familiar face
incongruity processing. Psychophysiology 36:437-452
20. Balconi M, Lucchiari C (2006) Indici psicofisiologici (potenziali corticali evento-correlati)
del decoding dell’espressione facciale delle emozioni. Effetto della stimolazione sovralimi-
nale e subliminale sull’indice N200. GIP 4:95-127
21. Balconi M, Lucchiari C (2005) ERP (event-related potentials) related to normal and morphed
emotional faces. The Journal of Psychology. Interdisciplinary and Applied 2:176-192
22. Olivares EI, Iglesias J, Bobes MA (1998) Searching for face-specific long latency ERPs: a
topographic study of effects associated with mismatching features. Cognitive Brain Res
7:343-356
23. Koyama S, Nageishi Y, Shimokochi M (1992) Effects of semantic context and event-related
potentials: N400 correlates with inhibition effect. Brain Lang 43:668-681
24. Balconi M, Pozzoli U (2005) Comprehending semantic and grammatical violations in Italian.
N400 and P600 comparison with visual and auditory stimuli. J Psycholinguist Res 34:71-99
25. Kutas M, Federmeier KD (2001) Electrophysiology reveals semantic memory use in langua-
ge comprehension. Trends Cogn Sci 4:463-470
26. Balconi M, Pozzoli U (2004) Elaborazione di anomalie semantiche e sintattiche con stimo-
lazione visiva e uditiva: un’analisi mediante correlati ERPs. GIP 3:585-614
27. Kanwisher N, McDermott J, Chun MM (1997) The fusiform face area: a module in human
extrastriate cortex specialized for face perception. J Neurosci 17:4302-4311
28. Haxby JV, Hoffman EA, Gobbini MI (2000) The distributed human neural system for face
perception. Trends Cogn Sci 4:223-233
29. Adolphs R, Schulz R, Tranel D (1998) Intact recognition of facial emotion in Parkinson’s
disease. Neuropsychology 12:253-258
30. Kilts CD, Egan G, Gideon GA et al (2003) Dissociable neural pathways are involved in the
recognition of emotion in static and dynamic facial expressions. Neuroimage 18:156-168.
31. Adolphs R, Tranel D, Damasio AR (2003) Dissociable neural systems for recognizing emo-
tions. Brain Cogn 52:61-69
32. Hasselmo ME, Rolls ET, Baylis CG (1989) The role of expression and identity in face-selec-
tive responses of neurones in the temporal visual cortex of the monkey. Behav Brain Res
32:203-221
33. Posamentier MT, Abdi H (2003) Processing faces and facial expressions. Neuropsychol Rev
13:113-143
34. Bernstein LJ, Beig S, Siegenthaler AL et al (2002) The effect of encoding strategy of the neu-
ral correlates of memory for faces. Neuropsychologia 40:86-98
246 M. Balconi

35. Adolphs R, Tranel D, Damasio AR (1998) The human amygdala in social judgment. Nature
393:470-474
36. Grelotti DG, Gauthier I, Schultz RT (2002) Social interest and the development of cortical
face specialization: what autism teaches us about face processing. Dev Psychobiol 40:213-225
37. Eimer M, McCarthy RA (1999) Prosopagnosia and structural encoding of faces: evidence
from event-related potentials. Neuroreport 10:255-259
38. Herrmann MJ, Aranda D, Ellgring H et al (2002) Face-specific event-related potential in
humans is independent from facial expression. Int J Psychophysiol 45:241-244
39. Davidson RJ (1999) Neuropsychological perspectives on affective styles and their cognitive
consequences. In: Dalgleish T, Power MJ (eds) Handbook of cognition and emotion. Wiley,
New York, pp. 103-125
40. Balconi M, Lucchiari C (2005) In the face of emotions: event-related potentials in supralimi-
nal and subliminal facial expression recognition. Genet Soc Gen Psychol Monogr 131:41-69
41. Adolphs R, Tranel D, Damasio H et al (1995) Fear and the human amygdala. J Neurosci
15:5879-5891
42. Tranel D, Damasio AR (1988) Non conscious face recognition in patients with face agnosia.
Behav Brain Res 30:235-249
43. Rugg MD, Coles MGH (1995) Electrophysiology of mind. Oxford University Press,
Oxford
44. Rossion B, GauthierI, Tarr MJ et al (2000) The N170 occipito-temporal component is dela-
yed and enhanced to inverted faces but not to inverted objects: an electrophysiological
account of face-specific processes in the human brain. Neuroreport 11:69-74
45. Holmes A, Vuilleumier P, Eimer M (2003) The processing of emotional facial expressions is
gated by spatial attention: evidence from event-related brain potentials. Cognitive Brain Res
16:174-184
46. Streit M, Wölwer W, Brinkmeyer J et al (2000) Electrophysiological correlates of emotional
and structural face processing in humans. Neurosci Lett 278:13-16
47. Pizzagalli D, Koenig T, Regard M et al (1999) Affective attitudes to face images associated
with intracerebral EEG source location before face viewing. Brain Research and Cognitive
Brain Res 7:371-377
48. Schupp HT, Junghöfer M, Weike AI et al (2003) Attention and emotion: an ERP analysis of
facilitated emotional stimulus processing. Neuroreport 14:1107-1110
49. Balconi M, Pozzoli U (2003) Face-selective processing and the effect of pleasant and unplea-
sant emotional expressions on ERP correlates. Int J Psychophysiol 49:67-74
50. Balconi M, Pozzoli U (2003) ERPs (event-related potentials), semantic attribution, and facial
expressions of emotions. Conscious Emotion 4:63-80
51. Sato W, Takanori K, Sakiko Y et al (2001) Emotional expression boosts early visual proces-
sing of the face: ERP recording and its decomposition by independent component analysis.
Neuroreport 12:709-714
52. Balconi M (2003) Neuropsicologia delle emozioni. Carocci, Roma
53. Balconi M (in stampa) Emotional face comprehension. Neuropsychological perspectives.
Nova Science Publishers, New York
54. Rossignol M, Campanella S (2006) Emotional facial expressions processing in anxious disor-
ders: behavioural and electrophysiological evidences. In: Balconi M (ed) Neuropsychology
and cognition of emotional face comprehension. Research Sign Post, Kerala
55. Balconi M (2006) Neuropsychology and cognition of emotional face comprehension.
Research Sign Post, Kerala
56. Balconi M, Lucchiari C (2005) Consciousness, emotion and face: an event-related poten-
tials study. In: Ellis RD, Newton N (eds) Consciousness & Emotion. John Benjamins,
Amsterdam, pp. 121-135
57. Balconi M, Lucchiari C (2006) Eeg correlates (evet-related desynchronization) of emotional
face elaboration. Neurosci Lett 392:118-123
58. Vuilleumier P, Schwartz S (2001) Emotional facial expressions capture attention. Neurology
56:153-158
9. Neuropsicologia delle espressioni facciali 247

59. Gurr B, Moffat N (2001) Psychological consequences of vertigo and the effectiveness of
vestibular rehabilitation for brain injury patients. Brain Injury 15:387-400
60. Adolphs R (1999) Social cognition and the human brain. Trends Cogn Sci:469-479
61. Calder AJ, Burton AM, Miller P et al (2001) A principal component analysis of facial expres-
sions. Vision Res 41:1179-1208
62. Eimer M (1998) Does the face specific N170 component reflect the activity of a specialized
eye processor? Neuroreport 9:2945-2948
63. Kolb B, Taylor L (1990) Neocortical substrates of emotional behavior. In: Stein NL, Lewenthal
B, Trabasso T (eds), Psychological and biological approaches to emotion. Lawrence Erlbaum,
Hillsdale Associates, pp. 115-144
64. Pizzagalli D (1998) Face, word, and emotional processing: Electrophysiological (EEG and
ERP) studies on emotion with a focus on personality. University of Zurich, Zurich
65. Beeman M, Chiarello C (1998) Right hemisphere language comprehension: perspectives
from cognitive neuroscience. Erlbaum, Hillsdale
66. Làdavas E, Umiltà C, Ricci-Bitti PE (1980) Evidence for sex differences in right-hemisphe-
re dominance for emotions. GIP 7:121-127
67. Etcoff N (1989) Asymmetries in recognition of emotion. In: Boller F, Grafman J (eds),
Handbook of neuropsychology. Elsevier, New York, pp. 363-382
68. Davidson RJ, Hugdahl K (1995) Brain asymmetry. The MIT Press, Cambridge Mass
Capitolo 10
Emozioni, temperamento e personalità:
aspetti psicofisiologici
Vilfredo De Pascalis

10.1 Introduzione

Un aspetto generalmente osservato della risposta a stimoli emozionali è la grande


variabilità interindividuale. Questa variabilità ha portato i ricercatori a studiare
quanto la struttura delle risposte individuali a eventi che inducono emozioni sia in
qualche modo modulata da caratteristiche di personalità. A tal scopo, è stata ampia-
mente indagata la relazione tra personalità e affetto o, più specificamente, tra perso-
nalità e risposte emozionali. Comune a questi studi è l’idea che il confronto tra rispo-
ste emozionali positive e negative possa far luce sui meccanismi responsabili delle
emozioni, così come sulle differenze individuali nelle reazioni affettive.
Gli studi sulla struttura della personalità hanno evidenziato cinque dimensioni
principali (Big Five) [1]. Le cinque dimensioni di personalità proposte [2, 3] sono:
(1) Estroversione (E), (2) Amicalità (A), (3) Coscienziosità, (4) Nevroticismo (N),
(5) Apertura mentale (O). Secondo Revelle [4] e Gilboa e Revelle [5], sebbene vi
sia un accordo generale sul contenuto descrittivo di queste cinque dimensioni, vi è
talvolta disaccordo circa la loro capacità di fornire un valore predittivo sulla moda-
lità e sulla causalità del comportamento.
Alcuni tra i più intriganti tentativi di fornire una teoria causale delle differenze
individuali sono stati quelli di Eysenck, Gray e Zuckerman. Tali tentativi, di solito,
hanno considerato le dimensioni Estroversione (E), Nevroticismo (N) e, in minor
misura, Psicoticismo (P) del modello Eysenckiano, e Ansia (An) e Impulsività
(Imp) del modello di Gray. Queste ultime due dimensioni formano quelle che alcu-
ni studiosi considerano le dimensioni primarie della personalità (Big-Two). Sia la
teoria di Eysenck che quella di Gray attribuiscono molta importanza alle dimensio-
ni E e N o Impulsività e Ansia per il ruolo a esse attribuito nella modulazione del-
l’attività cognitiva, comportamentale e affettiva. Particolarmente interessanti, in
questo contesto, sono i risultati di Tellegen [6] che ha posto in relazione queste
dimensioni con una delle tipiche categorie degli stati affettivi definita come umore.
Il più recente modello Alternative Five di Zuckerman e collaboratori ha portato alla
concettualizzazione e allo sviluppo del questionario Zuckerman-Kuhlman
Personality Questionnaire (ZKPQ) per la misura di cinque fattori [7]: Impulsive
Sensation Seeking (ImpSS); Neuroticism-Anxiety (N-An); Aggression-Hostility
(Agg-Host); Sociability (Soc); Activity (Act).

M. Balconi (ed.), Neuropsicologia della comunicazione. © Springer 2008


250 V. De Pascalis

In uno studio di Zuckerman e colleghi [7], sono stati confrontati tre modelli struttu-
rali: il modello Big-Three di Eysenck (E, N, P), quello dei Big-Five di Costa e McCrae
e quello degli Alternative Five di Zuckerman e Kuhlman. È stato evidenziato che quat-
tro dei cinque fattori di entrambi i questionari Revised NEO Personality Inventory
(NEO PI-R) mostrano una sostanziale identità fattoriale.
In questo capitolo verranno esaminate le relazioni tra le dimensioni di personalità
E e N, oppure Imp e An e un’altra categoria di fenomeni affettivi, vale a dire le emo-
zioni. Esse possono essere analizzate da diverse prospettive: neurologica, fisiologica,
fenomenologica, cognitiva e sociologica. Un denominatore comune a tutti questi
approcci è il tentativo di trovare uno schema di classificazione delle emozioni. Tra i
tentativi di differenziare le emozioni vi sono quelli che hanno utilizzato i pattern
cognitivi, la tendenza all’azione, le espressioni del volto e le risposte fisiologiche.
La distinzione tra personalità ed emozione è, in un certo senso, artificiale poiché
nella maggior parte dei lavori di ricerca viene studiato come le differenze individuali
nella personalità sono mediate dallo stato emozionale dell’individuo. Non è possibile
fare ricerca sulla personalità senza alcuna considerazione dello stato emozionale del-
l’individuo e viceversa. Molti studi sull’umore, ad esempio, cercano di trovare quale
relazione lega le dimensioni E e N all’intensità o alla durata delle emozioni positive e
negative, oppure cercano di verificare se differenze individuali nell’umore possano
essere dipendenti da differenze individuali nella sensitività dei sistemi di ricompensa
e punizione che sono considerati alla base dei tratti E e N [8] o della Imp e An [9]. Tale
approccio, tuttavia, non considerando l’interazione individuo-ambiente, può portare a
conclusioni tautologiche di determinismo genetico. L’approccio interazionista, al con-
trario, assume che le differenze individuali nella risposta emozionale non dipendano
solo dalla personalità, ma dalla complessa interazione individuo-ambiente.
Oggi si rileva un grande interesse verso lo studio della relazione tra emozioni e
personalità, poiché il considerare l’esperienza emozionale non può che arricchire le
teorie della personalità. Dal momento che le emozioni hanno una lunga storia evo-
lutiva, queste possono fornire una base evolutiva per la struttura della personalità e
per lo sviluppo delle differenze individuali. Tale approccio può essere considerato
entro il continuum della linea di ricerca iniziata da Gray e da Eysenck, volta a spie-
gare le dimensioni fondamentali della personalità utilizzando i meccanismi fisiolo-
gici, affettivi e cognitivi. Secondo Revelle [4] l’inclusione dell’esperienza emozio-
nale nei modelli di personalità li rende con una base più solida e meno descrittivi.

10.2 Elementi di base della teoria di J.A. Gray

La versione originale della Reinforcement Sensitivity Theory (RST) [9-11] postula


che nel cervello dei mammiferi il controllo del comportamento sia regolato dall’at-
tività di tre sistemi separati e interagenti: (1) il sistema di attivazione del compor-
tamento (BAS, Behavioural Approach System) che media l’approccio ai segnali di
ricompensa o il comportamento che riduce la probabilità di punizione; (2) il siste-
ma di inibizione comportamentale (BIS, Behavioural Inhibition System) che corri-
sponde allo stato soggettivo di ansia: esso organizza le risposte ai segnali condizio-
10. Emozioni, temperamento e personalità: aspetti psicofisiologici 251

nati di punizione e i suoi principali effetti sono l’inibizione del comportamento in


corso; (3) il sistema di attacco/fuga (FFS, fight/flight) che modula gli effetti com-
portamentali degli eventi avversivi incondizionati quali l’attacco difensivo (fight) o
l’immediato evitamento della stimolazione punitiva (flight).
Il BAS è considerato un semplice sistema a feedback positivo, sensibile agli sti-
moli associati al premio o all’omissione della punizione. Tale sistema è responsa-
bile delle emozioni positive e del movimento dell’organismo secondo il gradiente
spazio-temporale verso il luogo in cui viene fornito il premio. Esso è ritenuto stret-
tamente dipendente dall’attività delle vie dopaminergiche ascendenti e dei circuiti
cortico-striato-pallido-talamici [12].
Il BIS è definito dall’inibizione dei programmi di comportamento in risposta a
stimoli condizionati associati alla punizione o al non premio (frustrazione) o a sti-
moli nuovi. La dinamica del BIS è quella di confrontare continuamente gli eventi
ambientali attuali con quelli predetti e, se la differenza tra questi è troppo grande
rispetto alle attese, esso è in grado di arrestare l’attività motoria programmata. Il
sistema, inoltre, modula il controllo del comportamento esplorativo indirizzando
l’attenzione verso uno stimolo nuovo o minaccioso (checking mode). Quando si
verifica incompatibilità (mismatch) tra eventi attesi ed eventi in corso, il program-
ma motorio si arresta e il BIS si attiva per ricercare maggiori informazioni dall’am-
biente aumentando il livello di attenzione focalizzata o l’arousal (control mode). Il
funzionamento di questo sistema dipenderebbe principalmente dall’attività dei
sistemi noradrenergico e serotoninergico che interessano il sistema setto-ippocam-
pale, il circuito di Papez e la corteccia orbitofrontale.
Il terzo sistema, FFS, è stato originariamente descritto da Gray come sensibile
agli stimoli avversivi incondizionati (ad esempio, lo stimolo dolorifico innato) e ai
comportamenti di aggressione o evitamento in situazioni emozionali di rabbia o di
panico. Sebbene sia stato postulato che questo sistema controlli le espressioni del
comportamento di collera e panico, la relazione del FFS con gli altri due sistemi del
modello non è stata descritta chiaramente anche perché in letteratura le ricerche sul-
l’attività di questo sistema sono scarse. L’attività del FFS è principalmente media-
ta dalle strutture ipotalamiche e amigdaloidee.
Recentemente, vi è stato un considerevole numero di importanti revisioni sulle
funzioni dei tre sistemi BAS, BIS e FFS [13]. In particolare, McNaughton e Corr [14]
hanno evidenziato che, nell’ultima revisione della teoria, il BAS è sensibile a entram-
bi gli stimoli appetitivi, sia condizionati sia incondizionati, e vi è una netta distinzio-
ne tra la componente motivazionale dell’incentivo e la componente consumatoria
delle risposte agli stimoli appetitivi incondizionati. Il BAS è impegnato a muovere
l’animale per ridurre la distanza spazio-temporale tra il luogo in cui si trova e quello
probabile del rinforzo primario. Il BAS non dovrebbe mediare l’atto finale del com-
portamento consumatorio.
Nella versione più recente della RST, alla formulazione originale del FFS è stata
aggiunta la funzione di congelamento (freezing) e rinominata come Fight-Flight
Freezing System (FFFS). Il comportamento di freezing appare nei casi in cui gli sti-
moli minacciosi sono inevitabili, mentre quelli evitabili inducono flight legati a
stati di collera o di paura. Il FFFS media tutte le stimolazioni avversive, cioè gli sti-
moli innati condizionati e incondizionati.
252 V. De Pascalis

La revisione della RST postula che il BIS entri in funzione solo quando sono
attivati entrambi il FFFS e il BAS, cioè quando l’animale è investito da un conflit-
to approccio/evitamento che elicita uno stato d’ansia.
Secondo Gray, le differenze individuali dipendono dalla relazione tra stimolo e
organismo che lo riceve. Noi possiamo misurare, tuttavia, solo la risposta dell’orga-
nismo allo stimolo. Un obiettivo da raggiungere nella ricerca futura è quello di riu-
scire a separare la sensibilità individuale allo stimolo dalla grandezza della risposta.

10.3 Confronto tra i modelli di Eysenck e Gray

Hans Eysenck e Jeffrey Gray hanno elaborato due tra le più note teorie che sosten-
gono l’esistenza di un substrato biologico dei tratti di personalità. Eysenck [15]
ritiene che i tratti stabili del comportamento individuale siano descrivibili median-
te le dimensioni di personalità E, N e P, mentre Gray [16, 17] propone l’uso delle
dimensioni temperamentali An e Imp (ottenute per rotazione di circa 30° degli assi
N ed E) quali migliori descrittori della personalità umana.
Le teorie di Eysenck e Gray differiscono sia nella scelta del costrutto fisiologi-
co sia per i circuiti neuronali ritenuti specificamente connessi alla personalità del-
l’individuo. Eysenck [18] identifica due principali sistemi cerebrali come compo-
nenti chiave per descrivere il comportamento: il circuito reticolo-corticale e il cir-
cuito reticolo-limbico. Il primo controlla l’arousal corticale generato dagli stimoli
in entrata, mentre il secondo controlla la risposta agli stimoli emozionali. La dimen-
sione E nei suoi poli introversione-estroversione è associata all’arousability del cir-
cuito reticolo corticale, con il risultato che le persone introverse sono più attivate di
quelle estroverse in una condizione di stimolazione moderata. La dimensione N è
associata all’arousability del circuito reticolo-limbico, così che le persone con alti
livelli di N presentano attivazioni più elevate indotte da stimolazioni emozionali
rispetto alle persone con bassi livelli di N. Le differenze individuali nella dimensio-
ne N possono essere maggiormente evidenziate in situazioni emozionali o stressan-
ti. Relativamente alla dimensione P, Eysenck inizialmente ha ipotizzato che fosse
inversamente correlata all’attività del sistema serotoninergico ma, più recentemen-
te, ha ritenuto tale dimensione dipendente dal livello di dopamina [19, 20]. Nella
teoria di Gray, a differenza di quella di Eysenck, il nucleo regolatore del compor-
tamento risiede nel comparatore setto-ippocampale che, lavorando in congiunzione
con la corteccia prefrontale, rileva le discrepanze tra lo stato del mondo esterno
atteso e quello effettivo. La rilevazione di tali discrepanze produce l’inibizione del
comportamento in corso che comporta un aumento del livello di arousal e attenzio-
ne. Il sistema regolatore dell’arousal, per Gray, si riferisce al fascio di fibre nora-
drenergiche dorsali che ascendono dal locus coeruleus per innervare molte struttu-
re del prosencefalo. L’attività di tale sistema è stata associata ai meccanismi com-
pensatori che servono a mantenere un’attenzione selettiva efficiente e altre funzio-
ni in condizioni di stress. L’attività di tale sistema di arousal non tiene conto delle
differenze individuali nella responsività motoria (sistema dopaminergico) e nelle
funzioni attentive e sensoriali (sistema colinergico ascendente).
10. Emozioni, temperamento e personalità: aspetti psicofisiologici 253

Fig. 10.1 Rappresentazione geometri-


ca della versione semplificata a due fat-
tori della Reinforcement Sensitivity
Theory, in cui gli assi di personalità
fondamentali (Ansia e Impulsività)
sono mostrati a un angolo di 30° rispet-
to alle dimensioni Estroversione (asse
orizzontale) e Nevroticismo (asse verti-
cale) di Eysenk. Modificata da [21]

La teoria di Eysenck, attribuendo un ruolo centrale alla funzione dell’arou-


sal come mediatore principale del comportamento, consente alle dimensioni di
personalità di essere legate a molti indici di risposta qualitativamente differenti.
La teoria di Gray, al contrario, risulta più finemente costruita dal punto di vista
neuropsicofisiologico ed è, quindi, più specifica, ma predittiva di una gamma
più ristretta di comportamenti. Risulta spesso difficile stabilire le corrisponden-
ze tra risposte comportamentali e/o fisiologiche con l’attività dei sistemi eviden-
ziati dalla teoria di Gray. Talvolta, negli studi in cui le ipotesi derivate dalla teo-
ria di Gray non risultano verificate, la teoria di Eysenck può essere una valida
via per spiegare i risultati ottenuti. Può, tuttavia, accadere che i risultati entrano
in conflitto con entrambe le teorie, oppure che siano in accordo con entrambe a
differenti livelli di descrizione. Secondo questa teoria, l’An identifica la sensibi-
lità individuale ai segnali di punizione ed è dipendente dall’attività del BIS,
mentre l’Imp identifica la sensibilità individuale ai segnali di ricompensa ed è
dipendente dall’attività del BAS (Fig. 10.1). In termini di spazio Eysenckiano,
bassi livelli di An si trovano nel quadrante caratterizzato da bassi livelli di N e
da alti livelli di E (N-, E+), mentre alti livelli di An si trovano nel quadrante con
alti livelli di N e bassi livelli di E (N+, E-). La dimensione impulsività è com-
presa tra bassi livelli di impulsività (quadrante con bassi valori di N e di E: N-,
E-) e alti livelli di impulsività (quadrante con alti valori di N e di E: N+, E+).
Secondo questo modello, la dimensione attacco/fuga dovrebbe correlare positi-
vamente con la dimensione P (Fig. 10.1).

Relativamente alla relazione che lega le dimensioni di Eysenck con quelle di


Gray, Pickering e colleghi [21] hanno derivato le seguenti espressioni algebriche:
1) BAS ° (E+N), BIS ° (N-E); dove ° rappresenta il simbolo di proporzionalità.
Sommando e sottraendo entrambi i membri di questa espressione si ottiene
rispettivamente:
2) N ° (BAS+BIS), E ° (BAS+BIS).
254 V. De Pascalis

Considerando i coefficienti di saturazione (loadings) di E e N sull’Ansia, Gray [16]


ha assunto che l’angolo tra l’asse dell’Ansia e quello di N era vicino a 30° e, per man-
tenere l’ortogonalità tra Ansia e Impulsività, l’angolo tra quest’ultima ed E doveva
essere anch’esso di 30°. Se si traduce questa assunzione in termini algebrici, si può
scrivere che:
3) BAS ° (k.E+N), BIS ° (k.N-E), dove k=2 per generare angoli di circa 30°.
In termini di affetto positivo (AP) o negativo (AN) l’equazione sopra riportata
diventa:
4) AP = 2*E + N; AN = 2*N – E
Da questa espressione si può chiaramente concludere che, secondo la teoria di
Gray, l’affetto positivo e negativo dipende da entrambe le dimensioni E e N, sebbe-
ne con differenti pesi di queste dimensioni. Questa assunzione differisce da quella di
Eysenck che vede l’affetto positivo legato solo a E e l’affetto negativo solo a N:
5) AP = E; AN = N
La teoria di Gray, pur nascendo come un’estensione di quella di Eysenck, dif-
ferisce da questa sia a livello del costrutto fisiologico, sia per i circuiti neuronali
specifici utilizzati per descrivere la personalità. Il legame postulato tra E e N e i dif-
ferenti stati dell’affetto differisce dalla visione proposta da alcuni studiosi secondo
cui l’affetto positivo è legato solo a E e l’affetto negativo solo a N [6, 22-25].
Una delle linee di ricerca più promettente per il confronto delle due teorie è
quella relativa agli studi sulle differenze individuali nelle risposte comportamenta-
li e fisiologiche a stimolazioni emozionali positive e negative. Lo studio delle dif-
ferenze individuali nelle risposte emozionali ci può aiutare a capire meglio i mec-
canismi alla base delle emozioni.
La teoria di Gray predice che (a) gli individui con alti livelli di impulsività
(Imp+, individui con BAS forte) dovrebbero essere più sensibili ai segnali di
ricompensa rispetto agli individui con bassi livelli di impulsività (Imp-, individui
con BAS debole); (b) gli individui con alti livelli di ansia (An+, individui con
BIS forte), dovrebbero essere più sensibili ai segnali di punizione rispetto agli
individui con bassi livelli di ansia (An-, individui con BIS debole). L’ortogonalità
delle dimensioni An/BIS e Imp/BAS implica che le risposte al segnale di ricom-
pensa dovrebbero essere le stesse per tutti i livelli di An/BIS e che le risposte ai
segnali di punizione dovrebbero essere le stesse per tutti i livelli Imp/BAS.
Questa è denominata da Corr [26] come ipotesi dei sistemi separabili (Separable
Subsystems Hypothesis).
Nel tentativo di spiegare la pletora di differenti risultati riportati in letteratura [27],
Corr [26] ha proposto una nuova revisione della teoria di Gray ipotizzando che i
sistemi An/BIS e Imp/BAS non siano indipendenti, bensì interdipendenti poiché si
influenzano tra loro (Joint Subsystems Hypothesis). Secondo tale ipotesi, entrambi
i sistemi BIS e BAS hanno la capacità di influenzare sia il comportamento media-
to dalla punizione sia quello mediato dalla ricompensa. BIS e BAS esercitano effet-
ti che sono uno facilitatorio e l’altro antagonista. Nei comportamenti principalmen-
te governati dal BIS, l’ansia facilita e l’impulsività contrappone, e viceversa per i
10. Emozioni, temperamento e personalità: aspetti psicofisiologici 255

comportamenti principalmente governati dal BAS. In particolare, (1) gli individui


Imp+/An- dovrebbero mostrare i livelli più elevati di risposte appetitive e di emo-
zioni positive; (2) gli individui An+/Imp- dovrebbero mostrare i livelli più elevati
di risposte avversative e di emozioni negative. Secondo Corr [26], la Joint
Subsystems Hypothesis non deve essere intesa in contrapposizione alla teoria origi-
nale di Gray, ma, piuttosto, complementare a essa entro un modello bidimensiona-
le delle funzioni dei sistemi BIS e BAS.

10.4 Emozioni e umore nel modello di Gray: aspetti psicofisiologici

Le misure psicofisiologiche utilizzate per lo studio delle emozioni nel contesto della
RST possono essere utilmente suddivise in misure del sistema nervoso centrale (SNC)
e autonomo (SNA). Misure di risposte elettroencefalografiche (EEG) e dei potenziali
evento-correlati associati (ERP) sono state utilizzate come indicatori dell’attività del
SNC, mentre altre misure della conduttanza cutanea e della frequenza cardiaca (FC)
sono state utilizzate come indicatori dell’attività del SNA. In entrambi i casi, non vi è
stato un numero sufficiente di ricerche volte a valutare la validità della RST dal punto
di vista psicofisiologico. Sebbene gli scarsi risultati ottenuti con queste variabili pos-
sano essere dovuti alla difficoltà a stabilire misure di laboratorio valide e attendibili,
Stelmack e Geen [28], Matthews e Gilliland [27] e Zuckerman [29] hanno sottolinea-
to che non necessariamente debba esserci una chiara relazione tra le basi neurologiche
del RST e le misure fisiologiche che si presume indichino la loro attività. Corr [30] e
Pickering e colleghi [31] hanno evidenziato che il set sperimentale in sé può influen-
zare l’attivazione del BIS e del BAS basata sulle aspettative e sull’esperienza prece-
dente del partecipante. Ci si potrebbe aspettare che per molti partecipanti l’applicazio-
ne degli elettrodi e la connessione di essi ad apparati di registrazione producano
aumenti nei livelli di ansia (attivazione del BIS) semplicemente sulla base della perce-
zione della situazione sperimentale in sé. Ciò può influenzare l’attivazione del BIS o
del BAS che successivamente è richiesta dalla prova sperimentale.

10.5 RST e attività elettrocorticale

Nello studio sulle differenze individuali, i potenziali evento-correlati (ERP) sono


risultati sensibili nel rilevare differenze tra estroversi e introversi e tra persone con
alti e bassi livelli di impulsività [32-34]. Come è noto, una risposta evocata, o
evento-correlata, viene ottenuta mediante media correlata con l’onset dello stimo-
lo (rispetto al quale si vuole analizzare la risposta elettrocorticale) di campioni
elettroencefalografici (EEG). Le componenti principali degli ERP sono di solito
associate al processamento cognitivo nel seguente modo: la componente negativa,
osservata a circa 100 millisecondi (ms), e quella positiva, osservata a circa 200 ms
dall’onset dello stimolo (N100 e P200), sono maggiormente dipendenti dalle pro-
prietà sensoriali degli stimoli e dall’attenzione selettiva. Le componenti più tardi-
256 V. De Pascalis

ve sono considerate maggiormente dipendenti dai processi cognitivi. In particola-


re, la P300 è stata associata ai processi di classificazione degli stimoli, dell’orga-
nizzazione della risposta, di aggiornamento della rappresentazione dello stimolo
in memoria [35, 36]. L’ampiezza della P300 aumenta in funzione del significato e
della rilevanza che l’evento ha per il soggetto e in funzione delle risorse cogniti-
ve richieste [37, 38]. La latenza del picco della P300 è stata trovata correlata al
tempo necessario per categorizzare e valutare lo stimolo e risulta essere indipen-
dente dal tempo richiesto dai processi di elaborazione della risposta motoria. La
maggior parte degli studi sulla componente P300 considera l’influenza dei proces-
si cognitivi sull’ampiezza e sulla latenza della P300 [39]. Pochi sono, tuttavia, gli
studi che hanno valutato l’influenza delle componenti affettive dello stimolo
(parole, immagini) sulla P300. Alcune ricerche hanno evidenziato un aumento
delle componenti ERP tardive positive quando evocate dalla presentazione di fil-
mati o da immagini a valenza emozionale [40-42]. Naumann e colleghi [43] hanno
valutato l’influenza dell’elaborazione (processing) di aggettivi a valenza emozio-
nale positiva, negativa e neutra. Gli autori hanno riportato che gli aggettivi con
valenza positiva e negativa, rispetto a quelli con valenza neutra, elicitavano una
componente P300 fronto-centrale (250-500 ms) più ampia che risultava essere
presente solo se l’attenzione del soggetto era orientata verso il contenuto emozio-
nale dello stimolo. Nella letteratura che riguarda l’uso delle tecniche di neuroima-
ging, risulta che parole a valenza positiva e negativa possono attivare differenti
strutture neuronali nel sistema limbico. In particolare, Maddock e Buonocore [44],
utilizzando la tecnica di risonanza magnetica funzionale per immagini (fMRI),
hanno evidenziato che l’ascolto di una parola minacciosa, rispetto ad una parola
neutra, attiva il giro cingolato posteriore sinistro. Più recentemente, Maratos e col-
leghi [45] hanno riscontrato che il riconoscimento di parole entro frasi a valenza
emozionale positiva è associato all’attivazione bilaterale delle cortecce prefronta-
li, orbitofrontali e del lobo temporale anteriore sinistro.
Gli studi che hanno utilizzato gli ERP per validare le teorie di Eysenck e Gray non
sono numerosi. In particolare, Bartussek e collaboratori hanno intrapreso una linea di
ricerca, iniziata nei primi anni novanta, orientata specificamente alla validazione
della teoria di Gray Bartussek e colleghi [46] hanno registrato gli ERP in soggetti
introversi ed estroversi, evocati sia da toni neutri sia da toni indicanti vincita (premio)
o perdita (punizione) di denaro in una prova simile al gioco d’azzardo. I soggetti
introversi presentavano ERP di ampiezza più grande nella condizione di stimolazio-
ne neutra. In accordo con le previsioni derivate dalla teoria di Gray, i toni che segna-
lavano vincita di denaro elicitavano P200 e N200 più ampie negli estroversi, mentre
nei soggetti introversi veniva osservato un andamento opposto. Per la componente
P300 vi era una significativa interazione N e E che stava a indicare che i soggetti
estroversi con alto nevroticismo (soggetti classificati impulsivi secondo il modello di
Gray) avevano P300 più elevate per gli stimoli indicanti vincita di denaro.
In uno studio successivo [47], prendendo come riferimento lo studio di
Bartussek e colleghi [46], vennero registrati gli ERP e le risposte anticipatorie della
frequenza cardiaca (FC) a segnali visivi, ciascuno indicante una quota fissa di dena-
ro vinto o perso in un compito in cui il soggetto doveva indicare se una parola pre-
sentata brevemente sul monitor di un computer fosse una parola con o senza senso.
10. Emozioni, temperamento e personalità: aspetti psicofisiologici 257

Uno dei principali scopi di questo studio era verificare in che modo le dimen-
sioni di personalità di Gray, misurate con il Gray-Wilson Personality Questionnaire
(GWPQ) [48] e quelle di Eysenck fossero in relazione alla risposta anticipatoria di
decelerazione della FC e alle ampiezze delle componenti degli ERP elicitate dai
segnali di vincita o perdita di denaro.
Gli ERP registrati in questo studio presentavano stabilmente le componenti N200,
P300, N400, P600, N800. I risultati evidenziarono, in accordo con la teoria di Gray,
che nei soggetti con alto livello di approccio vi erano ampiezze più elevate della com-
ponente P600 degli ERP ai segnali di premio, mentre nei soggetti con basso livello di
approccio l’ampiezza della P600 era più grande per i segnali di punizione. Questa
componente tardiva (a 600 ms dall’onset dello stimolo) appartiene alla famiglia delle
componenti positive tardive e può essere considerata come una delle possibili espres-
sioni della P300b. I soggetti classificati come N+ producevano ampiezze più grandi
della componente N800 agli stimoli di punizione rispetto a quelli di premio. Al con-
trario, i soggetti con livello medio di N non mostravano differenze tra la N800 degli
stimoli premio e punizione. Questo risultato può essere visto in accordo con le predi-
zioni di entrambe le teorie di Eysenck e Gray se si considera che tale componente,
come per i potenziali lenti negativi, sia un indice dell’eccitabilità corticale. Tuttavia,
non essendo noto il significato funzionale di questa componente, non è stato possibi-
le, agli autori, trarre conclusioni dettagliate. Matthews e Gilliland [27], nella loro ras-
segna comparativa delle teorie di Eysenck e Gray relativamente ai correlati elettro-
corticali della personalità, concludono che i risultati ottenuti sia nello studio di
Bartussek e colleghi [46] sia in quello di De Pascalis e colleghi [47] non appaiono a
sostegno della teoria di Gray, ma, al contrario, sembrano essere meglio in accordo con
la teoria dell’arousal di Eysenck, la quale ipotizza l’effetto dell’inibizione transmar-
ginale negli introversi. Relativamente ai risultati ottenuti nel nostro studio per la
dimensione N e la risposta di decelerazione della FC, Matthews e Gilliland [27],
interessati dal risultato che gli introversi e non i soggetti con alto nevroticismo fos-
sero più sensibili ai segnali di punizione, hanno espresso la necessità di ulteriori
ricerche per chiarire la non semplice relazione tra le dimensioni E, N e le attività dei
sistemi BIS e BAS.
In un successivo lavoro di ricerca, Bartussek e colleghi [49] riportarono due studi
nei quali vennero registrati gli ERP al fine di testare la relazione tra E e stimolazio-
ni emozionali. Nel primo studio veniva richiesto il processing di parole con differen-
te valenza emozionale, nel secondo veniva evocata una risposta emozionale utiliz-
zando il riflesso di allarme o di sobbalzo (Startle Reflex, che consiste nella rilevazio-
ne dell’intensa e rapida chiusura delle palpebre, detto anche riflesso di ammicca-
mento [50]) durante la presentazione di immagini a contenuto emozionale positivo,
negativo e neutro. Nel primo studio venne evidenziata una complessa interazione tra
E, valenza emozionale dello stimolo e sito di registrazione per l’ampiezza della
P300. Nel secondo studio, la stessa interazione venne riscontrata per l’ampiezza
della componente P200. Gli autori conclusero che i soggetti estroversi tendono a svi-
luppare più elevati livelli di arousal sui siti frontali, indipendentemente dal tipo di
valenza emozionale degli stimoli. I risultati di questi studi non hanno consentito agli
autori l’attesa validazione della teoria di Gray, ma hanno portato loro a sostenere la
validità del modello dell’arousal di Eysenck se si assumeva che la stimolazione sen-
258 V. De Pascalis

soriale avesse indotto uno stato di inibizione transmarginale. Gli studi di Bartussek
e collaboratori hanno fornito una scarsa evidenza sperimentale a favore di un
aumento delle risposte agli stimoli emozionali nei soggetti con alti livelli di N, seb-
bene la dimensione N avesse mostrato interazioni complesse in questi studi.
Secondo la teoria di Eysenck, N, piuttosto che E, dovrebbe essere il fattore princi-
pale a moderare la risposta agli stimoli emozionali. Sebbene ogni conclusione defi-
nitiva basata sui risultati di questi studi rimanga elusiva, essi rappresentano gli sfor-
zi sperimentali per comprendere i pregi e/o i limiti di una o di entrambe le teorie.
Sulla stessa linea di ricerca di Bartussek e collaboratori si colloca un nostro stu-
dio [51]. In quest’ultimo, oltre al questionario di Eysenck (EPQ-R), venne sommi-
nistrata anche la Sensation Seeking Scale-Form V di Zuckerman [52]. I soggetti
vennero impegnati in una prova di attenzione spaziale elaborata da Posner [53], e
successivamente modificata da Stormark e colleghi [54], che permette di valutare
come parole a differente valenza emozionale (positiva, negativa e neutra) influen-
zino la detezione, da parte dei soggetti, di uno stimolo neutro (un asterisco ‘*’) pre-
sentato in uno dei due emicampi circa un secondo dopo la somministrazione delle
parole emozionali. Le parole venivano presentate nell’emicampo (sinistro o
destro) in cui sarebbe successivamente apparso lo stimolo target (cue valide),
oppure nell’emicampo opposto (cue non valide). Compito del soggetto era di
rispondere il più velocemente possibile, pigiando un pulsante, quando lo stimolo
target veniva presentato in uno dei due emicampi. Sono stati registrati gli ERP e
le modificazioni della FC alla presentazione dello stimolo target. La componente
dominante negli ERP era una chiara P300 il cui picco risultava alla latenza media
di circa 420 ms. La risposta evidenziata nella FC era una accelerazione cardiaca
che anticipava l’emissione dello stimolo target e raggiungeva il suo massimo dopo
circa 0,5 secondi dalla presentazione dello stesso. Considerando che le dimensio-
ni di Eysenck N, E, e P erano correlate con le subdimensioni della Sensation
Seeking (SS) nel modo indicato da Zuckerman e colleghi [7, 55], i fattori analiz-
zati in questo studio vennero estratti mediante analisi fattoriale delle dimensioni di
Eysenck e Zuckerman. Questa analisi ha messo in evidenza tre fattori così deno-
minati: (1) Estroversione-Sensation Seeking (E-SS); (2) Psicoticismo-Sensation
Seeking (P-SS); (3) Ansia (An). In sostanza, quest’analisi ha evidenziato i tre
superfattori di Eysenck, indicando però il peso che le dimensioni temperamentali
della Sensation Seeking aveva in questi superfattori. Come ipotizzato da
Zuckerman, il fattore N era indipendente dalle subdimensioni della SS. Tra le
dimensioni di Eysenck, lo psicoticismo è stato il fattore meno studiato, ma il suo
legame con la condizionabilità suggerisce che può essere correlato all’arousal
emozionale. Gli individui con alti livelli di P sono descritti come individui impul-
sivi e antisociali che presentano una bassa sensitività alle emozioni positive e
un’alta sensitività a quelle negative [6, 20, 22, 56]. Secondo il modello di
Zuckerman [57], la dimensione Impulsive Sensation Seeking (ImpSS) è associata
a bassi livelli di aspettativa per il premio. Alla luce dei risultati sperimentali (otte-
nuti mediante fMRI) che hanno evidenziato l’attivazione di differenti strutture del
sistema limbico per le parole minacciose [44, 45], in questo studio, gli effetti delle
parole emozionali positive e negative sono stati ragionevolmente considerati
rispettivamente come valore di premio e punizione. Inoltre, il livello di attivazio-
10. Emozioni, temperamento e personalità: aspetti psicofisiologici 259

ne corticale, espresso dall’ampiezza della P300 e dalla risposta anticipatoria di


accelerazione cardiaca, sono stati esaminati alla luce delle ipotesi di Gray ed
Eysenck. In particolare, per i fattori An ed E-SS, le ipotesi erano quelle sopra
riportate per il nostro studio precedente [47]. Per la dimensione P-SS, in accordo
con Eysenck, gli individui con alti livelli di P dovrebbero mostrare ampiezze mag-
giori della P300 e accelerazioni FC per gli stimoli a valenza emozionale negativa
rispetto a quelli con valenza positiva.
I risultati di questo studio hanno evidenziato che i soggetti con alti livelli di E-
SS, rispetto a quelli con bassi livelli, sperimentavano sensazioni emotive più
intense per le parole piacevoli rispetto a quelle spiacevoli. Questo andamento era
collegato alle più grandi ampiezze della P300 sui siti frontali e parietali dell’emi-
sfero destro, quando gli stimoli erano presentati nell’emicampo sinistro, per i sog-
getti con alti livelli di E-SS rispetto a quelli con bassi livelli. Questi risultati sono
stati considerati in accordo con la teoria dell’arousal di Eysenck piuttosto che con
quella di Gray, a causa della mancanza di un effetto di interazione significativa del
fattore E-SS con il tipo di valenza emozionale per i tempi di reazione e per le
misure fisiologiche. I risultati sopra indicati, ottenuti per la P300, possono essere
spiegati con la teoria dell’arousal se si assume che gli stimoli emozionali, indipen-
dentemente dalla loro valenza, inducono un’inibizione transmarginale nei sogget-
ti introversi con bassi livelli di Sensation Seeking. Per i soggetti con bassi livelli
P-SS, rispetto a quelli con alti livelli di questo fattore, vennero evidenziati picchi
più grandi della P300 per i target positivi e neutri e più marcate accelerazioni FC
in tutte le prove sperimentali. Questi risultati sostengono l’ipotesi secondo cui lo
psicoticismo è negativamente correlato con l’intensità delle emozioni positive.
L’andamento della P300, riscontrato per il fattore P-SS, può essere interpretato
come un indice di un più elevato livello di arousal nei soggetti con bassi livelli di
P-SS alle stimolazioni emozionali positive. Inoltre, le più marcate accelerazioni
FC, trovate nei soggetti con bassi livelli di P-SS, sono state spiegate con la teoria
di Eysenck. Secondo Eysenck, infatti, al diminuire dell’arousal corticale, l’attivi-
tà delle strutture cerebrali di ordine gerarchico inferiore viene ad aumentare e, con
essa, la probabilità di emissione di comportamenti impulsivi. Al contrario, quan-
do l’arousal corticale aumenta, l’attività delle strutture più arcaiche è ridotta e, con
essa, la probabilità di emissione di comportamenti impulsivi o psicotici. Questi
risultati sono a favore dell’assunzione secondo cui i farmaci stimolanti riducono
l’impulsività [58, 59] e aumentano l’ampiezza del picco P300 [34, 60]. Altri studi
indicano che l’impulsività è correlata alle dimensioni P ed E e che queste due
dimensioni sono a loro volta correlate a livelli più bassi di arousal [61].
Infine, per la FC, il fattore Ansia ha evidenziato una significativa interazione
con il tipo di stimolazione emozionale mostrando più ampie accelerazioni cardia-
che alle parole spiacevoli nei soggetti con alta ansia rispetto a quelli con bassa
ansia. I soggetti con alta ansia mostravano anche tempi di reazione più brevi per le
parole positive e negative. Quest’ultimo risultato è stato considerato in accordo con
la teoria di Gray. Applicando questa teoria, la più elevata accelerazione cardiaca nei
soggetti ansiosi può essere considerata come il prodotto dell’attivazione compensa-
toria del sistema di arousal per mantenere efficiente l’attenzione selettiva e la
responsività motoria ai segnali di punizione in condizione di stress.
260 V. De Pascalis

In uno studio recente [62], sono state nuovamente validate le teorie di


Eysenck e di Gray utilizzando alcune parole emozionali che nello studio prece-
dente [51] avevano elicitato le risposte ERP e di FC più ampie. L’attivazione
emozionale veniva indotta impegnando i soggetti in quattro prove di riconosci-
mento di parole emozionali offensive (negative) e gratificanti (positive), utiliz-
zando il paradigma odd-ball. Le parole standard (std) e target (tg) erano combi-
nate in modo da formare quattro condizioni sperimentali rispetto alla valenza
emozionale: std-positive/tg-positive, std-positive/tg-negative, std-negative/tg-
positive, std-negative/tg-negative. Per le parole target vennero misurate (1) l’am-
piezza e la latenza della componente P300; (2) la risposta di decelerazione della
FC; (3) il tempo di reazione; (4) l’autovalutazione della sensazione emozionale.
Ai soggetti vennero somministrati numerosi questionari di personalità e sui tratti
di temperamento. Da un’analisi fattoriale confermativa vennero derivati due fat-
tori ortogonali: Ansia e Impulsività. Le parole positive erano considerate come
segnali di premio e le parole negative come segnali di punizione. Nei soggetti con
alta ansia, rispetto a quelli con bassa ansia, erano ipotizzate, per le parole negati-
ve, sensazioni emozionali più elevate, picchi più ampi della componente P300 e
decelerazioni più pronunciate della FC. Per i soggetti con alta impulsività, era
ipotizzata una sensitività maggiore per le parole positive che doveva essere
accompagnata da una più grande P300 e decelerazione cardiaca, poiché questi
soggetti, secondo la teoria di Gray, dovrebbero essere più sensibili al premio. I
risultati evidenziarono, per le parole target negative, nei soggetti con alta ansia,
rispetto a quelli con bassa ansia, picchi della componente P300 più ampi sui siti
parietali e occipitali dello scalpo, sensazioni emozionali più intense e decelera-
zioni della FC più marcate. Questi risultati confermano le ipotesi derivate dalla
teoria di Gray. Relativamente al fattore Impulsività, vennero osservate più picco-
le ampiezze della P300 principalmente sui siti parietali e occipitali nei soggetti
con alta impulsività rispetto a quelli con bassa impulsività per le parole target
negative. I primi, rispetto ai secondi, evidenziarono anche, per le parole target
negative, latenze del picco P300 più lunghe in tutti i siti di registrazione. Questi
risultati non vennero considerati in linea con l’ipotesi derivata dalla teoria di
Gray, secondo cui i soggetti con alta impulsività dovrebbero avere una più gran-
de sensitività per le emozioni positive. Riguardo al fattore Impulsività, i risultati
di questo studio sono da considerarsi in accordo con quelli riportati in studi pre-
cedenti [34, 51, 63]. La ridotta sensitività agli stimoli negativi nei soggetti con
alta impulsività, riscontrata nell’ampiezza e nella latenza della componente P300,
può indicare la presenza, in questi soggetti, di una ridotta allocazione delle risor-
se attentive per l’elaborazione degli stimoli a valenza emozionale negativa [64],
oppure può evidenziare il fatto che questi soggetti, come conseguenza dello stato
emozionale degli stimoli negativi, allocano minori risorse per affrontare lo sfor-
zo (inibizione corticale, [65]).
In uno studio di Wang e colleghi [66], l’ampiezza della Mismatch Negativity
(MMN) frontale fu trovata positivamente correlata con la dimensione N-An dello
ZKPQ e negativamente correlata con la Experience Seeking (ES), misurata con la
Sensation Seeking Scale (SSS) di Zuckerman [52]. Tali risultati confermano
l’ipotizzata relazione positiva tra N-An e attività del BIS e tra ES e attività del
10. Emozioni, temperamento e personalità: aspetti psicofisiologici 261

BAS. In uno studio successivo, Hansenne e colleghi [67] hanno studiato la rela-
zione tra MMN e dimensioni di personalità misurate con il Tridimensional
Personality Questionnaire [68]. La dimensione Harm Avoidance (HA), che è nota
dipendere dall’attività del BIS, venne trovata significativamente correlata con
l’ampiezza della MMN, la quale risultava crescere in maniera direttamente pro-
porzionale all’aumentare dei livelli di HA. Questa associazione era più pronuncia-
ta nelle donne rispetto agli uomini e indicava che ad alti livelli di inibizione cor-
rispondevano più elevate ampiezze della MMN. In uno studio successivo, De
Pascalis e colleghi [62] hanno verificato l’ipotesi dei due sistemi interagenti (Joint
Subsystem Hypothesis) di Corr [69], utilizzando la modulazione affettiva indotta
nella MM