Sei sulla pagina 1di 38

neuropsicologia della

comunicazione
Neuropsicologia
Università Cattolica del Sacro Cuore - Milano
37 pag.

Document shared on www.docsity.com


Downloaded by: Daniele1994bbc (daniele.ferrari1994@yahoo.it)
Neuropsicologia della comunicazione
Prefazione

Negli scorsi decenni la comunicazione:


− è divenuta oggetto di analisi autonomo (ma non indipendente) dal linguaggio; − è stata
analizzata come processo (anzichè come facoltà); − è stata accostata alla disciplina
neuropsicologica.

La neuropsicologia deve essere in grado di operare su processi non più considerati "chiusi nella mente
dell'individuo", ma agiti in specifici contesti interazionali. La ricerca neuropsicologia applicata alla
comunicazione è ancora una sfida es.è stata indagata poco la comunicazione gestuale; bisogna ancora
integrare metodologie e strumenti a disposizione.

Parte I. Neuropsicologia "per" il linguaggio e la comunicazione

Capitolo 1) Basi biologiche dei sistemi comunicativi. Dalla neurolinguistica alla neuropragmatica

1.1 Introduzione: neuropsicologia "per" il linguaggio e per la comunicazione

La specie umana si caratterizza per la propria capacità di costruire strumenti, tra i quali il principale è il
linguaggio:
• per comunicare pensieri e sentimenti
• costituito dalla combinazione di suoni, gesti, simboli scritti
• dà alla nostra struttura sociale
Per comprendere il linguaggio occorrono specifiche competenze, tra cui ricavare strutture da input visivi/
uditivi di vari livelli (fonemi, morfemi, sillabe, parole, frasi, discorso).
Qual è la relazione tra processi linguistici e comunicativi e neuropsicologia?
I dati neuropsicologici testano la plausibilità dei modelli psicolinguistici, in contraddizione tra loro.
I dati neurobiologici consentono di comprendere:
− la natura della rappresentazione linguistica e dei processi che la riguardano;
− lo sviluppo del linguaggio;
− la compromissione del linguaggio in caso di trauma/deficit;
− le funzioni specifiche che entrano in gioco quando il linguaggio è in un certo contesto.

Alcune distinzioni:
• funzioni linguistiche vs funzioni comunicative: sebbene siano due piani tra loro contigui, bisogna
individuare le loro componenti distintive.
• produrre vs comprendere: aspetti collegati ma tra loro indipendenti, un deficit può coinvolgere il primo ma
non il secondo e viceversa.

Document shared on www.docsity.com


Downloaded by: Daniele1994bbc (daniele.ferrari1994@yahoo.it)
1.2 Proprietà e funzioni del processo linguistico e comunicativo

Linguaggio e comunicazione hanno caratteristiche in comune:


• molteplicità strutturale: le strutture corticali e sottocorticali che regolano le loro diverse funzioni
sono varie. La varietà si riferisce sia alle unità funzionali, sia alle componenti di produzione/
comprensione. N.B .I modelli attuali non fanno riferimento ad aree localizzate e circoscritte.
• molteplicità funzionale: gerarchia di funzioni, che comprendono componenti fonologiche
(fonemi), morfologiche (le più piccole unità dotate di significato), lessicali (combinazione di fonemi
con significato), sintattiche (associazione di parole per formare una frase), semantiche (significato /
proposizione / periodo).
Sopra esse c'è la grammatica (regole applicate agli elementi precedenti), la pragmatica (piano del
significato nel contesto). La pragmatica comprende il piano non verbale/extra linguistico e quindi
regola la condivisione di scopi/intenzioni tra individui. Nel livello pragmatico sono comprese le
competenze inferenziali, le capacità di attribuire stati mentali (tom), la definizione delle funzioni
sociali (come i ruoli), la regolazione dello scambio, la condivisione del contesto emotivo. L'obiettivo
è andare oltre la pragmatica e neuropragmatica cognitiva, ed esplicare: le componenti vocali non
verbali (prosodia, emozioni); il significato non-letterale (ironia, metafora..); le funzioni discorsivo
conversazionali (discours pragmatics); le competenze di cognizione sociale (mediazione tra
individuo e ambiente).
• multicomponenzialità della comunicazione: diversi veicoli (via verbale, gestuale, mimica).
• dinamismo intrinseco: le funzioni sono in continuo divenire, all'interno di un processo che implica
negoziazione e sintonizzazione.
• evoluzione delle competenze linguistiche e comunicative nel corso dello sviluppo, sia ontogenetico
che filogenetico: il linguaggio è un sistema in evoluzione.

1.3 Fattori di sviluppo del linguaggio: filogenesi e ontogenesi

1.3.1 Sviluppo del linguaggio in termini filogenetici

Nonostante le strutture anatomiche indispensabili per la comunicazione possano aver avuto origine in tempi
remoti (probabilmente oltre 500.000 anni fa), si ritiene che le competenze linguistiche e comunicative come
tali si siano sviluppate abbastanza tardi nel periodo preistorico (circa 100.000 anni fa). Qual è l'origine della
comunicazione?

• Ipotesi che rilevano continuità tra la comunicazione umana e quella dei primati:

La teoria gestuale: la comunicazione ha origine da un sistema di gesti che coinvolgeva gli arti superiori dei
primati. Il passaggio alla comunicazione vocale consentì l'utilizzo degli arti per funzioni diverse.
La teoria vocale: la comunicazione ha origine da un sistema di grida (deputate all'espressione di emozioni/
motivazioni, come gioia, paura, eccitamento sessuale). Solo a seguito, grazie al cambiamento della struttura
dell'apparato fonatorio, i primati poterono controllare l'emissione dei suoni in modo volontario.
La teoria integrativa: prevede la concomitanza di sistema gestuale e vocale. Infatti nell'emisfero sx sono
comunemente localizzate il controllo di: manualità, comunicazione verbale, comunicazione dei segni.

• Ipotesi che affermano la discontinuità nello sviluppo della comunicazione:

Document shared on www.docsity.com


Downloaded by: Daniele1994bbc (daniele.ferrari1994@yahoo.it)
Pinker e Chomsky: il linguaggio non si è evoluto e non ha precursori.
Altri modelli: esistono competenze uniche della specie umana, non comparabili con quelle dei primati.

Analisi dei sistemi comunicativi nei primati non umani:


− Modelli evoluzionistici: ci sono elementi di continuità tra specie (es.somiglianze negli emisferi delle
scimmie antropomorfe nella dominanza emisferica e nei fenomeni di plasticità conseguenti a
lesioni). Le competenze linguistiche hanno un valore evolutivo.
− Modelli non evoluzionistici: nei primati non umani non si può parlare di forme complesse di
comunicazione a livello semantico e non c'è nessuna analogia nell'organizzazione semantica.

1.3.2 Ontogenesi dell'acquisizione delle competenze linguistiche: componenti innate e fattori di


apprendimento

Universalità delle competenze legate allo sviluppo del linguaggio nell'uomo:

Modello dell'innatismo strutturale: la capacità di apprendere una lingua è innata e si fonda su una
grammatica universale. Strutture geneticamente predefinite supportano quest'apprendimento. Modello
dell'universalità funzionale: l'acquisizione di processi e funzioni (e non di strutture grammaticali!) è
uniforme, automatica e universale.

Periodo critico di acquisizione: fase evolutiva che ha termine all'inizio della pubertà, ed è caratterizzata una
maggiore plasticità neuronale. Maturazione strutturale/funzionale ed esperienza sono interdipendenti: gli
stimoli ambientali possono facilitare il corso dello sviluppo predefinito biologicamente. Strutture con
maturazione più tardiva hanno maggiori probabilità di essere influenzate dagli input dell'ambiente.
Nonostante la presenza di periodi durante i quali l'uomo è geneticamente predisposto all'acquisizione
del linguaggio, un'interazione adeguata con il contesto fisico e sociale è essenziale perchè tale capacità
possa svilupparsi.

1.4 Modelli di funzionamento anatomo-strutturale del linguaggio

1.4.1 Modelli classici: rappresentazione “focale” delle competenze linguistiche (moduli corticali) o
rappresentazione “distribuita” (modelli a network)?
Conclusioni a cui convergono entrambe:

− l'emisfero sinistro è generalmente dominante per il linguaggio, già a partire dalla nascita: è stato
dimostrato da analisi strutturali e misurazioni elettroencefalografiche. La lateralizzazione
emisferica preced e o segue lo sviluppo del linguaggio?
Ipotesi dell'equipotenzialità delle strutture cerebrali: la lateralizzazione segue lo sviluppo del
linguaggio. Quest'ipotesi è stata messa in discussione es. da studi durante la gestazione.

− le due aree di Broca (produzione) e di Wernicke (comprensione) svolgono un ruolo predominante


nel processo linguistico. E' il modello di Wernicke-Geschwind, che formula previsioni attendibili
rispetto agli effetti prodotti da lesioni focali delle aree del linguaggio. Area di W (comprensione) –
B (produzione) – fascicolo arcuato (flusso del discorso)

1.4.2 Recenti acquisizioni: sistemi sottocorticali e “aree di interfaccia”

Document shared on www.docsity.com


Downloaded by: Daniele1994bbc (daniele.ferrari1994@yahoo.it)
La specificità delle aree Broca/Wernicke è messa in discussione dalla moderna neurolinguistica e dalle
tecniche di neuroimmagine, poiché gli effetti delle lesioni cerebrali citate risultano variabili da persona a
persona e non sono sempre univocamente classificabili. Si ipotizza che a queste due aree occorra
aggiungere altri sistemi neurali: in particolare strutture sottocorticali, come talamo sx (ruolo di supporto),
nucleo caudato sx (integrazione uditivo-motoria), sostanza bianca adiacente.
I modelli classici sono messi in discussione anche in ambito cognitivo es. non esiste un'unica via per le
afferenze uditive.
Recenti evidenze hanno messo in discussione anche la predominanza emisferica sx. Alla produzione e
comprensione del linguaggio sembrerebbero contribuire entrambi gli emisferi. Ad esempio il recente
modello neuroanatomico del linguaggio propone una stretta interdipendenza tra emisfero dx e sx:

▪ L'emisfero destro percepisce il linguaggio → e manda gli input alla parte uditivoconcettuale
dell'emisfero sx.
▪ L'interfaccia uditivo-concettuale (emisfero sx) interferisce con: il sistema delle conoscenze
concettuali; i sistemi frontali motori, ma solo tramite l'interfaccia uditivomotoria (lobo parietale).
▪ Quindi c'è un legame diretto tra rappresentazione concettuale e lobo frontale.

1.5 Apporto della neurolinguistica

1.5.1 Rappresentazione del processo di produzione e comprensione del linguaggio: modelli cognitivi

Le prospettive neuropsicologiche recenti prendono più in considerazione gli aspetti cognitivi. I processi
mentali sottesi alle funzioni del linguaggio sono separabili ed è possibile descrivere il funzionamento del
sistema già in relazione alle unità più minime degli stimoli fonetici.
Modello di Levelt: ha l'obiettivo di spiegare come e quali processi cognitivi vengono messi in atto nei
processi di comprensione (processo ascendente) e di produzione (discendente). Secondo Levelt le operazioni
cognitive che vengono messe in atto per i due processi sono sostanzialmente le stesse solo in ordine inverso.
Quindi per la comprensione le fasi di elaborazione sono: elaborazione acustica e fonologica; elaborazione del
lessico e della struttura frasale (guidata dalla prosodia e proprietà del lemma); elaborazione della sintassi. Per
il processo di produzione le fasi sono le stesse ma al contrario quindi: elaborazione sintassi; elaborazione
lessico e struttura frasale; processo di articolazione (ovvero produzione della parola/frase). Questi due
processi funzionano autonomamente l'uno dall'altro ma simultaneamente.

1.5.2 Modularità funzionale del linguaggio e indipendenza dei sistemi di rappresentazione concettuale
(contenuto), sintattico (funzione della posizione dei termini e della struttura della frase) e semantico
(significato complessivo della frase)

Es. Lelvet ha sottolineato la presenza di operazioni di ordine metacognitivo nella costruzione del messaggio:
• operazioni di macropianificazione (include le intenzioni comunicative del parlante, le competenze
sociali, le conoscenze condivise);
• operazioni di micropianificazione (dà la forma adeguata ad ogni unità dell'informazione; dà una
prospettiva informativa al messaggio)

Alcune delle evidenze più recenti:

Document shared on www.docsity.com


Downloaded by: Daniele1994bbc (daniele.ferrari1994@yahoo.it)
Indipendenza fra forma lessicale e significato: in certi soggetti ci può essere conoscenza ortografica/
fonologica del lessema (parola) ma non del suo significato.
Alcuni soggetti conoscono adeguatamente la forma lessicale (sanno come si scrive/pronuncia) ma non
colgono il suo significato per alcune categorie concettuali (es.parole astratte o concrete).
Viceversa, altri comprendono il significato del lessema, ma non sono in grado di formulare particolari
categorie grammaticali (es.nomi, preposizioni...).

Dissociabilità tra forma sintattica e concettuale: la compromissione delle competenze sintattiche può
coesistere con la perfetta funzionalità delle competenze concettuali e viceversa.
• sistema sintattico: l'insieme gerarchico di categorie funzionali (gerarchia linguistica → consente di
identificare e produrre una struttura sintatticamente corretta.
• sistema concettuale: è la più generale capacità di rappresentazione delle conoscenze (che integra
competenze linguistiche, conoscenza concettuale e conoscenza contestuale).
Es. soggetti con disturbi agrammatici sembrano preservare rappresentazioni concettuali e semantiche del
messaggio.

Indipendenza fra sistema semantico e sintattico: dati di neuroimaging mostrano che le regioni cerebrali
sottese al sistema semantico (lobo temporale superiore) sono diverse da quelle del sistema sintattico (regione
perisilviana sinistra).
Altri risultati si sono ottenuti con i potenziali evocati corticali (ERP): l'indice N400, che rileva le anomalie
semantiche nel messaggio, è distinto da quello che rileva anomalie nella struttura dell'enunciato, cioè P600.
Sono stati proposti anche modelli di interazione, secondo cui informazioni semantiche e sintattiche
interagiscono.

Indipendenza fra sistema semantico e concettuale e multimodalità rappresentazionale: -


sistema concettuale: ha a che fare con un sistema di rappresentazione, che include anche il contesto
pragmatico e il ragionamento euristico.
- sistema semantico: codifica aspetti del significato rilevanti per il linguaggio.
Jackendoff: i due sistemi sono distinti tra loro ma profondamente interdipendenti. Questo spiegherebbe
l'ignoranza concettuale (un sogg. Impiega una parola correttamente sul piano semantico, ma non conosce il
suo significato) e la polisemia (a una parola possono corrispondere due significati diversi).
Multimodalità rappresentazionale: secondo alcuni autori come Jackendoff a differenti tipologie di
rappresentazioni (un'immagine o una parola) corrisponde l'attivazione di moduli distinti del sistema
semantico.

1.6 Neuropsicologia delle funzioni comunicative superiori: neuropragmatica

La nostra attenzione si pone sulle competenze metacognitive e relazionali che mediano la produzione e la
comprensione del linguaggio in uso nell'interazione (es. regole condivise, intenzioni, segnalazioni non
verbali...). Non si può comprendere il linguaggio indipendentemente dalle componenti cognitive, emotive e
relazionali che intervengono nel processo.
Per comprendere il significato del messaggio non è possibile esimersi dalla situazione reale (contesto
pragmatico).

Document shared on www.docsity.com


Downloaded by: Daniele1994bbc (daniele.ferrari1994@yahoo.it)
La neuropragmatica è un panorama complesso, eterogeneo al suo interno: c'è la neuropragmatica
sperimentale (componenti neurolinguistice), la neuropragmatica cognitiva (modelli cognitivi applicati allo
studio della pragmatica) e la neuropragmatica clinica (deficit comunicativi). Occorre considerare come
l'uso della lingua in un particolare contesto (includente le componenti emotive, intenzionali e relazionali)
possa chiamare in causa componenti anatomiche e strutture cerebrali differenti.
Analisi dei network implicati: integrando le componenti propriamente linguistiche con quelle non
linguistiche (es. attività motoria, memoria di lavoro, attenzione, intenzionalità) si può analizzare il
dinamismo del processo comunicativo in atto.
N.B. Le funzioni pragmatiche non sono un'aggiunta a ciò che viene detto, ma sono essenzialmente ancorate
al linguaggio (e non solo al contesto!).

1.6.1 Componenti paralinguistiche: includono la struttura prosodica di un messaggio, definita anche


soprasegmentale. Il paralinguaggio è distinto dalle componenti più propriamente extralinguistiche (sistema
mimico, gestuale, prossemico – cioè lo spazio tra i comunicanti –).

Sistema prosodico: consente di dare connotazione ai termini sulla base di alcuni parametri
(intonazione, ritmo e pause, accento, timbro...). Il paralinguaggio si può distinguere in: - qualità
vocali: tempo, ritmo, tonalità; - vocalizzazioni:
• caratterizzatori vocali (pianto, riso ecc...)
• qualificatori vocali (per enfatizzare non l'intera frase ma solo una parte)
• segregati vocali (grugniti, rumori della lingua, non-parole usate come parole es. shh, ah)
La prosodia fornisce elementi importanti su come un enunciato debba essere interpretato o inteso (es.
in caso di ambiguità semantica), e sulla connotazione emotiva del messaggio.
Ecco alcune categorie prosodiche che si differenziano per il piano funzionale:
a. prosodia intrinseca: intonazione di un enunciato (per distinguere interrogazioni da esclamazioni)
b. prosodia intellettiva: accentuazioni delle diverse componenti dell'enunciato
c. prosodia emotiva (coinvolge particolarmente l'emisfero dx).
La voce può comunicare emozioni attraverso la modulazione del ritmo, dell'intensità e dell'intonazione
dell'eloquio. Si possono distinguere due classi acustiche:
• alta frequenza, elevata intensità e velocità (emozioni con elevato arousal: gioia, rabbia,
paura...)
• bassa frequenza, scarsa variazione di tonalità, debole intensità, ridotta velocità (basso
arousal: indifferenza, noia, tristezza)

Deficit neuropsicologici della prosodia: studi sui deficit di produzione e riconoscimento delle componenti
prosodiche in generale e di quelle emozionali in particolare.
Nonostante la difficoltà di classificazione, sono stati individuati diversi disordini clinici.
• Disprosia: mutamento delle qualità vocali (“sindrome dell'accento straniero), associata ad afasia non
fluente e a lesioni dell'emisfero dx. Vengono compromesse la produzione, la pronuncia e l'intonazione (gli
aspetti emotivi possono rimanere intatti).
• Aprosodia: mancanza di fluttuazione nel ritmo e nel timbro delle parole, risultante in un discorso
piatto e monotono (soggetti con Parkinson).

Document shared on www.docsity.com


Downloaded by: Daniele1994bbc (daniele.ferrari1994@yahoo.it)
• Iperprosodia: uso sproporzionato e accentuato della prosodia, spesso correlata a disturbi maniacali.

Nella maggior parte dei casi i deficit delle componenti prosodiche implicano lesioni più o meno estese
dell'emisfero dx. Tuttavia alcune evidenze empiriche dimostrano che una lesione nell'emisfero sx che
pregiudica la comprensione può anche compromettere la comprensione delle componenti prosodiche.
I gangli della base mostrano di avere un ruolo per la prosodia affettiva.
• Alessitimia: mancanza di contenuti emotivi nel parlato e difficoltà nell'identificare e descrivere stati
emotivi (deficit dx).
Come si spiega la prevalenza emisferica dx per le funzioni emotive della prosodia?
• Ipotesi percettiva: l'emisfero dx è privilegiato per il processamento di stimoli uditivi; - Ipotesi funzionale:
le entità non linguistiche sono di pertinenza dell'emisfero dx.
In realtà entrambi gli emisferi appaiono essere coinvolti nella produzione e comprensione delle
componenti prosodiche affettive: l'emisfero sx integra i processi semantico verbali (propri delle aree sx)
con i processi tono – correlati (propri delle aree dx).

1.6.2 Atti linguistici indiretti e funzioni pragmatiche del linguaggio figurato

L'emisfero dx ha specifiche competenze anche per le funzioni pragmatiche del linguaggio (che
riguardano l'uso di significati in un dato contesto). Principali funzioni pragmatiche: - Gli atti linguistici
indiretti e la comunicazione implicita. L'emisfero dx sembra in grado di elaborare le informazioni
implicite dell'atto comunicativo (es. finzione e allusione) e le richieste indirette.
• Il linguaggio figurato (es. comunicazione ironica o metafore). Si distingue tra un livello
“superficiale” (letterale) del significato e un livello “profondo” (non letterale → comprende il significato
figurato).

Entrambe le componenti consentono di fare inferenze per accedere ai significati meno espliciti. Lesioni
all'emisfero dx sono state correlate a difficoltà sul piano inferenziale. Gli studi di neuroimaging confermano:
es. Botticini in uno studio con rilevazione PET che ha evidenziato che l'emisfero dx era maggiormente attivo
nella comprensione di enunciati metaforici piuttosto che letterali.

1.6.3 Problema della specializzazione emisferica per le funzioni comunicative superiori

La specializzazione emisferica delle funzioni comunicative e in particolare di quelle pragmatiche sono


oggetto di crescente interesse.
La specializzazione emisferica destra può essere riferita a quattro funzioni:
• componenti non verbali in genere e in particolare linguaggio figurato
• componenti paralinguistiche della comunicazione
• compiti percettivi complessi che includono la l'identificazione di volti a contenuto emotivo
• le componenti emotive
• produzione e analisi delle componenti prosodiche (studi ascolto dicotico)
Più in generale, i fenomeni riconducibili all'esperienza emotiva appaiono legati all'emisfero dx.
L'emisfero sx ha tuttavia la capacità di interpretare lo “sfondo” emotivo delle situazioni (es. legare la
tristezza agli eventi luttuosi).

Document shared on www.docsity.com


Downloaded by: Daniele1994bbc (daniele.ferrari1994@yahoo.it)
Per quanto riguarda la funzione espressiva:
− per il canale visivo gli emisferi portano contributo equo
− per il canale vocale è prerogativa dell'emisfero dx Perchè
questa differenziazione emisferica? Principali teorie:
• Approccio percettivo: le differenze tra i due emisferi derivano dalle loro diverse abilità percettive.
Ipotesi della frequenza spaziale: l'emisfero sx elabora stimoli con frequenze spaziali elevate (utilizza
quindi un codice in dettaglio); l'emisfero dx elabora stimoli a bassa frequenza spaziale (codice
globale).
• Diverse modalità di elaborazione dell'informazione nei due emisferi: diverso stile di elaborazione.
• modalità analitica: dell'emisfero sx, rileva i dettagli, segue il principio della selezione e della distinzione.
Nella rappresentazione semantica: selezione le proprietà essenziali della parola.
• modalità olistica: dell'emisfero dx, rileva le configurazioni complesse, segue il principio dell'estensione e
della sovrapposizione. Nella rappresentazione semantica: rappresenta l'intero campo semantico e i legami
concettuali che il lemma intrattiene.
Le due teorie possono integrarsi in un'unica prospettiva.
Specificità funzionale: significa che quella funzione è prerogativa di quell'emisfero.
Aspecificità funzionale: significa che quell'emisfero possiede competenze per quella funzione, ma con un
ruolo secondario/di supporto.
Bisogna superare la credenza tradizionale “emisfero sinistro = linguaggio”, e anche la concezione di
emisfero destro come “facilitatore” del linguaggio.

1.5.4 Neuropragmatica del discorso: bisogna distinguere tra la narrazione e la produzione conversazionale
(1.6.4)

Recenti evidenze empiriche hanno sottolineato il contributo dell'emisfero dx nella produzione e nella
comprensione del discorso narrativo. All'emisfero dx sono attribuibili: capacità di organizzare gli enunciati;
valutazione della rilevanza degli enunciati; analisi della coerenza discorsiva; comprensione del significato
intrinseco...

Competenze discorsive: il modello di Kintsch e van Dijk

Le competenze discorsive (produzione/comprensione della struttura discorsiva) presuppongono la capacità di


attivare un processo cognitivo multilivello che considera le singole unità come parte di un tutto.
Le unità costituiscono strutture, le quali sono organizzate secondo regole e relazioni (es. causali o sequenze
temporali). Le competenze discorsive richiedono una rappresentazione mentale che sia in grado di analizzare
queste unità e le loro reciproche relazioni.
La comprensione procede con fasi cicliche di suddivisione del discorso in microproposizioni che sono poi
organizzate gerarchicamente in networks (che formano le unità tematiche del discorso).
Il processo inferenziale comporta la ricostruzione della macrostruttura del testo.
L'emisfero destro è cruciale in tutta l'organizzazione, dal processo analitico (microstruttura) a quello
sintetico (macrostruttura).

1.6.5 Funzioni di regolazione della conversazione

Document shared on www.docsity.com


Downloaded by: Daniele1994bbc (daniele.ferrari1994@yahoo.it)
La conversazione può essere rappresentata come un'interazione:
− tra individui
− finalizzata
− all'interno di coordinate spazio-temporali
− che richiede specifiche competenze da parte degli attori.

Come indagare le componenti pragmatiche? Svariati strumenti ad es. il PONS (rileva l'abilità di fare
inferenze). Quali modelli?
Alcuni più recenti si focalizzano sulle implicature conversazionali, attribuendo maggior rilevo alle inferenze
di emittente e ricevente. Le insieme di rappresentazioni prodotte recriprocamente costituiscono il
background cognitivo, che danno vita a un taciuto ambiente condiviso.
Un recente filone si è concentrato sui meccanismi intenzionali e di reintenzionalizzazione (=capire le
intenzioni dell'altro). E' stato ampiamente considerato anche il modello mentale, secondo cui gli elementi
focali della conversazione vengono mano a mano integrati nei modelli mentali dei parlanti e quindi nel
background di conoscenze condivise.
Per quanto riguarda la regolazione della conversazione, ci sono due elementi rilevanti:
− coerenza locale: seguire la progressione tematica, evitare contraddizioni logiche...
− plausibilità globale: turni di eloquio (tramite autoselezione: es.innalzo il tono della voce;
selezionando l'altro: es.ponendo una domanda); tipo di enunciati (es.richieste); variabili contestuali.
Riguardo alla plausibilità globale sono stati individuati alcuni deficit specifici, classificati in generale come
deficit della comunicazione interpersonale (incapacità di: aggiornare modelli mentali; contestualizzare gli
eventi; valutare la plausibilità di un evento; comprendere piani di conoscenza condivisa).

Un modello multicomponenziale: Frederiksen, Bracewell, Breuleux e Renaund. Il processo comunicativo è


una sequenza di espressioni che rappresenta una parte della conoscenza concettuale del parlante.
Questo modello opera su quattro livelli diversi e funzionalmente distinti (il deficit può colpire un livello ma
non gli altri):
− linguistico
− proposizionale
− semantico-pragmatico
− concettuale (include info che vengono dal discorso e dalla mlt)
Il contesto discorsivo si costruisce mano a mano che lo scambio procede e diviene la cornice interpretativa
delle unità del discorso.
L'elaborazione delle info indirette, la generazione della cornice discorsiva...tutte le funzioni discorsive più
generali sono di competenza dell'emisfero dx.
L'analisi sintattica, lessicale, morfologica...e tutte le funzioni discorsive più analitiche sono di competenza
dell'emisfero sx.

Metacognizione e social cognition: le abilità di social cognition dirigono il processo di pianificazione e


dell'atto comunicativo. La social cognition include componenti sia cognitive sia sociali.
Negli ultimi tempi si è affermato che le competenze sociali hanno come requisito la regolazione dello
scambio comunicativo. Le competenze incluse sono:

Document shared on www.docsity.com


Downloaded by: Daniele1994bbc (daniele.ferrari1994@yahoo.it)
− capacità di inferire gli stati mentali (tom): rappresentarsi l'altro come dotato di pensieri e
motivazioni (in particolare area mediale prefrontale);
− lettura degli stati emotivi altrui e sintonizzazione emotiva (area mediale prefrontale)
− capacità di rappresentarsi il contesto relazionale
− monitoraggio e automonitoraggio del comportamento (corteccia orbitofrontale = sistema amigdala-
talamo)

1.8 Conclusioni

• occorre superare la classica dicotomia emisfero dx e emisfero sx, a favore di una loro interazione
• non c'è una perfetta corrispondenza tra funzione e unità corticale, ma è coinvolto un network di
strutture
• il linguaggio richiede competenze articolate su più piani: non solo funzioni del linguaggio, ma anche
piani inferenziale, social cognition...

Capitolo 2) Metodi e strumenti di analisi della neuropsicologia applicata al linguaggio e alla comunicazione
2.1 Introduzione Grazie a strumenti innovati e nuove metodologie di analisi è possibile conoscere in modo
approfondito l'architettura delle strutture che supportano linguaggio e comunicazione.
2.2 Assunti della neuropsicologia cognitiva e paradigmi di analisi
Esiste una corrispondenza tra struttura neuronale e organizzazione funzionale della mente (→ dalle lesioni
focali possiamo trarre inferenze). L'analisi dei correlati anatomo-strutturali delle funzioni comunicative deve
tenere in considerazione due aspetti:
a) la dicotomia tra localismo ( una funzione : una precisa area cerebrale ) e olismo (distribuzione delle
funzioni in più aree/circuiti cerebrali) → la neuropsicologia cognitiva si posiziona a favore dei network
corticali (l'approccio localista vale solo per funzioni semplici es. rappresentazione dell'input);
b) problema della lateralizzazione: all'emisfero sx corrispondono competenze linguistiche; all'emisfero dx
corrisponde la produzione/comprensione del background cognitivo.

Modularità strutturale, funzionale e rappresentazionale


Evoluzione del concetto di modulo nel tempo. Concezione classica: Marr, un modulo corrisponde a un
sottoprocesso, indipendente e specializzato, automatico e poco influenzabile, localizzato in una struttura
neurale. Per Fodor solo i processi periferici sono modulabili (perchè sono guidati da funzioni sensoriali); i
processi centrali no. La correlazione tra funzioni e strutture è supportata dalla correlazione tra lesione e
deficit.
Recenti sviluppi: ora sappiamo che, anche se in alcuni casi la correlazione anatomo-strutturale esiste, per i
processi cognitivi di più alto ordine la localizzazione non è così vincolante. La specificità dei moduli ha a
che fare con le rappresentazioni e ciò da cui esse derivano: si tratta di processi integrativi e processi
inferenziali.
Localizzazione funzionale e frazionamento funzionale
Localizzazione funzionale: collega le operazioni a substrati neuronali specializzati; fornisce informazioni
sulla dinamica dell'attività neuronale → grazie a neuroimaging: questo significa andare oltre gli approcci
deficit-lesioni, rendendo possibile concettualizzazioni complesse riguardo i rapporti tra le operazioni e le
strutture.
Frazionamento funzionale: identifica operazioni cognitive distinte → ruolo primario neuroimaging: si
sottopongono soggetti normali a due compiti (= differenti operazioni). Poi si sottopongono agli stessi
pazienti con deficit. Il frazionamento funzionale agisce in modo analogo.
2.3 Metodi di analisi della neuropsicologia cognitiva
Metodi sperimentali vs metodi clinici: presupposto comune è il modello cognitivo che ha come obiettivo
scomporre il processo comunicativo in fasi processuali.

Document shared on www.docsity.com


Downloaded by: Daniele1994bbc (daniele.ferrari1994@yahoo.it)
Metodi clinici: a partire da evidenze empiriche su soggetti con deficit si possono estendere le implicazioni
teoriche all'ambito dei soggetti normodotati. Studio di casi singoli, metodo correlazione anatomo-clinico
(difficile la replica di osservazioni tra pazienti diversi); ma anche gruppi soggetti equivalenti. Tra gli
strumenti c'è la rilevazione di neuroimaging; batteria testistica (per la valutazione neuropsicologica)
Metodi sperimentali: l'analisi verte su soggetti normodotati (in laboratorio, sul campo, in processi simulati).
Definisce il funzionamento ottimale dei meccanismi e valida modelli di funzionamento. Strumenti:
neuroimaging; batterie testistiche; indici comportamentali Campione: Studi su gruppi di soggetti: confronto
tra soggetti sani e cerebrolesi, con metodi quantitativi. I gruppi devono essere omogenei; in caso di
gerebrolesi si selezionano categorie o per sintomi o per lesioni. Problema della generalizzabilità dei risultati.
Simulazione: tecnica di analisi che permette di valutare (verificare/falsificare) modelli teorici mediante
l'utilizzo di supporti informatici. Quest'approccio è entrato a far parte dell'ambito del connessionismo. Esso
prevedono un'elaborazione di informazioni di livello inferiore (bottom up → nella comunicazione sono le
lettere) e un'elaborazione di livello superiore (top down → nella comunicazione sono le informazioni
contestuali). L'unità fondamentale nel connessionismo è un “neurone astratto”, che può essere di tre tipi: −
unità neuronali d'ingresso (input): ricevono segnali dall'esterno del sistema − unità neuronali di uscita
(output): inviano segnali fuori dal sistema − unità neuronali nascoste (hidden): ricevono e inviano segnali
nell'ambito del sistema stesso il segnale elettrico in uscita dal neurone è un numero che rappresenta la sua
attività. I neuroni sono collegati da connessioni, che hanno un peso modificabile → grazie all'apprendimento.
2.4 Misurazione Indici psicometrici → batterie testistiche: i test per le competenze comunicative sono
distinti da quelli per le competenze linguistiche. Quest'ultima categoria è più ricca e divisibile in: • testi di
screening • test complessivi del funzionamento linguistico • test su specifiche abilità linguistiche Sono in
grado di definire quale aspetto del sistema sia danneggiato, ma non come il sistema linguistico sia
deficitario. Più recentemente sono nati strumenti per indagare le funzioni comunicative di alto livello: −
Protocolli pragmatici: indaga, attraverso 30 categorie: le modalità di comunicare del soggetto (fluenza,
prosodia, cnv), l'azione propositiva (scelta e stili comunicativi), piano intenzionale (proprio o di feedback);
− Test di efficienza comunicativa: interazione tra sogg e sperimentatore per valutare la produzione
spontanea, analizzando la responsività, il controllo del contenuto semantico, la sensibilità al contesto sociale,
la cnv... − Comprehensive Test of Language Functioning: quantifica la produzione e la comprensione del
linguaggio ecc... − Communicative Abilities in Daily Living: stima la capacità del sogg di comunicare in
situazioni quotidiane. Per le competenze conversazionali: − Discourse Comprehension Test: test di
comprensione del discorso a livello di macrounità.
Indici comportamentali → indici verbali e non verbali
Versante del linguaggio verbale: lo studio dei meccanismi in contesto sperimentale ha permesso di valutare
la plausibilità dei modelli sull'organizzazione del linguaggio. Ad esempio: importanti
elementi circa l'architettura del linguaggio sono giunti dall'omogeneità degli errori in campioni di adulti e di
bambini (aspetti innati); differenze e incongruenze tra campioni di sogg di differenti fasce di età hanno
invece mostrato che alcuni aspetti necessitano di un processo di acquisizione.
Versante della comunicazione non verbale: griglie di osservazione per una serie di segnali comunicativi,
come le componenti facciali e posturali, il sistema gestuale e prossemico, le componenti vocali. Ekman:
strumento per codificare la comunicazione delle emozioni mediante le espressioni facciali. Questo strumento
decodifica le espressioni in unità muscolari e ne individuano il ruolo emozionale. C'è un'area superiore
(fronte, sopracciglia, occhi) e un'area inferiore (guance, naso, bocca, mento). Le 44 unità si articolano in
modo differente per dar vita a tutte le espressioni possibili. Nella misurazione si tiene da conto il range di
modifica muscolare e anche la latenza di comparsa dell'espressione.
2.4.4 Indici cognitivi → ERP: la tecnica dei potenziali evocati è stata condotta solo secondo la prospettiva
cognitivista, che - concepisce la mente come una struttura organizzata in livelli, che elaborano info in
entrata e in uscita; - i processi mentali sono funzioni complesse del cervello. La risposta sotto forma di
potenziale è quindi indice di quanto avviene a vari livelli di elaborazione.
ERP e studio dei processi linguistici e comunicativi: ha consentito di verificare: − l'esistenza di una
distinzione dei processi di elaborazione di verbi e nomi − l'elaborazione fonologica vs acustica delle parole
− la distinzione tra funzione e contenuto delle parole − la suddivisione tra elaborazione sintattica e semantica
− confronto tra acquisizione prima e seconda lingua − elaborazione del linguaggio nelle diverse età

Document shared on www.docsity.com


Downloaded by: Daniele1994bbc (daniele.ferrari1994@yahoo.it)
N400: incongruenza semantica → l'ampiezza è proporzionale al grado di anomalia. Questo indice può
rendere conto di meccanismi differenti (indice dello sforzo di elaborazione richiesto; richiesta d'intervento
della memoria di lavoro...). Questo indice è rilevante anche per analizzare le componenti non verbali della
comunicazione in rapporto al contesto. P600: violazione vincoli sintattici P300: eventi inattesi, ma rilevanti
rispetto al compito (paradigma oddbal)
Vantaggi delle tecniche ERP: • monitorano il processo in divenire → consentono di scomporre il processo in
sottocomponenti; • consentono la rilevazione anche in sogg con età precoce o deficit che non consentono la
produzione (es. afasie).
Limiti delle tecniche ERP: • ridotta risoluzione spaziale (capacità localizzatoria); • poco adatti in compiti
che superano i pochi minuti; • il sogg non deve muoversi (condizione poco naturale che influisce sul
potenziale); • succede che i tecnici si concentrino sulle variazioni già note (es.N400) e trascurino altre
variazioni del tracciato.
GUARDARE BENE LE SUE SLIDE!

Capitolo 4) Comprensione di espressioni idiomatiche: evidenze neuropsicologiche


4.1 Introduzione
Espressioni idiomatiche (es. prendere un granchio) → fanno parte del linguaggio figurato Non possono
essere dedotte in base alla conoscenza che si ha del significato delle parole. Variano in base ad alcune
caratteristiche: − trasparenza semantica (evocano immagini es.prendere il toro per le corna vs farsene un
baffo → opaca); − decomponibilità: il significato è distribuito tra le parti che lo compongono (es.vuotare,
tirar fuori, svelare, il sacco, contenitore vs tirare le cuoia); − grado congelamento sintattico: alcune
espressioni idiomatiche possono subire trasformazioni sintattiche (es. abbandonare la nave che affonda → è

Document shared on www.docsity.com


Downloaded by: Daniele1994bbc (daniele.ferrari1994@yahoo.it)
stata abbandonata la nave che affonda → basso grado) − ambiguità: possono avere un significato letterale
plausibile (es.vedere le stelle) oppure no (es. far venire il latte alle ginocchia → ambigua).
Negli ultimi decenni: studi di gruppo per lo studio del linguaggio figurato nei cerebrolesi. Per la
comprensione di espressioni idiomatiche sono stati esaminati pazienti con lesioni focali, schizofrenici, con
probabile Alzheimer. Sono stati utilizzati rTMS (stimolazione magnetica transcranica ripetuta), ERP, fRMI.
4.2 Comprensione idiomatica in pazienti con lesione focale
Il paradigma più diffuso (somministrabile anche a pz afasici) è quello di associazione frase/figura. Limite:
non esiste una rappresentazione univoca di un'espressione figurata. Altri compiti utilizzati: − decisione
lessicale: leggono/ascoltano frasi priming e poi distinguono gli stimoli bersaglio. − tempi di reazione:
ascoltano una frase che contiene lo stimolo bersaglio, il compito è schiacciare il pulsante quando il bersaglio
compare (si utilizzano frasi idiomatiche, letterali e di controllo).
Ipotesi emisferica destra: i primi studi sulla comprensione delle espressioni idiomatiche hanno attribuito un
ruolo determinante all'emisfero dx (Winner e Gardner), ma sono partiti da alcuni errori, prima di tutto
utilizzavano metafore e non espressioni idiomatiche. I primi ad utilizzare effettivamente espressioni
idiomatiche sono stati Van Lancker e collaboratori: cerebrolesi dx prestazione patologica con espressioni
idiomatiche, ma normale con le frasi normali; cerebrolesi sx (afasici) l'inverso → questa conclusione è stata
riconsiderata da studi successivi. Critiche: − le frasi sia letterari che figurate non sono state selezionate
secondo alcun criterio; − contiene anche alcune espressioni familiari in generale; − non hanno considerato la
gravità dell'afasia, la sede... − non sono è stata esaminati il funzionamento di altre funzioni cognitive
(attenzione, percezione, cognizione spaziale.....) che potrebbero peggiorare la performance dei cerebrolesi
dx; − non tiene conto della scolarità; A Van Lancker e Kempler si deve, comunque, la creazione del primo
test standardizzato anche se non tarato (tarare = somministrarlo a una popolazione rappresentativa della
popolazione a cui è destinato il test, determinando i punteggi): Familiar and novel language comprehension
test. Questo test valuta la capacità dei soggetti di associare frasi letterali e non letterali a figure. La
prestazione è valutata come numero totale di risposte corrette e tempo totale impiegato da ciascun subtest. La
sua utilità è discutibile, se non per una valutazione clinica di base.

Tompkins e colleghi: trattandosi di un lavoro mentale complesso, l'origine dell'errore in questi compiti
offline (la risposta viene data dopo il processo di comprensione) non è del tutto chiara. I compiti online
invece, che richiedono una risposta durante il processo di comprensione (stimoli bersaglio), non hanno
evidenziato differenze tra pazienti cerebrolesi e soggetti indenni. Critiche: − in questo studio non viene
specificata la sede esatta della lesione e la dimensione; − c'è la possibilità che i pazienti afasici fossero
selettivamente compromessi.
Compromissione delle espressioni idiomatiche nei pazienti afasici: se in un primo tempo si è attribuito
all'emisfero dx il compito di elaborare il linguaggio figurato in generale, studi più recenti hanno rivalutato il
contributo dell'emisfero sx (in particolare del lobo temporale). Nei primi studi si era evidenziato che gli
afasici sbagliavano l'interpretazione letterale ma non quella idiomatica; questi studi erano però stati condotti
secondo principi sbagliati, quindi questa affermazione sui pazienti afasici non è più giusta.
Indipendentemente dal tipo di afasia, utilizzando una prova di associazione frase/figura, la comprensione
non avviene se le espressioni idiomatiche sono: − altamente familiari − opache − non ambigue Questo
perchè gli afasici si aiutano con le componenti sintattiche relativamente intatte: − Se hanno sintattica
indenne e una frase risulta inappropriata da punto di vista sintattico (es. tenere banco), la interpretano in
modo figurato. − Se hanno deficit semantici ma sintattica indenne e la frase è sintatticamente ben formata
(far cadere le braccia) forniscono l'interpretazione letterale. − Se hanno deficit sintattici ma semantica
indenne la probabilità di rispondere correttamente aumenta tanto più il significato non è plausibile. >
ambiguità > risposta corretta.
E' stato utilizzato un paradigma che, anziché frase/figura, proponeva l'associazione frase/parola. Esempio,
per l'espressione “alzare il gomito”, le alternative erano vino, gamba (associata semanticamente), albero
(distrattore), cassa (parola che può seguire il verbo).
Anche con questo paradigma i pazienti mostrano una tendenza a fornire la risposta letterale (anche se
implausibile) → ma perchè? Non dovrebbero avere difficoltà nell'interpretazione letterale e quindi
riconoscere il significato idiomatico? L'inibizione del significato letterale è necessaria per interpretare
correttamente le espressioni idiomatiche: siccome i pazienti afasici hanno difficoltà nell'analisi linguistica,
nello sforzo di analizzare le espressioni impiegano molta energia, l'attenzione cala e quindi va a finire che

Document shared on www.docsity.com


Downloaded by: Daniele1994bbc (daniele.ferrari1994@yahoo.it)
non riescono a sopprimere il significato letterale, ignorando così il significato idiomatico (anche se più
saliente). Il paziente esegue un tentativo di analisi di tutta la frase e non si limita a elaborare una singola
parola. La prestazione dei pazienti afasici non è collegata alla gravità del deficit ma piuttosto ad altri fattori,
ad esempio un effetto di interferenza simile al test di Stroop.
Da risultati inattesi nasce una nuova ipotesi: L'elaborazione differisce in relazione alla maggiore o minore
salienza del significato letterale → se la frase è ambigua, il significato letterale è poco plausibile, viene
favorita l'interpretazione idiomatica.
Dal punto di vista anatomico: i pazienti afasici con deficit nella comprensione di espressioni idiomatiche
mostrano due sedi lesionali cruciali: una a livello temporale e una a livello corticalesottocorticale.

Corteccia prefrontale: nell'elaborazione delle espressioni idiomatiche intervengono anche processi


extralinguistici. Infatti nei pazienti con lesione unilaterale destra, l'interpretazione idiomatica è compromessa
solo se la lesione è in sede prefrontale → le strutture frontali, occupandosi della selezione e del
monitoraggio, intervengono nella scelta della risposta corretta del test (dopo che l'analisi linguistica ha già
avuto luogo). Inoltre la corteccia prefrontale si attiva con l'elaborazione semantica a livello astratto ed è
responsabile della messa in atto di inferenze nella comprensione di un testo. I pazienti con danno
prefrontale, quindi, elaborano la frase, ma il deficit è presente nello stadio successivo, quando si deve inibire
uno dei significati alternativi o attivare quello figurato.
Corpo calloso: da quanto esposto finora:
• il linguaggio idiomatico segue la stessa procedura di elaborazione di quello letterale; • non esiste una netta
dicotomia fra i due emisferi per la comprensione di espressioni idiomatiche → entrambi gli emisferi
intervengono per l'interpretazione idiomatica → si ipotizza che il corpo calloso (che collega i due emisferi)
abbia un compito rilevante. Gli studi sono stati condotti su bambini con agenesia (assenza) del corpo calloso.
Il corpo calloso potrebbe essere importante nel risolvere il conflitto fra i due significati, letterale e
idiomatico, al termine del quale uno dei due viene respinto. In altre parole l'inibizione del significato letterale
(necessaria per interpretare le espressioni idiomatiche), è sottesa alle strutture prefrontali di ambe due gli
emisferi, che comunicano grazie al corpo calloso. Se il trasferimento dell'informazione tra i due emisferi è
degradato/più lento, l'informazione figurata potrebbe essere meno accessibile.
4.3 Comprensione di espressioni idiomatiche in pazienti affetti da malattia di Alzheimer (AD): questi
pazienti vanno incontro a una compromissione dell'eloquio spontaneo con deficit semantici (l'aspetto
fonologico è invece preservato). Tuttavia anche il linguaggio figurato è descritto come deficitario. Questo era
stato evidenziato anche da uno studio di Van Lancker, Kempler e Read che avevano sottoposto pazienti AD
al Mini mental state examination. Questo studio però non distingueva tra il grado di gravità della demenza e
non utilizzava espressioni esclusivamente idiomatiche, ma anche frasi familiari. In uno studio più recente
con Milan Overall Dementia Assessment si è ossevato che la compromissione del linguaggio figurato non è
un sintomo precoce della demenza. Lo studio ha inoltre suggerito che c'è una certa indipendenza tra
linguaggio figurato e linguaggio letterale.

Dal punto di vista anatomico gli studi con pazienti AD non forniscono elementi rilevanti, ma indirettamente
confermano che la comprensione del linguaggio figurato dipende (in parte) dall'integrità della corteccia
prefrontale → che è compromessa nella fase più tarda della malattia. Tuttavia questo deficit può comunque
emergere anticipatamente se si utilizzano il paradigma frase/figura, espressioni opache e non ambigue (non
riescono a inibire l'interpretazione letterale).
4.4 Comprensione di espressioni idiomatiche nei pazienti schizofrenici Nella patologia schizofrenica sono
presente per l'85% deficit neurologici, tra cui deficit esecutivi. Gli schizofrenici, inoltre, hanno difficoltà a
considerare gli aspetti astratti: si può ben capire come la comprensione del linguaggio figurato e delle
espressioni idiomatiche possa essere compromessa. Inoltre essi sembrano focalizzarsi sull'analisi di un
dettaglio prima di cercare di interpretare globalmente il significato.

Document shared on www.docsity.com


Downloaded by: Daniele1994bbc (daniele.ferrari1994@yahoo.it)
4.5 Conclusioni:
• Non esiste una lateralizzazione emisferica per l'elaborazione idiomatica, ma un'ampia rete distribuita nei
due emisferi. • Le strutture principalmente coinvolte sono due: la regione temporale sinistra (per un'iniziale
analisi del significato); le strutture prefrontali (che inibiscono il significato letterale/meno saliente della frase,
e attivano quello astratto). • Nel processo intervengono entrambi gli emisferi, quindi una compromissione del
corpo calloso può impedire una normale elaborazione. • In genere tutti i pazienti con deficit neurologici o
psichiatrici hanno difficoltà nell'interpretare queste espressioni, ma il livello di compromissione può essere
vario: • I pazienti afasici (lesione sx): hanno difficoltà nel completare l'analisi linguistica e, quindi,
esauriscono le loro risorse cognitive con conseguente deficit nell'inibizione dei significati letterari. • I
pazienti con danno prefrontale: l'analisi linguistica ha luogo, ma la scelta della risposta corretta richiede un
processo di selezione associato a un monitoraggio che per queste persone è compromesso.

• Nel caso di soggetti con deficit la modalità di esame influisce sul risultato: − modalità associazione frase/
figura: più semplice per pazienti afasici − modalità associazione frase/parola o compiti verbali: difficili per
pazienti con disturbi di produzione/comprensione di parole − decisione lessicale o lettura: difficili per
pazienti afasici E' consigliato utilizzare più di una modalità di esame per ottenere informazioni convergenti.
Inoltre nei pazienti con lesioni dx bisogna indagare anche altre funzioni: attenzionali, spaziali, percettive.
• Anche il tipo di espressione e la sua struttura influiscono: i pazienti si comportano differentemente con
frasi ambigue e non ambigue, frasi decomponibili e non decomponibili, sintagmi verbali o nominali.
• Le espressioni idiomatiche devono essere considerate differenti dalle metafore.

Document shared on www.docsity.com


Downloaded by: Daniele1994bbc (daniele.ferrari1994@yahoo.it)
Capitolo 6) Dalla pragmatica alla prospettiva neuropragmatica
6.1 Comunicazione e pragmatica Utilizzando una metafora: i messaggi comunicativi sono “progetti”, la cui
interpretazione da parte degli interlocutori non presenta alcuna garanzia di corrispondenza esatta tra i
significati manipolati da chi realizza il progetto e quelli di chi ne è destinatario. Comunicazione umana:
intesa come azione intenzionale e orientata e come processo cognitivo complesso volto alla costruzione e
condivisione di significati.
1) Cosa intendiamo per significato in senso pragmatico? Che rapporto esiste tra questo e i processi
mentali?
2) Qual è il rapporto tra la semantica e la pragmatica (che si occupa dello studio dell'uso del linguaggio)?
1) Il significato, per la pragmatica, è legato alle azioni e ancora di più alle intenzioni. Esso non è la somma
dei significati delle singole parole che costituiscono un'espressione. Il significato va cercato: − in ciò che il
parlante intende esprimere e comunicare; − ciò che chi ascolta riesce a comprendere, attraverso processi
inferenziali. Per definire il significato pragmatico bisogna far riferimento a processi di: intenzionalizzazione,
scelta, rappresentazione, inferenza.
2) Sia la semantica che la pragmatica studiano il significato delle espressioni linguistiche, ma, mentre la
semantica si concentra sull'espressione linguistica, la pragmatica focalizza la propria attenzione sugli
interlocutori e sui processi da loro attuati nella generazione di significati. Più nello specifico, la pragmatica
studia come gli individui operino continue scelte, sia sul piano comunicativo sia sul piano cognitivo ed
emotivo, al fine di soddisfare le esigenze di mutuo scambio e mutua condivisione dei propri significati.
6.2 Questioni pragmatiche
Come si è originata la teoria pragmatica? L'attuale utilizzo del termine pragmatica può essere fatto risalire
alle teorie di Morris, secondo il quale la pragmatica era la “relazione tra segni e interpreti”. Questa relazione
poteva essere studiata secondo tre livelli: sintassi (relazione tra segni); semantica (relazione tra segno e
oggetto di cui è segno); pragmatica (relazione tra segni e utenti). Grice: si è occupato dell'intenzione
comunicativa, di come possa essere comunicata e riconosciuta. Austin e Searle: hanno tentato di classificare
le intenzioni comunicative.
La pragmatica come strategia e come scelta comunicativa: la pragmatica non è una componente aggiuntiva
al linguaggio! Ma è una competenza comunicativa, che si rivela in ogni livello della comunicazione. Quindi
ogni livello linguistico può essere studiato secondo un'ottica pragmatica: produrre e comprendere un
messaggio vede gli individui impegnati attivamente in differenti compiti cognitivi, finalizzati al
raggiungimento di un obiettivo comunicativo. Usare il linguaggio per comunicare significa operare scelte,
sia di produzione che di intepretazione. Anche le scelte possono collocarsi ad ogni livello linguistico. Questa
prospettiva di analisi mette al centro i processi cognitivi che rendono possibile la comunicazione. Quindi,
l'analisi della pragmatica non è più intesa solo come “elemento della comunicazione” ma come “abilità
comunicativa” che comporta precise scelte soggettive.

Il soggetto opera scelte e costruisce strategie grazie: − alla variabilità (definisce il range di possibilità) − alla
negoziabilità (rende le scelte non meccaniche ma basate su principi flessibili) − all'adattabilità (punta alla
massima soddisfazione dei bisogni comunicativi) − al grado di salienza (alcune scelte sono automatiche,
altre altamente consapevoli) − all'indeterminatezza (le scelte possono essere continuamente rinegoziate) −
alla dinamicità (sviluppo dell'adattamento nel tempo)

Document shared on www.docsity.com


Downloaded by: Daniele1994bbc (daniele.ferrari1994@yahoo.it)
Pragmatica, comprensione e inferenza: la prospettiva pragmatica si concentra più sul processo di
comprensione del significato, piuttosto che di produzione. Questo rimanda a una serie di meccanismi
inferenziali. Nella comprensione del linguaggio ci sono due processi fondamentali: − comprensione del
significato espresso (o semantico) − comprensione del significato del parlante (o pragmatico) Grice ha
indagato la comunicazione italiana, che secondo l'autore è fondata sul Principio di Cooperazione. Inoltre
Grice ha riconosciuto due livelli di contenuto: − ciò che è detto: è il linguaggio linguisticamente codificato −
ciò che è implicato: è il significato inteso che deve essere pragmaticamente inferito Teorici della pertinenza:
i medesimi processi pragmatici che intervengono per stabilire ciò che è implicato sono usati anche per
comprendere ciò che è detto. Il codice linguistico non determina totalmente ciò che è esplicitamente
espresso, infatti il processo di codifica linguistica non è orientato a essere esplicito al 100% ma a
minimizzare lo sforzo per interpretare il significato inteso. Per ricostruire quanto detto dal parlante devono
intervenire processi cognitivi guidati da principi comunicativi e pragmatici di pertinenza. La pertinenza
risulta dall'effetto cognitivo prodotto (positivo/negativo) e dallo sforzo di elaborazione (minore/maggiore).
Stimoli che producono un effetto maggiormente positivi e minore sforzo di elaborazione saranno considerati
più rilevanti.
Pragmatica e psicolinguistica: la salienza e la direct access view
Negli ultimi anni la psicolinguistica si è interessata alla pragmatica e viceversa. Per la psicolinguistica le
domande della pragmatica si concretizzano in ipotesi riguardo il ruolo degli elementi contestuali nella
comprensione. Per interpretare questo rapporto linguaggio/contesto consideriamo due approcci: − 1°
approccio: prima viene elaborata l'informazione semantica, poi quella contestale. − 2° approccio: le
informazioni semantiche e contestuali vengono elaborate simultaneamente.
Fa parte del 2° approccio la teoria di Giora, secondo cui nella comprensione agiscono due meccanismi che
operano in modo parallelo: − meccanismo sensibile all'informazione linguistica: è sensibile allo stimolo
linguistico e lo conduce alla conoscenza lessicale. La salienza è il criterio di accesso prioritario. I significati
più salienti ottengono un accesso immediato. I significati meno salienti o quelli contestualmente
incompatibili richiedono l'intervento dell'informazione contestuale → anche al livello letterale interviene
l'informazione pragmatica. − meccanismo sensibile all'informazione contestuale: contribuisce alla
formazione globale del messaggio.
Gibbs puntualizza: ciò che è detto non coincide con il significato letterale della frase, perchè già a questo
livello le persone usano l'informazione pragmatica per comprendere ciò che è detto. Ma c'è
di più: per Gibbs la comprensione del linguaggio non avviene in stadi distinti, ma in un unico processo di
comprensione, la direct access view, sensibile sia all'informazione linguistica sia a quella non linguistica.
Quando vengono fornite di informazioni contestuali sufficienti, le persone comprendono il significato non-
letterale direttamente, senza analizzare il completo significato letterale di un'espressione. Avviene inoltre una
selezione tra significati contestualmente appropriati (possono accedere al lessico) e significati
contestualmente inappropriati (vengono inibiti). Non c'è pertanto bisogno di analizzare il significato letterale
completo di un'espressione linguistica prima per capire il significato inteso dal parlante.
6.3 Neuropragmatica
Prospettiva neuropragmatica e neuropragmatica cognitiva Neuropragmatica: ha l'obiettivo di analizzare la
relazione tra la struttura e il funzionamento cerebrale e i processi mentali di uso del linguaggio. Si occupa del
modo in cui la mente produce e comprende comportamenti pragmatici linguistici in popolazioni sane o con
deficit di vario genere → secondo un'ottica multicomponenziale. Utilizza modelli teorici e metodologie
molto varie. I suoi obiettivi: − testare le teorie pragmatiche attraverso metodologie avanzate − indagare le
basi neuronali dei processi cognitivi coinvolti nella comunicazione umana
Un filone è la neuropragmatica clinica (individua specifici deficit di produzione/comprensione). Un altro è
la neuropragmatica cognitiva secondo cui le abilità pragmatiche sono sequenze di stati mentali (es.credenze,
intenzioni) → che due persone intrattengono mentre progettano e comprendono gli atti comunicativi. Le
unità di analisi della neuropragmatica non sono gli atti linguistici (come per la pragmatica linguistica) ma i
processi cognitivi e le loro basi neuronali.
Problematiche aperte dell'approccio neuropragmatico
Esistono circuiti neuronali specifici per le abilità pragmatiche? Esistono moduli specifici per determinate
competenze? La neuropragmatica si è occupata di definire descrizioni dettagliate sulla compromissione/
conservazione di abilità pragmatiche in cerebrolesi. Tuttavia a oggi non esistono studi in grado di definire
una esatta localizzazione delle principali funzioni pragmatiche a livello corticale.

Document shared on www.docsity.com


Downloaded by: Daniele1994bbc (daniele.ferrari1994@yahoo.it)
Per la comprensione del linguaggio ha privilegiato lo studio dei fenomeni relativi: − al linguaggio figurato
− agli atti linguistici indiretti − ai fenomeni di inferenza Nello studio della produzione ha privilegiato le
abilità discorsive.
Tradizionalmente l'elaborazione pragmatica è stata attribuita all'emisfero destro, che infatti si
caratterizzerebbe per modalità olistiche e globali di funzionamento (comprendendo l'elaborazione
visuospaziale, l'elaborazione di prosodia, emozioni...), a differenza dell'emisfero sx che è razionale, analitico
e sequenziale. Studi recenti hanno invece rilevato una complessa rete di attivazione che coinvolge entrambi
gli emisferi, in particolar modo i lobi frontali. E' stato grazie a questo paradigma che si è fatto chiarezza sulla
N400.

6.4 Elaborazione del linguaggio ironico: alcune evidenze empiriche


I messaggi non standard, come l'ironia e l'umorismo, violano implicitamente o esplicitamente le regole di
comunicazione. Perciò, per essere riconosciuti e compresi, necessitano di processi inferenziali più complessi
che richiedono l'impiego di ulteriori risorse cognitive.
Modelli dell'ironia. L'ironia è un fenomeno pragmatico complesso, che richiedere specifiche abilità
linguistiche, comunicative e cognitive per essere compreso. E' un fenomeno pragmatico in cui il significato
inteso (figurato) è opposto al significato espresso (letterale). Per riconoscere e comprendere l'intenzione
comunicativa in enunciati di questo tipo bisogna utilizzare: conoscenze di tipo metarappresentazionale e
abilità di tipo metalinguistico/pragmatico.
Tre ipotesi principali tengono conto dell'interazione tra accesso lessicale e informazione contestuale.
1) Modello della pragmatica standard: L'ironia viola massime conversazionali, soprattutto la verità. Per
comprendere l'ironia è necessario riconoscere che il parlante stia fingendo e ricostruire il reale significato
dell'enunciato: dapprima c'è l'analisi letterale, poi l'attribuzione di significato in base al contesto; in caso di
incongruenza si adopera il recupero del significato, che richiede ulteriori processi inferenziali (implicature
conversazionali).
2) Modelli di accesso parallelo: sia i significati letterali sia quelli non letterali sono elaborati
simultaneamente. A tal proposito ci sono due modelli rappresentativi: − Giora, teoria dei gradi di salienza:
prima vengono compresi i significati salienti. Se il significato non letterale è meno saliente, verrà compreso
per secondo. − Dews e Winner, modello di accesso parallelo: non esiste un ordine gerarchico di attivazione,
sia il significati letterali sia quelli non letterali ottengono accesso simultaneo e sono elaborati in
contemporanea. Questo modello ha trovato conferme cliniche.
3) Modello dell'accesso diretto: Gibbs dice che se un contesto offre sufficienti elementi informativi per una
comprensione ironica (quindi l'enunciato ironico è convenzionale), è possibile una interpretazione non
letterale automatica e diretta → senza il bisogno di passare attraverso l'interpretazione letterale incongruente.
Se non ci sono abbastanza indizi l'enunciato ironico è non convenzionale, dunque richiede uno sforzo
cognitivo superiore rispetto alle componenti letterali.
Gli studi ERP sull'ironia sembrano propendere all'ipotesi dell'accesso diretto. Infatti si verifica un'assenza di
N400, ciò significa che l'enunciato non è passato attraverso l'analisi linguistica che avrebbe dovuto segnalare
un'incongruenza.

Contributo della neuropragmatica clinica per rintracciare le aree cerebrali per la comprensione dell'ironia:
ricerche sulla comprensione di ironia e sarcasmo (fa parte dell'ironia, serve per avanzare critiche implicite),
hanno messo in luce il ruolo rilevante dell'emisfero destro e in particolare delle zone frontali. L'emisfero dx
è infatti legato a: funzioni non verbali, funzioni visuo spaziali, componenti acustiche e prosodia, emozioni...
che servono a ricostruire l'intenzione comunicativa del parlante.

Document shared on www.docsity.com


Downloaded by: Daniele1994bbc (daniele.ferrari1994@yahoo.it)
Capitolo 7) Intenzioni comunicative, strategie di azione e funzioni metacognitive
7.1 Introduzione: la comunicazione come processo di intenzionalizzazione
Perchè l'atto comunicativo abbia luogo l'individuo deve: − definire gli obiettivi comunicativi − pianificare
intenzionalmente i significati che vuole comunicare → intenzionalizzazione: è un meccanismo dinamico che
coinvolge sia il parlante che il destinatario (intenzionalizzazione del parlante; reintenzionalizzazione –
interpretazione dell'intenzione da parte del destinatario). − mettere in atto strategie comportamentali
adeguate ai propri fini − monitorare e automonitorare il processo e l'effetto delle proprie azioni
Per regolare l'intenzione occorrono: − meccanismi attentivi per selezionare l'informazione e rappresentarla
(piano rappresentazionale comunicativo) − organizzazione del sistema effettore (pianificazione delle azioni
comunicative) − coordinamente centrale

Intenzione e intenzionalità comunicativa


Intenzione: stato mentale dell'essere orientati verso qualcosa o qualcun altro, diverso da sé. Azione
intenzionale: rappresentazione di un obiettivo, che implichi la capacità di distinguere tra mezzi/fini, tramite
sforzo mentale. E' caratterizzata da coscienza e attenzione, quindi ha maggiore complessità cognitiva (es.
intenzione motoria; mentire...).
Ciò significa che l'intenzione: − ha una direzione (orientarsi verso) − ha una dimensione mentale/
rappresentazionale − ha valenza psicologica (essere finalizzato a)
Azione non intenzionale: assenza di coscienza e di attenzione nell'azione, minore complessità cognitiva (es.
rispondere con un cenno del capo a un saluto).

Intenzione e sistema di coscienza: definiamo coscienza l'insieme delle proprietà necessarie affichè vi sia
consapevolezza cognitiva delle proprie scelte.

Document shared on www.docsity.com


Downloaded by: Daniele1994bbc (daniele.ferrari1994@yahoo.it)
La coscienza è distribuita, come dimostra l'attivazione simultanea di diversi sistemi neuronali in presenza di
operazioni mentali coscienti. Questo dato supporta la concezione del paradosso dell'interezza nella
molteplicità (un processo unitario è l'esito della convergenza funzionale di molteplici sistemi).
Secondo il modello processuale distribuito la coscienza è: − un sistema che integra le unità computazionali
− un sistema che incrementa l'attività all'interno di un insieme neurale

Coscienza e attenzione: due sistemi autonomi


La distinzione tra processi consci e inconsci non è l'orientamento finalizzato, poiché ad es. anche nella
stimolazione subliminale c'è una selezione attiva di informazioni. La loro distinzione sta nel sistema di
relazioni con gli altri processi cognitivi che i contenuti coscienti possono stabilire, mentre i contenuti
inconsci no (modello del campo integrato).
La coscienza interviene solo quando l'attenzione è controllata e non automatica? Anche se con gradi
differenti è ipotizzabile la presenza della coscienza anche nei processi automatici, tramite un'influenza
indiretta. Quando l'attenzione è controllata l'influenza della coscienza è invece diretta.
Inoltre, ci sono processi attentivi che non necessitano di coscienza e stimoli che possono diventare coscienti
senza che ci sia stata attenzione.
Quindi, per il modello dell'indipendenza, coscienza e attenzione sono due sistemi autonomi, seppure
interagenti l'uno con l'altro. Sul piano anatomo-strutturale sono supportate da network differenti. Nella
corteccia prefrontale abbiamo: − sistema anteriore → elaborazione consapevole. Ha legami sia on il sistema
motorio, sia con i sistemi di memoria (indispensabili per l'azione intenzionale). − sistema posteriore →
funzioni attentive di base Esiste inoltre un sistema di vigilanza per la regolazione dell'allerta in presenza di
stimoli insoliti/nuovi.
L'attenzione si sviluppa prima della coscienza.
Funzioni della coscienza per la comunicazione: livello 1, selezione e adattamento 1) controlla l'accesso delle
informazioni prioritarie 2) risponde alle richieste di flessibilità del sistema di conoscenze livello 2,
monitoraggio e valutazione 3) attiva le azioni mentale e fisiche 4) regola le funzioni esecutive di presa di
decisione livello 3, automonitoraggio e socializzazione 5) ha funzione riflessiva e di automonitoraggio →
permettere l'adattamento al contesto comunicativo.

7.2 Pianificazione e controllo dell'azione comunicativa


Funzioni esecutive: sono il principale riferimento per comprendere le operazioni eseguite sotto il controllo
attentivo. Shallice evidenzia tre principali funzioni esecutive: − orientamento attentivo − discriminazione →
include la consapevolezza, l'elaborazione semantica... − mantenimento del sistema di allerta Inoltre prevede
due sistemi di regolazione del comportamento: − Sistema di selezione competitiva (SSC): attiva e inibisce
automaticamente specifici schemi di comportamento. − Sistema attenzionale supervisore (SAS): direziona
l'attenzione per processi decisionali consapevoli. E' attivo in compiti complessi che richiedono il diretto
controllo del soggetto. Opera intervenendo sul SSC. Sul piano comunicativo: determina e orienta le scelte
comunicative all'interno di uno specifico contesto. Danni cerebrali al lobo frontale possono inattivare il
controllo svolto dal SAS, con conseguente deficit della programmazione volontaria a favore delle funzioni
automatiche del SSC, che agiscono quindi in assenza di controllo intenzionale.
Funzioni esecutive per la comunicazione intenzionale: − rappresentazione dell'atto comunicativo (in quanto
azione intenzionale finalizzata) − pianificazione e controllo dell'esecuzione dell'azione Il substrato
anatomico per le funzioni esecutive sono la corteccia frontale e prefrontale → presiede le facoltà intellettive
superiori, come funzioni mnestiche, ragionamento, azione intenzionale (infatti ha importanti connessioni con
altre aree e strutture sottocorticali es. talamo).
La compromissione di alcune funzioni esecutive e non di altre in caso di deficit rende plausibile l'ipotesi
dell'esistenza di più sistemi di controllo responsabili di specifiche operazioni, che sarebbero compromesse a
fronte di altre comunque funzionanti. Il sistema delle funzioni esecutive e il sistema che coordina i processi
comunicativi (es.rappresentazione del linguaggio) sono distinti e hanno meccanismi autonomi.
Disturbi del sistema esecutivo nella pianificazione dell'azione intenzionale: 1) incapacità di produrre piani di
azione complessi; 2) mancanza di adattamento flessibile delle scelte comunicative alla situazione; 3)

Document shared on www.docsity.com


Downloaded by: Daniele1994bbc (daniele.ferrari1994@yahoo.it)
difficoltà nel passaggio da un'ipotesi cognitiva all'altra → con perseverazione di ipotesi scorrette; 4) inabilità
di utilizzare informazioni salienti per formulare previsioni/esprimere giudizi sulla situazione (deficit di
valutazione cognitiva).

Working memory: ha un ruolo importante per i compiti di tipo linguistico. Ha capacità limitate ed è
responsabile dell'elaborazione e dell'immagazzinamento temporaneo delle informazioni durante l'esecuzione
di compiti cognitivi. Sul piano anatomo-strutturale sembra che sia attivata nella corteccia prefrontale laterale,
nella corteccia orbitale e nella corteccia anteriore cingolata. Alla memoria di lavoro sembrano appartenere il
sistema esecutivo centrale (controllo attenzionale) e alcune componenti come il taccuino visuospaziale e il
loop fonologico (modello di Baddeley).
Si ritiene che la memoria di lavoro faccia riferimento a numerose memorie tampone, depositi temporanei in
grado di trattenere gli stimoli elaborati nei sistemi specializzati.
Working memory e funzioni comunicative: la memoria di lavoro è coinvolta direttamente nei processi
linguistici e comunicativi, quali la produzione e la comprensione linguistica, nonché l'acquisizione del
vocabolario. Ipotesi: la working memory possiede un magazzino per il consolidamento delle informazioni
semantiche, sintattiche e fonologiche. La worinkg memory produce rappresentazioni mediante operazioni
che chiamano in causa sia processi inferiori (magazzini con accesso alle rappresentazioni) sia superiori
(esecutivo centrale).
Deficit selettivi nella working memory → condizionano la comprensione del linguaggio. Esempio: deficit
del loop fonologico → deficit nel ricordo immediato di stringhe verbali-uditive. L'immagazzinamento
fonologico è necessario per la comprensione del linguaggio. Perchè? 1° ipotesi: supporta il processo
linguistico iniziale (prima analisi sintattica della frase); 2° ipotesi: opera in un secondo livello, ossia di
controllo post-sintattico (controllo dell'attribuzione dei nomi alle aree tematiche).
7.3 Strategie di azione per le comunicazione Tra le funzioni esecutive che intervengono nella comunicazione
abbiamo la pianificazione strategica, il monitoraggio e l'automonitoraggio → richiedono specifiche
competenze cognitive (di valenza sociale).
Modello gerarchico dell'azione di Stuss e Benson: il controllo della condotta avviene secondo un processo
gerarchico:
− 1° livello (il più basso): informazioni sensoriali e conoscenze elementari sono elaborate in modo
pressochè automatico. Le regioni responsabili sono quelle posteriori del cervello (occipitali per le info visive,
temporali per gli stimoli uditivi ecc..). − 2° livello: agiscono le funzioni esecutive di supervisione
(anticipazione dell'azione, selezione dell'obiettivo, pianificazione e monitoraggio). Queste funzioni sono
connesse al lobo frontale. − 3° livello: funzioni di autoriflessione (autoconsapevolezza delle proprie scelte,
metacognizione).
Implementazione delle strategie: analizziamo le componenti del processo di pianificazione e di definizione
strategica dell'azione.
Definizione di strategie di azione: richiede la realizzazione di diversi compiti, che devono appropriati agli
scopi e ordinati (costantemente) in modo sequenziale e funzionale. (1) Bisogna, innanzitutto, formulare uno
scopo dell'azione → servono informazioni contestuali, per formulare il piano di azione più adeguato. (2)
Bisogna saper valutare gli effetti delle azioni incluse nel piano strategico e saper introdurre eventuali
variazioni.
Rappresentazione di piani schematici di azione: richiede la generazione di script → unità di conoscenza che
comprende informazioni eterogenee. Uno script (MKU) non contiene sono specifici contenuti (livello delle
informazioni) ma anche indicazioni su come eseguire singole azioni (livello delle operazioni). Grafman:
MKU ha tre livelli rappresentazionali: - 1° livello (più astratto): definizione degli scopi complessivi di
un'intera sequenza, intenzioni del soggetto... - 2° livello: consente una maggiore specificazione degli eventi/
azioni che devono essere realizzati. - 3° livello: è contesto-dipendente, contiene le istruzioni su come
eseguire uno specifico compito in una determinata situazione. I MKU sono modelli di rappresentazione
complessi e nascono da un lungo processo evolutivo.
Preparazione all'azione: include due componenti. (1) Comportamento finalizzato: svolge un ruolo adattivo
nella scelta strategica, poiché prevede il coordinamento e la mediazione tra esigenze interne (individuo) e
richieste esterne (ambiente). E' una strategia comportamentale per far fronte all'incertezza, che è maggiore
soprattutto in una situazione nuova. (2) Preparazione motoria: sono un insieme di operazioni che

Document shared on www.docsity.com


Downloaded by: Daniele1994bbc (daniele.ferrari1994@yahoo.it)
intervengono dopo che lo stimolo significativo è stato identificato ma prima che la risposta venga eseguita.
Più i fattori di incertezza e complessità appaiono ridotti, più il processo di investimento di energie sarà
guidato da processi automatici autoregolatori.

Automonitoraggio e metacognizione: richiedono la capacità dell'individuo di valutare gli effetti della propria
azione comunicativa e la capacità di rappresentarsi la situazione tenendo conto delle numerose variabili →
sono da considerarsi competenze “sociali”. Si fa riferimento a:
1) Implicazioni pragmatiche: processi inferenziali sugli esiti cognitivi, emotivi e comportamentali delle
proprie azioni. 2) Interpretazione dei processi cognitivi e metacognitivi: sono processi inferenziali di più alto
ordine, che fanno riferimento alle operazioni mentali che guidano le nostre azioni (automonitoraggio
autodiretto) e l'interpretazione degli stati mentali altrui (automonitoraggio eterodiretto). Sia le competenze
metacognitive autodirette sia quelle eterodirette sembrano implicare i lobi frontali.

7.4 Conclusioni
• La comunicazione è un'azione orientata verso qualcosa (finalizzata) e co-regolata con il proprio
interlocutore (relazionale).
• In essa intervengono sia meccanismi di primo ordine (es. focalizzazione dell'attenzione sugli elementi
salienti; pianificazione intenzionale dei significati che si vogliono comunicare) sia meccanismi di secondo
ordine (es. monitoraggio, automonitoraggio).
• Il processo comunicativo intrattiene un rapporto diretto con una serie di funzioni di alto ordine, come -
coscienza - meccanismi attentivi - programmazione ed esecuzione dei piani di azione
• Le aree prefrontali sono considerate di notevole importanza per la regolazione dell'azione comunicativa
intenzionale (pianificazione, esecuzione e monitoraggio di strategie).

Capitolo 8) Sistemi di comunicazione non-verbale

Document shared on www.docsity.com


Downloaded by: Daniele1994bbc (daniele.ferrari1994@yahoo.it)
Introduzione: la comunicazione non-verbale costituisce, assieme a quella verbale, l'intero dominio della
significazione. Le componenti della comunicazione non-verbale sono: sistema vocale, gestuale, mimico,
prossemico e aptico – di contatto corporeo. Recenti acquisizioni in ambito sperimentale hanno consentito di
superare la dicotomia tra funzioni verbali ed emisfero sinistro e funzioni non-verbali ed emisfero destro.
8.2 Origine della comunicazione non-verbale
I sistemi di comunicazione non verbale sono stati collocati all'interno della categoria della comunicazione
extralinguistica (sistema che accompagna la comunicazione verbale, qualificandola). La comunicazione non
verbale è stata interpretata secondo approcci differenti, tra cui:
Modelli neuroculturali: sono ancorati alla concezione darwiniana dell'innatismo e dell'universalità della
comunicazione non-verbale. Attualmente non è più legata alle funzioni di sopravvivenza come in origine, ma
è deputata alla regolazione dei rapporti tra individui della stessa specie e, in particolare, all'espressione/
comprensione di emozioni. Limite: importanza data alle componenti innate, viste le diverse modalità
specifiche di cnv di ogni cultura e di ogni individuo.
Modelli culturali: danno grande importanza all'apprendimento. Infatti c'è sostanziale differenza tra la cnv di
diverse culture. Limite: non permette di cogliere alcuni aspetti che sono effettivamente universali.
Modelli cognitivi: solo una parte delle competenze comunicative sarebbe di origine innata, ossia le
competenze per la costruzione del piano intenzionale e la formulazione di rappresentazioni. Le competenze
di alto ordine es. interpretare la mente altrui, sono acquisite. Limite: le componenti linguistiche ed
extralinguistiche non provengono da due percorsi evolutivi indipendenti.
Burling: c'è una forma di continuità evolutiva per le comunicazione non-verbale ma discontinuità per la
comunicazione linguistica. La cnv ha molto in comune con quella dei primati, ad esempio: • scarso apporto
dell'apprendimento (es. il sorriso è geneticamente determinato) • condivisione informativa • ridotta
controllabilità volontaria
Sono contrari: Chomsky, che dice che il linguaggio è specifico solo della specie umana, e Lieberman, ci
sono esistenze sostanziali tra l'apparato fonatorio dell'uomo e quello di altre specie. Bara: ci sono evidenti
differenziazioni tra primati e uomo a livello di sviluppo corticale. Inoltre il linguaggio per l'uomo serve
anche come supporto del sistema cognitivo. Le funzioni linguistiche ed extralinguistiche operano
indipendentemente e con fasi di apprendimento differenziate.
8.3 Sistemi di comunicazione non verbale: funzioni e componenti
Indipendenza dei sistemi di comunicazione non verbale: è costuito da sottosistemi tra loro indipendenti, sia
sul piano strutturale (hanno strutture biologiche diverse) che funzionale (funzioni specifiche es. mimica
facciale per le emozioni). Verbale e non verbale, insieme, concorrono a determinare ciò che viene
comunicato. Pur non disponendo di una struttura simbolica articolata al pari di quella verbale, la
comunicazione non verbale dispone di una enciclopedia di sistemi di significati in grado di
confluire in una semiosi (significazione) compiuta.
Bisogna distinguere tra carattere involontario (comportamenti automatici) e volontario (azioni finalizzate a
produrre effetti comunicativi) dei sistemi non verbali. Anche nella comunicazione non verbale ritroviamo il
processo di pianificazione intenzionale (che comprende meccanismi di regolazione es.attenzione e controllo
dell'azione). Nella comunicazione non verbale, però, c'è una gradualità intenzionale in funzione del contesto
e del sottosistema coinvolto (vocale, mimico...). Ad esempio ci può essere minore attenzione e minore
intenzionalità nella propria mimica.
Sistemi e componenti non verbali:
− componenti vocali: costituiscono l'intera produzione vocale e sono legate alla manifestazione delle
emozioni. Comprendono componenti quali il ritmo, la durata, la velocità di eloquio, le pause e le proprietà
prosodiche (intonazione). − sistema cinesico-gesuale: comprende sia i gesti sia le componenti mimiche del
volto e dello sguardo. I gesti si possono distinguere in iconici (scarsamente convenzionalizzati), simbolici
(altamente convenzionalizzati es. gesto autostop), deittici (si usano per indicare). Il sistema mimico è da
considerarsi a uno spazio a sè: il volto svolge un ruolo privilegiato per la comunicazione delle emozioni. −
sistema prossemico e aptico: riguardano la regolazione dello spazio interpersonale e i comportamenti
finalizzati a co-regolare il contatto corporeo.

8.4 Componenti neuropsicologiche nella regolazione dei sistemi non-verbali:


Sistema cinesico-gestuale

Document shared on www.docsity.com


Downloaded by: Daniele1994bbc (daniele.ferrari1994@yahoo.it)
Produzione gestuale e comunicazione Per la produzione cinesico-gestuale sono coinvolti sia il sistema
nervoso centrale sia quello periferico. Studi su cerebrolesi hanno dimostrato l'indipendenza di alcuni sistemi
neuronali nella produzione di gesti. Ad esempio, il sistema neuronale della comprensione di gesti è differente
da quello per l'imitazione di gesti. Questo spiega deficit come l'aprassia visuoimitativa (non sono in grado di
imitare gesti che tuttavia comprendono). Roy e Hall: hanno osservato che alcuni deficit possono
compromettere selettivamente alcune funzioni della comunicazione gestuale e non altre. Ad esempio, ci può
essere dissociazione tra la conoscenza concettuale e la produzione gestuale.
Un quesito rilevante riguarda i gesti: hanno un valore comunicativo (quindi sono legati alla produzione
linguistica) o una scarsa rilevanza? Feyereisen: i sistemi neuronali coinvolti nel controllo della produzione
vocale e dell'attività manuale sono strettamente legati. Kimura: alcune regioni dell'emisfero sinistro,
specializzate per la selezione motoria, intervengono anche nella ripetizione di sillabe o gesti privi di
significato.

Dipendenza e indipendenza dei sistemi gestuale e linguistico


A favore della loro dipendenza:
1) A lesioni sinistre sono state rilevate parallele compromissioni per gesti e linguaggio orale. Per
contro, in molti casi aprassia e afasia appaiono distinti e dissociati. 2) Alcuni autori attribuiscono ai gesti il
ruolo di “attivatori” della produzione verbale; a sostegno di ciò sembra che gli afasici tendano a produrre più
gesti del normale. 3) Altri autori (Kraus e Radar) ipotizzano che i gesti stimolino e facilitino la riattivazione
di concetti. Quindi, complessivamente, sembra che il sistema gestuale abbia un ruolo di supporto al sistema
verbale e non viceversa.
Critiche a favore dell'indipendenza dei due sistemi:
1) i gesti possono sussistere anche in assenza di parlato; 2) i bambini apprendono e utilizzano i gesti prima
di acquisire le competenze linguistiche; 3) il sistema gestuale può sostituirsi al parlato es. sordi; 4) l'afasia
può sussistere senza aprassia.

8.5 Esprimere emozioni mediante la voce: Sistema vocale


Indicatore privilegiato dello stato emotivo dell'individuo, accanto alle variazioni del sistema mimico, è il
canale vocale. L'approfondimento di questo ruolo è tuttavia ancora agli esordi. Scherer: il sistema vocale
svolge due particolari funzioni (interdipendenti ma autonome) nell'espressione delle emozioni: − segnala lo
stato emotivo chi parla − elicita una risposta da parte di un ricevente
Una serie di parametri acustici possono rilevare le variazioni dell'apparato vocale in relazione agli stati
emotivi del soggetto. In particolare consideriamo quattro categorie di parametri: − Variazioni temporali:
velocità e durata del suono e delle pause. − Intensità: energia dello stimolo sonoro. − Frequenza
fondamentale: velocità con cui le corde vocali si aprono e chiudono → determina il tono. − Misure più
complesse: rilevano variazioni stabili e di maggiore durata.
Variazioni fisiologiche e parametri vocali: i cambiamenti prodotti dal sistema nervoso centrale (comando e
controllo) e periferico (attività sensoriale e muscoli) inducono, all'interno del sistema vocale, cambiamenti
nella respirazione, vibrazione delle corde vocali, articolazione del suono. Scherer: possiamo prevedere la
valutazione attuata dal soggetto (appraisal) facendo riferimento ad alcuni criteri come la piacevolezza, la
novità, la compatibilità con le norme sociali e il coping → cambiamenti del sistema periferico: se il soggetto
percepisce maggiore controllabilità dello stimolo si rileva una maggiore attività del sistema autonomo
simpatico (attacco e fuga); viceversa se il sogg. percepisce minore controllabilità si attiva maggiormente il
sistema autonomo parasimpatico (riposo e recupero). Se c'è totale mancanza di controllabilità (es.
disperazione) si rileva ipotensione della muscolatura. Altri cambiamenti che riguardano il sistema autonomo
simpatico e parasimpatico: regolazione del ritmo respiratorio, secrezione di saliva.
Cambiamenti del sistema centrale: effetti diretti sulla tensione delle fibre muscolari attive nell'apparato
fonatorio. Ci sono effetti tonici (controllo involontario) vs effetti fasici (controllo vocale volontario delle
emozioni).

Document shared on www.docsity.com


Downloaded by: Daniele1994bbc (daniele.ferrari1994@yahoo.it)
Correlati acustici emozione-specifici: l'analisi di questi parametri ha consentito di rilevare la relazione tra
variazioni vocali e singole emozioni.
La voce dello stress: anche se lo stress non è un'unica emozione, è utile analizzare i suoi indicatori. Stress
elevato comporta: velocità di eloquio, maggiore intensità vocale, aumento della frequenza fondamentale.
Questo è correlato all'aumento dell'arousal.Tuttavia si devono considerare fattori come la sensibilità allo
stress del soggetto e le strategie di coping.
La voce della rabbia e della paura: aumenta l'intensità della voce, la frequenza fondamentale, la velocità di
articolazione. Questo è correlato all'aumento dell'arousal.
La voce della tristezza: diminuisce l'intensità della voce, la frequenza fondamentale, il ritmo
dell'articolazione. La voce è sottile e debole. Questo è correlato a una diminuzione dell'arousal.
La voce della gioia: aumenta l'intensità della voce, la frequenza fondamentale e il ritmo di articolazione. La
voce è rilassata e non tesa, a differenza di altre emozioni ad alto arousal ma con valenza edonica negativa es.
rabbia e paura.

Integrazione dei codici comunicativi: in generale, in condizioni normali, un osservatore percepisce le


informazioni fornite dalla voce, dal volto e dal corpo, non come unità indipendenti ma come una gestalt
complessiva dotata di significato unitario. Nel caso di informazioni discrepanti, è il canale mimico del viso
a essere privilegiato per l'attribuzione di uno stato emotivo. Come può avvenire l'integrazione tra canale
vocale e canale mimico?
- Modello dell'indipendenza: le componenti vocali e mimiche hanno luogo separatamente e sono supportate,
a livello fisiologico, da sistemi strutturalmente distinti. - Modello della dipendenza: afferma l'integrazione
delle due componenti, ipotizzando anche la convergenza fisiologica.
Come si può verificare l'effettiva convergenza fisiologica dei due canali? Studi con correlati ERP e
risonanza magnetica hanno consentito di analizzare i possibili percorsi in comune dei due canali.
L'integrazione può avvenire mediante una via diretta (corticale) o indiretta (sottocorticale → importanza
dell'amigdala).
8.6 Rappresentazione dei sistemi verbale e non-verbale nei due emisferi
Verbale/non verbale: emisfero sx contro emisfero dx? La localizzazione dei sistemi non verbali non è
possibile con le conoscenze attuali. Inoltre i sistemi non verbali sono molto vari e sono state rilevate anche
compromissioni eterogenee. Alcuni studi hanno evidenziato una specializzazione destra per le componenti
extralinguistiche, tuttavia è possibile rilevare come anche l'emisfero sx supporti alcune funzioni non verbali
e l'emisfero dx svolga funzioni linguistiche. Questo è supportato anche dallo studio neuropsicologico del
linguaggio dei segni (LS) → specificità dell'emisfero sx per sistemi non verbali. Viceversa, l'emisfero dx
sarebbe deputato all'elaborazione della forma delle parole (studi PET).

Modelli di indipendenza funzionale: tre ipotesi cercano di chiarire la specilizzazione dell'emisfero sinistro:
Modello del sistema simbolico: la specializzazione emisferica sx per i processi simbolici non è ristretta ai
simboli verbali ma riguarda anche i simboli non verbali.
Ipotesi della dominanza dell'emisfero sinistro per l'organizzazione dei movimenti consequenziali: essa è
richiesta sia dalla comunicazione non verbale che da quella verbale, e un'incapacità di controllare le
sequenze di movimenti produrrebbe deficit per entrambe.
Ipotesi della dicotomia tra emotivo e cognitivo: la prima è attribuibile all'emisfero dx, la seconda
all'emisfero sx. In particolare, si afferma l'indipendenza delle funzioni presiedute dall'emisfero dx.

Interdipendenza e coordinamento interemisferico tra il sistema verbale e i sistemi non verbali.


Interdipendenza Ipotesi classica: c'è una modalità linguistica, propria dell'emisfero sx, e una modalità non
linguistica, propria dell'emisfero dx. Questo non esclude che l'emisfero dx possieda competenze per la
comprensione di parole o, al contrario, che quello sx non possa elaborare informazioni non linguistiche.
Entrambi gli emisferi hanno la possibilità di attribuire significato agli stimoli, indipendentemente dal formato

Document shared on www.docsity.com


Downloaded by: Daniele1994bbc (daniele.ferrari1994@yahoo.it)
rappresentazionale di partenza. I due emisferi hanno la possibilità di cooperare nell'attribuzione del
significato, benchè sia l'emisfero dominante per la specifica modalità rappresentazionale a svolgere un ruolo
prioritario rispetto a quello non dominante.
Coordinamento Benchè gli emisferi siano specializzati per differenti processi, le nostre azionji e la nostra
esperienza riflettono l'operato unitario di una sola mente. Ma come operano effettivamente i sistemi di
coordinamento delle informazioni? - Modello della dominanza emisferica: di volta in volta, a seconda dei
diversi compiti, solo uno dei due emisferi diventa dominante per la prestazione e opera per il metacontrollo.
- Modello dell'alternanza: i due emisferi operano con funzioni di metacontrollo simultaneamente, dominando
ciascuno un aspetto distintivo della prestazione. - Modello dell'unicità interemisferica: entrambi
contribuiscono alla realizzazione dell'intera prestazione.

Conclusioni • Studi recenti hanno posto in evidenza la stretta relazione tra le strutture finalizzate alla
produzione verbale e le strutture di supporto ai sistemi non verbali • I differenti sistemi di comunicazione
non verbale concorrono nella definizione del significato del messaggio assieme al sistema di comunicazione
verbale • Tra le funzioni comunicative svolte dal non-verbale, la più importante è l'espressione delle
emozioni (di competenza del sistema mimico e del sistema vocale) • C'è corrispondenza tra la modificazione
di parametri vocali e la comunicazione di determinate espressioni • Il fattore “lateralizzazione emisferica”
consente di spiegare il contributo destro e sinistro nella regolazione delle funzioni verbali e non verbali,
nell'ottica dell'integrazione emisferica piuttosto che della dominanza o dell'alternanza emisferica

Document shared on www.docsity.com


Downloaded by: Daniele1994bbc (daniele.ferrari1994@yahoo.it)
Capitolo 9) Neuropsicologia delle espressioni facciali
9.1 Funzioni della mimica facciale
Secondo Darwin l'espressione delle emozioni è basata su alcuni principi di base, per cui alcune espressioni
facciali sarebbero innate e avrebbero la funzione di riflettere uno stato motivazionale o un'intenzione, utile
alla sopravvivenza e all'evoluzione della specie.
Diverse prospettive di analisi della mimica facciale:
Teoria neuroculturale di Ekman: il suo modello prevede un numero ristretto di emozioni di base, determinate
geneticamente e diffuse universalmente. Ciascuna di esse avrebbe un comportamento facciale caratteristico,
una differente esperienza cosciente, specifiche basi fisiologiche... Il meccanismo di segnalazione delle
espressioni facciali ha funzione di adattamento, acquisito attraverso l'evoluzione specie-specifica: per questo
il significato dell'espressione facciale non muta tra le culture. Tuttavia studi sistematici hanno evidenziato
divergenze sia culturali che individuali.
Approccio dimensionale: le emozioni sono diversificate rispetto ad alcune “dimensioni” (es. modello di
Russell).
Approccio componenziale: le espressioni emotive possiedono una struttura sistematica, coerente e dotata di
significato. L'intento di questo approccio è considerare la mimica facciale come un indicatore dei processi di
valutazione (appraisal). Smith e Scott hanno individuato quattro dimensioni lungo cui si organizzano le
componenti mimiche: - piacevolezza dello stato emotivo (dimensione edonica) - attività attenzionale
associata allo stato emotivo - attivazione (arousal) - controllo del soggetto sulla propria condizione (acency)
Da qui si configurano famiglie emotive, ciascuna delle quali si caratterizza grazie a un insieme di
componenti.
Approccio comunicativo: la mimica facciale possiede una funzione comunicativa in sé. Chovil ha
specificato il ruolo sociale comunicativo della mimica facciale → perchè si verifica generalmente e con
maggior frequenza in situazioni sociali rispetto a situazioni non sociali (la presenza di un ricevente aumenta
la probabilità che abbia luogo una modificazione del display facciale).
9.2 Processi di codifica e riconoscimento del volto
Il volto è definito come una gestalt unitaria, non ulteriormente scomponibile in sottocomponenti.
I Modelli di riconoscimento del volto
- Modello di Goldman: per attribuire un'emozione a un volto gli individui mettono in moto un'attività di
simulazione mentale, che replica nella propria mente lo stato emotivo dell'altro individuo (producendo un
facsimile) → successivamente viene confrontata l'espressione osservata con l'espressione simulata. In caso di
comparabilità viene confermato il correlato emotivo.
- Modello di Bruce e Young: per riconoscere un volto esistono diversi moduli che rilevano le informazioni
veicolate dalla mimica, e diversi percorsi di elaborazione, che si occupano di sette diverse tipologie di
codici: codice pittorico (luminosità dello stimolo), strutturale (aspetti essenziali del volto), visivo, semantico,
identià-specifico, relativo al nome e relativo all'espressione.
A partire dall'immagine del volto, è necessario estrapolare il codice strutturale, che permette anche il
riconoscimento di volti familiari. Così viene prodotta una descrizione più astratta, espressioneindipendente,
da cui si possono rilevare informazioni come l'età e il genere. Da questa unità si può inoltre procedere per
l'interpretazione delle espressioni facciali. Evidenze psicologiche rilevate in cerebrolesi affermano
l'indipendenza funzionale di ciascun codice (ciò significa che il processo di elaborazione dell'espressione è
indipendente dagli altri processi es. di definizione dell'identità → studio di Etcoff). Disturbo prosopagnosico:
pur essendo preservata l'abilità di identificare oggetti in generale, risulta compromessa la capacità di
elaborare volti familiari. Tuttavia alcuni aspetti del riconoscimento dei volti sono preservatati poiché
seguono una via dorsale, che attribuisce inconsapevolmente dei significati, specialmente quello emotivo. La
via ventrale, danneggiata nei soggetti prosopagnosici, sarebbe invece deputata al riconoscimento conscio.

Document shared on www.docsity.com


Downloaded by: Daniele1994bbc (daniele.ferrari1994@yahoo.it)
Critiche all'approccio di Bruce e Young: le variabili che contribuiscono al riconoscimento del volto
sembrano essere più complesse di quelle previste dagli autori. I diversi processi sembrano interagire tra loro,
ad es. per il riconoscimento delle diverse emozioni è coinvolto il processo di familiarità.

Meccanismi strutturali e semantici dell'elaborazione della mimica. Evidenze empiriche mediante rilevazioni
ERP. Tra le fasi di elaborazione che caratterizzano la comprensione del volto, quella strutturale e quella
semantica sono state ampiamente esplorate.
- Processo di codifica strutturale: probabilmente è la fase finale dell'analisi visiva e il suo prodotto è una
rappresentazione sensoriale astratta del volto, indipendentemente dal contesto o dalla prospettiva. Effetto
N170: è legato all'analisi percettiva, in particolare all'elaborazione strutturale delle caratteristiche del volto; il
picco è più ampio se il volto analizzato è capovolto → questo perchè la codifica del volto si basa su un
processo di gestalt complessiva, che in questo caso risulta distorta.
- Processo di codifica semantica: elabora il significato delle informazioni ottenute dal volto. Il
riconoscimento di un volto individuale è ottenuto grazie alla comparazione della descrizione strutturale
ricavata dall'analisi visiva e le rappresentazioni precedentemente immagazzinate dei singoli volti. N400 e
P600 riflettono i meccanismi coinvolti nell'attivazione delle rappresentazioni dei volti immagazzinati. N400
è sensibile agli stimoli inattesi e semanticamente incongruenti (una volta era attribuita solo agli stimoli
verbali); inoltre il picco è più ampio quando si tratta di volti sconosciuti.
9.3 Vie corticali del riconoscimento di volti
Una singola visione del volto può contenere sufficienti informazioni invarianti per consentire il
riconoscimento anche in presenza di cambiamenti modesti della posa o dell'espressione assunta. A tal
proposito è stata rilevata una specifica area sensibile agli stimoli facciali, il giro fusiforme → rinominata da
Kanwisher FFA (area fusiforme del volto).
Modelli relativi ai network corticali implicati nell'elaborazione dei volti: modello di Haxby.
• Gli individui elaborano due differenti componenti del volto: da un lato le caratteristiche invarianti,
dall'altro gli aspetti modificabili (es. sguardo, espressioni facciali). • Il modello è suddiviso in un sistema
nucleare (che si occupa dell'analisi visiva) e in un sistema esteso (che procede con l'elaborazione, in
interazione con altri sistemi). • In particolare il sistema nucleare comprende: il giro inferiore occipitale, il
giro fusiforme
laterale e il solco superiore. • La corteccia orbitofrontale è particolarmente rilevante nell'elaborazione del
volto. • Per il riconoscimento del volto sono invece importanti: corteccia frontale dx, corteccia cingolata,
corteccia parietale, cervelletto.
Studi sulla mimica facciale: le rappresentazioni dinamiche o statiche del volto attivano network corticali
differenti nel riconoscimento → l'area visiva V5 e il solco temporale mostrano risposte differenti in relazione
al tipo di stimolo.
9.4 Specificità corticale nel decoding delle espressioni facciali delle emozioni
Evidenze sperimentali hanno sottolineato la presenza di singole cellule volto-specifiche in primati non
umani. Nella corteccia visiva delle scimmie alcuni neuroni rispondono all'identità indipendentemente
dall'espressione del volto, altri rispondono all'espressione del volto indipendentemente dall'identità. Un altro
esempio di selettività del riconoscimento è evidenziato dal deficit nel decoding di espressioni emotive. Un
sogg. con danno bilaterale all'amigdala presentava un deficit nel riconoscimento di alcune espressioni
emotive, come rabbia e paura. Questo ha evidenziato che la paura ha un percorso privilegiato di codifica
perchè ha una specificità evolutiva. L'amigdala, se stimolata, porta alla paura → l'amigdala è rilevante per il
comportamento sociale, specialmente quello legato alla paura e all'aggressività.
Deficit nell'elaborazione delle espressioni emotive e della familiarità. Il caso della prosopagnosia
Molti pazienti prosopagnosici, nonostante l'impossibilità di identificare volti familiari, possiedono una
capacità parziale di riconoscimento delle espressioni facciali delle emozioni. Esiste anche una dissociazione
inversa, ossia il mancato riconoscimento delle espressioni facciali ma riconoscimento normale del volto.
Questo suggerisce che il sistema neurale sottostante all'elaborazione dell'identità del volto e dell'espressione
facciale delle emozioni siano anatomicamente distinti.
Inoltre i soggetti prosopagnosici segnalano (tramite le variazioni della conduttanza cutanea), seppure
indirettamente e in modo non conscio, la capacità di attuare una discriminazione degli stimoli facciali che
non sono in grado di riconoscere consapevolmente.

Document shared on www.docsity.com


Downloaded by: Daniele1994bbc (daniele.ferrari1994@yahoo.it)
Analisi della mimica emotiva mediante ERP: ci sono indicatori che mostrano una maggiore ampiezza
(intensità di picco) per il volto rispetto a molti altri stimoli (come case, macchine..). Questo supporta l'ipotesi
che ci sia un meccanismo cognitivo dedicato e specifico per il volto. La percezione emotiva ha luogo
automaticamente in tempi molto brevi, ad esempio P100 è legato alla valenza emotiva dell'espressione del
volto. Altri picchi specifici sono N220 (mimica emotiva) e N400 (valore semantico delle espressioni
facciali).
Un network cerebrale emozione-specifico? Esistono correlati anatomici differenti a seconda del tipo di
emozione? I modelli categoriali hanno sottolineato la presenza di correlati distinti, mentre i modelli
dimensionali hanno rilevato la presenza di due criteri di base che sintetizzano la variabilità delle risposte
fisiologiche: l'arousal e la valenza edonica.
L'applicazione della risonanza magnetica ha evidenziato l'attivazione di regioni cerebrali diverse a seconda
dell'espressione facciale. Ad esempio paura → attivazione amigdala sx; tristezza → amigdala dx e lobo
temporale dx; rabbia → corteccia orbitofrontale dx e corteccia cingolata anteriore; disgusto → insula
anteriore. La stessa conclusione è emersa anche studi su lesioni corticali.
Gli studi consentono di porre in rilievo il ruolo cruciale dell'amigdala nel mettere in atto comportamenti di
risposta specifici in situazioni di minaccia.
9.5 Asimmetrie emisferiche nell'elaborazione della mimica emotiva: entrambi gli emisferi sono dotati delle
strutture necessarie per operare la discriminazione e il riconoscimento dei volti, così come l'elaborazione
delle proprietà semantiche ottenute visivamente dai volti. L'emisfero dx e sx sono, di volta in volta,
competenti per alcune operazioni e non per altre. Ad esempio l'emisfero dx è migliore del sx nel comparare i
volti; l'emisfero sx è migliore del dx nell'identificare i volti noti. Le evidenze empiriche hanno rilevato una
superiorità emisferica dx: • l'emisfero dx possiede una superiorità generale per differenti aspetti del
comportamento emotivo; • l'emisfero dx è dominante per le espressioni emotive; • l'emisfero dx è dominante
per la percezione degli indici emotivi (es. prosodia, postura...); • l'emisfero sx è dominante per le emozioni
positive, l'emisfero dx per quelle negative.
Cosa è possibile concludere da tali evidenze? L'elaborazione di informazioni emotive implica strategie e
funzioni specifiche dell'emisfero dx, mentre l'emisfero sx sarebbe maggiormente implicato nella
focalizzazione attentiva e analitica degli stimoli.
Una specializzazione destra per la comprensione dell'espressione facciale delle emozioni? Le ricerche
empiriche normalmente sostengono che l'emisfero dx è specializzato nel comportamento non verbale (che
include espressioni facciali, tono di voce e gesti). L'emisfero destro svolge un ruolo prioritario nella
comprensione delle informazioni emotive e un suo danno cerebrale compromette la capacità di: −
discriminare tra espressioni emotive − ricordare espressioni facciali emotive − confrontare volti emotivi
presentati a parole scritte
Inoltre studi sul tracciato EEG rilevano una diminuzione della banda α (condizione di riposo) maggiore
quando stimoli emotivi negativi vengono proiettati nell'emisfero dx rispetto al sx.

Lateralizzazione nella produzione e comprensione di volti emotivi: bisogna distinguere tra i processi di
codifica (produzione) e di decodifica (comprensione) delle espressioni facciali emotive.
Nella produzione mimica: è possibile rilevare un'asimmetria facciale. In genere il lato sx del volto risulta
essere più espressivo di quello destro, in particolare per le emozioni negative → è possibile ritenere che
l'emisfero dx giochi un ruolo di primo piano nell'espressione facciale.
A proposito di emozioni positive e negative, Davidson e Hugdhal suppongono che le regioni frontali sinistre
siano implicate in comportamenti di avvicinamento e che l'aumento di attività dell'area frontale sx sia
associato alle emozioni che tendono a essere accompagnate da una tendenza ad accettare la situazione.
Viceversa, le regioni frontali dx sono implicate in comportamenti di allontanamento, come per le emozioni
della paura e del disgusto.
Un'ovvia differenza tra la corteccia temporale sinistra e destra è che la prima è coinvolta nell'elaborazione
del linguaggio, mentre quella destra risulta principalmente legata all'elaborazione dei volti.

Conclusioni: la ricerca ha individuato specifici correlati neurali per la produzione e il riconoscimento dei
pattern mimici.
• L'area fusiforme per il volto (FAF) è specificatamente deputata a elaborare le informazioni mimiche.

Document shared on www.docsity.com


Downloaded by: Daniele1994bbc (daniele.ferrari1994@yahoo.it)
• E' stata evidenziata la presenza di un'organizzazione modulare dei processi di produzione/comprensione
rispetto alle componenti strutturali-percettive, di identità del volto e semantiche, anche grazie all'ausilio delle
ricerche con applicazioni ERP.
• L'universo emotivo sembra essere caratterizzato da una chiara differenziazione di correlati emozione-
specifici, ad esempio amigdala → rabbia e paura.
• Chiara specializzazione destra per la decodifica (comprensione) di volti e in particolare per l'espressione
delle emozioni.
• Il contributo principale dell'emisfero destro è stato evidenziato da numerose ricerche, che rilevano inoltre
una dominanza emisferica frontale destra per pattern negativi.

Capitolo 11) Percezione cross-modale delle emozioni. Sincronizzazione di codici comunicativi


All'espressione, così come al riconoscimento, di un'emozione contribuiscono numerose informazioni
appartenenti a differenti modalità sensoriali, che vengono integrate in un preciso pattern espressivo.
Integrazione multimodale come risposta alla complessità ambientale: integrare stimoli appartenenti a
differenti modalità per formare un unico percetto, costituisce una componente fondamentale alla base del
comportamento e della cognizione guidati dai sensi. L'integrazione è finalizzata a migliorare l'elaborazione
dello stimolo, così da produrre una risposta comportamentale più rapida e accurata.
11.2 Convergenza dei pattern emotivi: gli studi si sono concentrati soprattutto sulla convergenza tra il canale
visivo e quello uditivo. Alcuni pazienti con diagnosi di aprosodia presentavano anche un deficit correlato nel
riconoscimento dei volti → questo attesta che c'è una correlazione tra i due deficit, ma non un'effettiva
convergenza dei due canali. Anzi, altri studi sembrano affermare l'esistenza di assimetrie tra il
riconoscimento del volto e quello della voce. Per questo sono in corso studia sia comportamentali che
neuropsicologici.
11.3 Studi comportamentali De Gelder: i risultati del suo studio indicano che i tempi di latenza sono più
brevi quando vengono somministrati due stimoli congruenti (volto e voce esprimenti la stessa emozione), più
lunghi con un solo stimolo o con gli stimoli bimodali incongruenti poiché serve un maggiore sforzo
cognitivo. L'organismo già dai primissimi stati di elaborazione procede all'integrazione degli stimoli →
questo permette una maggiore efficienza nella risposta comportamentale.
Integrazione come processo precoce e automatico: il riconoscimento delle emozioni presentate in duplice
modalità audio e visiva innesca un reciproco effetto di influenzamento tra le due modalità sensoriali. Questo
avviene anche quando la consegna chiede di prestare attenzione a un'unica modalità! Inoltre l'integrazione si
verifica anche quando i soggetti si dichiarano consapevoli dell'incongruenza: questo perchè l'integrazione
avviene a uno stadio di elaborazione molto precoce e in modo automatico → l'integrazione è un fenomeno
percettivo automatico.

Document shared on www.docsity.com


Downloaded by: Daniele1994bbc (daniele.ferrari1994@yahoo.it)
11.4 Contributo della neuropsicologia: gli studi hanno confermato l'esistenza del Redundant Target Effect
(effetto di ridondanza del target) → gli stimoli bimodali congruenti producono una risposta più veloce
rispetto agli stimoli bimodali incongruenti o stimoli unimodali. - Modelli della priorità temporale: le due
componenti sono elaborate indipendentemente, il tempo di risposta coincide con la fine dell'elaborazione
della componente più veloce. - Modelli di indipendenza dell'attivazione: le due componenti inducono
attivazioni indipendenti che vengono sommate nella risposta finale. - Modelli dell'attivazione interattiva:
l'elaborazione di uno stimolo in una modalità influenza l'elaborazione di uno stimolo in un'altra modalità.
L'integrazione ha inizio ad uno stadio molto precoce del processo di elaborazione sensoriale. Gli studi
neuropsicologici sono a favore di questo tipo di modello.
Componente MMN come indicatore indiretto della convergenza audiovisiva MMN è un picco negativo che
si presenta in presenza di stimolazioni di tipo uditivo nel momento in cui appare uno stimolo deviante. Non
avviene sotto il controllo attentivo. Inoltre è stato rilevato che gli stimoli positivi a basso arousal segnalano la
presenza di un ambiente non rischioso → ciò produce la tendenza a rilevare automaticamente cambiamenti
inaspettati a
livello delle stimolazioni uditive (Surakka e colleghi).
Ruolo dell'amigdala: Surakka e colleghi suggeriscono che l'elaborazione degli stimoli uditivi sia influenzata
dall'amigdala e, attraverso quest'ultima, dagli stimoli emozionali di tipo visivo. Infatti l'amigdala riceve
proiezioni da tutte le principali aree corticali sensoriali e presenta importanti proiezioni verso le aree visive e
uditive. Inoltre l'amigdala ha un ruolo di primo piano nella comprensione di informazioni connotate
emotivamente.
Valenza edonica e integrazione cross-modale: lo studi PET di Pourtois e colleghi ha confermato l'esistenza
di componenti neurali di elaborazione cross-modale differenziati sulla base della valenza edonica dello
stimolo emotivamente connotato. Per questo studio sono stati utilizzati come in precedenza stimoli bimodali
congruenti, ma l'originalità è stata la consegna di tipo indiretto: ai soggetti è stato chiesto di valutare il
genere del soggetto che esprimeva l'emozione.
Componente N100: è stata analizzata per analizzare il fenomeno di integrazione cross-modale.
L'integrazione di stimoli bimodali avviene solo quando questi sono congruenti e inoltre avviene anche se al
soggetto viene chiesto, ad esempio, di prestare attenzione ai volti ignorando la voce. Si può ipotizzare che
l'elaborazione degli stimoli uditivi venga facilitata dalla presentazione di uno stimolo visivo congruente in
termini di contenuto emotico. L'integrazione non avviene quando il volto è capovoltom poiché la rotazione
di 180° impedisce il normale processo di elaborazione del volto.
Indice di integrazione multimodale P2b: P2b rappresenta un indice di integrazione tra la componente uditiva
e quella visiva. Questo picco precede N200 e P300, che si sanno essere deputati alla successiva elaborazione
cognitiva di natura decisionale. Gli stimoli bimodali congruenti elicitano una P2b più precoce rispetto agli
stimoli incongruenti, suggerendo che l'elaborazione uditiva, in presenza di informazioni incongruenti, sia
ritardata.
11.5 Recenti contributi empirici con applicazioni ERP: si è voluto verificare la presenza di effetti di natura
cognitiva di media e lunga latenza nell'integrazione cross-modale delle emozioni. Si è anche inteso
analizzare l'incidenza del contenuto delle singole emozioni nel processo di integrazione.
Componenti cognitive di media latenza (200-300ms post-stimolo): è stata rilevata la presenza di due
differenti deflessioni. P200: localizzazione prevalente nelle aree parietali; N200: localizzazione distribuita
nelle aree anteriori e posteriori. Data la diversa localizzazione delle variazioni ERP, è possibile ipotizzare che
le due deflessioni rendano conto di fenomeni differenti → rappresentano risposte cognitive distinte. P200: si
pensava fosse indice dei processi integrativi intersensoriali nel caso di stimoli a contenuto emotivo → ora si
sa che è soltanto un effetto di convergenza/divergenza tra più informazioni intermodali, indipendentemente
dallo specifico contenuto emotivo espresso. In particolare tra canale mimico e vocale. N200: è stata
osservata in condizioni di anomalia semantica di tipo amodale(indipendentemente dalla modalità percettiva).
Ruolo del contenuto emotivo: N200 mostra una diversa rispondenza alle singole emozioni. Soprattutto si
rileva differenziazione tra un primo gruppo di emozioni come rabbia, paura, sorpresa e disgusto, e un
secondo gruppo rappresentato da gioia e tristezza. Per il primo gruppo l'intensità del picco è maggiore →
N200 potrebbe essere indice delle variazioni di arousal e della valenza edonica dello stimolo.

Conclusioni:

Document shared on www.docsity.com


Downloaded by: Daniele1994bbc (daniele.ferrari1994@yahoo.it)
• L'esperienza quotidiana richiede l'elaborazione simultanea di informazioni provenienti da canali sensoriali
diversi → da qui nasce la necessità di indagare l'integrazione delle modalità sensoriali. • In particolare è stata
indagata la percezione cross-modale delle componenti mimiche e vocali → esiste un network finalizzato alla
sintesi di elementi provenienti da canali diversi. • La percezione cross-modale è un meccanismo
inconsapevole e involontario per l'individuo: esso avviene in modo precoce e automatico. • La percezione
cross-modale è un processo di natura adattiva, acquisito al fine di agevolare la comprensione degli stimoli
presenti nell'ambiente, rilevandone precocemente la sintonia (congruenza tra canali) o la non sintonia
(incongruenza tra canali). • E' stata indagata la breve latenza: rilevazioni con TR e ERP hanno sottolineato, in
caso di convergenza tra due canali, riduzione dei tempi di risposta e incremento di ampiezza di alcuni
marcatori. • E' stata indagata anche la media e lunga latenza: in particolare l'indice ERP P200, che segnala
l'avvenuta integrazione e la disponibilità del percetto ad accedere ai successivi processi di natura decisionale
(cioè lunga latenza).

Acuità visiva: capacità dell’occhio di distinguere tra due punti


Afasia da conduzione: deficit di denominazione, difficoltà a ripetere parole e sequenze di parole senza senso
Agnosia: deficit nel riconoscimento di oggetti
Agrafia: perdita della capacità di produrre linguaggio scritto a seguito di disfunzione centrale
Amigdala: divisa in tre gruppi di nuclei: 1. zona corticomediale; 2. Zona basolaterale; 3. Zona centrale
Anamnesi neurologica(?): screening
Anamnesi: storia clinica del pz
Anosognosia: inconsapevolezza del deficit per emiplegia (paralisi della metà destra o sinistra del corpo,
dovuta o a lesioni organiche delle vie motrici intracerebrali o a meccanismo psicogeno) ed emianopsia
(perdita parziale o totale di una metà del campo visivo)
Aprassia costruttiva: costruzione di modelli
Aree associative: corteccia associativa, integra info diverse e le rielabora per poi inviarle ad altre regioni
corticali
Ascolto dicotico: tecnica di analisi delle funzioni cognitive e cerebrali per lo studio delle asimmetrie
emisferiche, dell’attenzione e della coscienza
Asimmetrie emisferiche legate al genere: competenze linguistiche e visuospaziali
Attenzione spaziale (mappe corticali spazialmente definite, rappresentazione selettiva delle info,
dislocazione del fascio attentivo nello spazio, dislocaz delle risorse attentive nel campo recettivo); vigilanza
anteriore e posteriore collegate. Modello anatomico fisiologico dell’attenzione: Posner e Petersen, definisce
la multicomponenzialità del sistema attentivo, include tre sottosistemi: sottosistema deputato alla regolazione
della vigilanza; attenzionale posteriore e attenzionale anteriore
Citoarchitettonica: organizzazione microanatomica di tipologie di cellule aree di Broadman
Conduttanza elettrodermica: due componenti, esogena ed endogena (biofeedback, quanto il passaggio di
corrente viene favorito)
Controllo ipotalamo: sistema endocrino

Document shared on www.docsity.com


Downloaded by: Daniele1994bbc (daniele.ferrari1994@yahoo.it)
Corea: incapacità di riconoscere il disgusto
Criteri di valutazione dello stimolo, Russell: componenti valenza edonica/arousal (positivo/negativo – alta/
bassa attivazione)
Diaschisi: quando una regione cerebrale subisce una lesione, si può presentare un trauma altrove, in regioni
adiacenti o distanti
Dissociazione: prova dell’indipendenza tra funzioni, basata sul concetto di dissociazione tra deficit;
dissociazione semplice e dissociazione doppia
EEG: misura cambiamenti di potenziale elettrico generati dalle deboli correnti presenti nel cervello; onde
cerebrali
ERPs: potenziali evento-relati, tecnica elettrofisiologica. Rilevano le variaz di potenziale in seguito a
stimolazione sensoriale o cognitiva. Misura il SNC
Fascicolo arcuato: connessione neurale del cervello che collega aree di Broca e Wernike
Gangli della base: si trovano anteriormente ai ventricoli
IAPS: includono stimoli che producono risposta emotiva, omeostasi, ritmi (immagini di cui si rileva la
risposta sulla persona). Elicita stimoli per emozioni-
Importanza della comunicazione
Indici autonomici: indici il cui aumento è legato all’arousal, es conduttanza cutanea, variaz ritmo cardiaco e
respiratorio e della pressione arteriosa
Indici psicometrici: batterie testistiche + scale self-report
Lobo temporale: responsabile di processi uditivi, comprensione linguaggio, memoria, apprendimento,
percezione, riconoscimento stimoli olfattivi
Lobo frontale: progettazione ed esecuzione movimenti; include corteccia motoria e perifrontale
Lobo limbico: strutture sottocorticali del sistema limbico; ippocampo, nuclei del setto, amigdala, giro del
cingolo, corpi mammillari, ipotalamo
Lobo orbito-frontale:
Lobo temporale: funzione uditiva
Macchia cieca: errore a livello della retina che non elabora parte dello stimolo
Memoria di lavoro: coincide con memoria a breve termine
Metodi di analisi di tipo indiretto: conduttanza cutanea, tempi di risposta
Metodo clinico: utilizza soprattutto gruppi di controllo
Modello neuroculturale, Ekman: le espressioni facciali e le emozioni non sono determinate dalla cultura di
un posto o dalle tradizioni ma sono universali ed uguali per tutto il mondo, ciò indica che quindi sono di
origine biologica
• ?? Cfr Goleman ed Ekman: emozioni? (Goleman, intelligenza emotiva)
Modello neuropragmatica
Modello tripartito di Baddeley: tripartizione della memoria di lavoro; capacità di elaborare informazioni
complesse. Esecutivo centrale che controlla: loop fonologico, taccuino visuo-spaziale e buffer episodico
Modularità: ogni funzione complessa può essere scomposta in una serie di processi di base che svolgono una
funzione specializzata e indipendente dalle altre (Marr)
Moduli corticali: unità computazionali indipendenti

Document shared on www.docsity.com


Downloaded by: Daniele1994bbc (daniele.ferrari1994@yahoo.it)
Neglect: diagnosi attraverso test di bisezione, test di cancellazione, test di disegno spontaneo o copia di
figure, test di immagini mentali
Nervi periferici: sono composti da fasci di assoni il cui nucleo si trova protetto all'interno della cavità
vertebrale (midollo spinale)
Nucleo del pulvinar: filtraggio e orientamento attentivo
Prosopagnosia: volti
Retinoscopia: esame diagnostico consistente nell’osservazione della retina. Tecnica retinoscopica statica e
dinamica
Ricordo (ippocampo codifica le info temporali durante il condizionamento della traccia)
Scissura di Rolando: scissura centrale; frontale parietale
Schema centri e connessioni dell’attenzione
Scherer (valutazione dello stimolo dato da: novità, piacevolezza, rilevanza per scopo, norme sociali)
Scissura di Silvio: il lobo temporale da una parte, lobi frontale e parietale dall’altra rispetto alla scissura di
Silvio
Selezione precoce (prima della percezione)
Sindrome anatomica: funzioni localizzate in aree anatomicamente adiacenti, lese insieme
Sindrome disesecutiva: incapacità di pianificare
Sistema attenzionale: esercitare un controllo strategico sui processi cognitivi, dislocando selettivamente
l’attenzione su un processo a spese di un altro, e di organizzare nel modo di volta in volta più efficace, le
“subroutine” disponibili a livelli gerarchicamente più bassi
Sistema retinotopico: il principio dell’organizzazione retinotopica è che cellule vicine nella retina inviano
informazioni a zone limitrofe delle strutture bersaglio.
Spazio peripersonale: spazio azione arti
Split brain: condizione clinica indotta dalla resezione terapeutica o danneggiamento del corpo calloso.
Interruzione delle connessioni interemisferiche che comporta un cambiamento nel modo in cui il pz elabora
le info-> sindromi callosali.
Strutture sottocorticali
Tecniche neuroimaging: PET, fRMI, EEG, MEG, e altre
Tempi di risposta: indici di natura comportamentale; registrano il tempo necessario per produrre una risposta
in relazione ad uno specifico compito. Misura indiretta della difficoltà del compito; permettono di
rappresentare in modo peculiare la presenza di processi qualitativamente differenti.
Test WADA: per dominanza interemisferica
Tipi di comunicazione non verbale con differenze
TMS: stimolazione magnetica transcranica, usa proprietà magnetiche. Inibizione temporale e neuronale
Trail making: attenzione selettiva; stato di allerta e orientamento spaziale
Ventricoli cerebrali: contengono fluido cerebrospinale,
Via del tatto: somatosensoriale
Via talamica delle emozioni: comprende la corteccia sensoriale

Document shared on www.docsity.com


Downloaded by: Daniele1994bbc (daniele.ferrari1994@yahoo.it)
Via ventrale visiva: vista what, riconoscimento caratteristiche dello stimolo

Document shared on www.docsity.com


Downloaded by: Daniele1994bbc (daniele.ferrari1994@yahoo.it)
Document shared on www.docsity.com
Downloaded by: Daniele1994bbc (daniele.ferrari1994@yahoo.it)
Document shared on www.docsity.com
Downloaded by: Daniele1994bbc (daniele.ferrari1994@yahoo.it)