Sei sulla pagina 1di 9

Riassunti "Il cervello

fonologico"
Psicologia Del Linguaggio E Della Comunicazione
Università del Salento (UNISALENTO)
8 pag.

Document shared on www.docsity.com


Downloaded by: Catneg (caterina.negro54@gmail.com)
CAPITOLO 1 – FOTOGRAMMI DI UN LUNGO VIAGGIO
Tutto è iniziato quando 7 milioni di anni fa è avvenuta una mutazione genetica che separò gli
scimpanzé dai nostri antenati. Oltre a questo, ha contribuito anche l’andatura bipede, la quale
ha permesso di svolgere attività nuove mai intraprese prima. Con l’Homo Sapiens, quindi, è
comparso per la prima volta il linguaggio, a differenza degli scimpanzé che comunicano
attraverso gesti e semplici vocalizzazioni. A partire dal primo atto di parola, ovvero una
stringa di suoni a cui è stato associato un concetto mentale, è stato possibile iniziare a prendere
coscienza di sé stessi e del mondo, cambiando la storia in modo impensabile.
Un atto di parola dura 250-450 ms. Se diciamo “albero”, si attivano in modo sincronizzato
dei neuroni che, comunicando fra loro, consentono di analizzare il segnale acustico della
parola ed estrarre il concetto ad essa correlato dalla memoria a lungo termine.
Ogni lingua associa ad uno stesso concetto delle combinazioni di suoni differenti. Senza il
segno linguistico non sarebbe quindi possibile condividere con gli altri parlanti le proprie idee
e stati mentali.
La particolarità del linguaggio umano è la cosiddetta doppia articolazione: i singoli suoni che
emettiamo non significano nulla, ma acquisiscono sempre più significato se combinati fra
loro creando sillabe e morfemi, quindi parole, e successivamente gruppi di parole, ovvero i
sintagmi, che raggruppati formano delle frasi.
L’uomo è sato inoltre in grado di pensare senza bisogno del linguaggio, associando pochi
concetti in modo fulmineo. Senza il linguaggio, però, non sarebbe possibile neanche pensare.
L’essere umano è stato quindi l’unico a sviluppare un pensiero simbolico, il quale permette
di rappresentare persone, oggetti eventi e immagini. Gli animali non sono in grado di produrre
pensieri simbolici ma semplici stati di coscienza di tipo primario. Grazie ad un certo tipo di
memoria, l’animale sarà portato ad agire in un determinato modo, ad esempio di fronte a
pericoli. La concettualizzazione animale non è consapevole bensì istintiva. Anche gli animali
sono in grado di distinguere vocali e consonanti delle lingue ma solo dopo molto tempo e
sotto stimoli specifici controllati in laboratorio. I bambini, invece, fanno tutto questo da soli
e in pochissimo tempo. Già durante la gravidanza il feto riesce a distinguere i suoni. Durante
la crescita il bambino affina sempre di più questa abilità facendo dei calcoli probabilistici
molto complessi, individuando le proprietà dei suoni, in quali contesti essi compaiono e in
quale posizione, individuando quindi le sequenze di suoni accettabili nella lingua a cui è
esposto. Durante il primo anno di vita il bambino è aperto a tutte le possibili lingue a cui può
essere esposto, successivamente, dai 12 mesi di vita in poi, il suo cervello si orienta vero la
lingua madre e la sua capacità di acquisizione di una seconda lingua, col tempo, diminuisce
sempre di più e gradualmente. Intorno ai 6 mesi di vita i neonati iniziano già ad articolare le
prime vocali e le prime consonanti, per poi pronunciare sequenze di consonanti e vocali. La
sincronizzazione fra il processo percettivo e quello articolatorio avviene per tentativi ed errori
attraverso il meccanismo detto feedforward, ovvero la verifica che il sistema uditivo fa di
continuo quando il bambino parla: quando farà degli errori, il bambino riproverà e riproverà
fino ad ottenere il risultato di matching.

Document shared on www.docsity.com


Downloaded by: Catneg (caterina.negro54@gmail.com)
CAPITOLO 2 – DAL NEURONE AL LINGUAGGIO
Il cervello non è altro che un agglomerato di cellule dette neuroni, i neuroni sono composti
da ricettori, ovvero corpo e dendriti e trasmettitori, ovvero l’assone. L’assone è avvolto da
una guaina mielinica che permette una trasmissione veloce delle informazioni grazie alla sua
funzione da isolante elettrico. I neuroni comunicano fra loro tramite le sinapsi, le quali
possono essere elettriche o chimiche. Quelle elettriche permettono un passaggio di
informazioni più rapido, quelle chimiche invece funzionano grazie a sostanze chimiche dette
neurotrasmettitori che permettono la comunicazione fra l’assone e i dendriti del neurone
successivo.
Il cervello, insieme al midollo spinale, forma il sistema nervoso centrale (SNC). Nel Snc
abbiamo anche il tronco encefalico, formato da bulbo, ponte e mesencefalo e il cervelletto,
centro di comunicazione motoria ma importante anche per la percezione, connesso ad aree
uditive tramite il talamo. Patologie del cervelletto possono compromettere l’articolazione dei
suoni, provocando un rallentamento nella produzione degli stessi e compromettendo anche la
coordinazione fra laringe e muscoli oro-facciali.
Il sistema nervoso periferico (SNP) è composto da nervi che connettono cervello e midollo
spinale con tutte le altre parti del corpo.
Poco sopra il cervelletto abbiamo talamo, ipotalamo e ipofisi. Il talamo ricopre un ruolo
importante per quanto riguarda i processi sensoriali (eccetto l’olfatto) ed è connesso alla parte
della corteccia motoria che controlla la laringe. Talamo, ipotalamo, amigdala e giro del
cingolo costituiscono il cosiddetto sistema limbico, un’area che controlla il comportamento
istintivo e le emozioni, oltre che ai processi di memorizzazione.
I gangli della base sono composti da nucleo caudato, putamen e globo pallido. La funzione
dei gangli della base è controllare i movimenti interagendo con la corteccia motoria
comunicando con i piani superiori. I GDB giocano un ruolo cruciale nella produzione del
linguaggio dove è richiesto un movimento preciso dei muscoli di faccia, mandibola,
diaframma e lingua. Chi soffre del morbo di Parkinson (dato che attacca i GDB) mostra infatti
difficoltà nel controllo dell’articolazione dei suoni. I GDB sono inoltre coinvolti
nell’apprendimento associativo, ovvero sull’associazione e memorizzazione di due eventi che
si condizionano a vicenda. Danni ai GDB provocano la compromissione del riconoscimento
delle intonazioni.
La corteccia cerebrale è avvolta su sé stessa e possiede delle pieghe chiamate solchi che, se
particolarmente profondi, prendono il nome di scissure. La scissura centrale divide il cervello
in due lobi, ciascuno dei due governa la parte opposta del corpo. Gli emisferi comunicano fra
loro attraverso il corpo calloso. Ciascun emisfero è suddiviso in due lobi.
Abbiamo il lobo frontale in cui troviamo l’area 44 e 45, individuate per la prima volta da
Brodmann, che si occupano della parte motoria del linguaggio (area di Broca) e sono quindi
interessate nella produzione del parlato. L’area 4 è l’area motoria per eccellenza mentre la 6
e la 8 sono premotorie. È da queste zone che vengono controllati i movimenti di lingua, laringe
e di tutti i muscoli coinvolti nella produzione del parlato.

Document shared on www.docsity.com


Downloaded by: Catneg (caterina.negro54@gmail.com)
Nel lobo parietale troviamo la corteccia somatosensoriale coinvolta nella percezione degli
stimoli sensoriali come tatto, senso della posizione, pressione, dolore e temperatura. Inoltre
troviamo anche il giro soprasegmentale e il giro angolare che pare abbiano un ruolo
fondamentale nell’analisi del significato, nell’analisi sillabica di parole e nella formazione
delle parole.
Nel lobo temporale troviamo le aree 41 e 42, ovvero le aree uditive primarie e l’area uditiva
secondaria (22), interessate nel processo di percezione. Nella parte posteriore dell’area 22
troviamo l’area di Wernicke, interessata nell’immagazzinamento delle informazioni in
memoria. Nella parte posteriore all’area di Wernicke vi è un’aoreola chiamata piano
temporale. Lesioni in quest’area provocano l’afasia di conduzione, ovvero la difficoltà nel
ripetere ciò che si è sentito.
Nel lobo occipitale, invece, avviene l’elaborazione degli stimoli visivi che arrivano dalla
retina e dal nervo ottico.

CAPITOLO 3 – DAL SUONO AL CERVELLO E RITORNO


Quando parliamo prendiamo fiato velocemente e poi rilasciamo uniformemente in base alle
sequenze di parole e frasi che vogliamo realizzare. L’aria lascia i polmoni attraverso la trachea
per poi passare nella laringe, in cui ci sono le corde o pliche vocali.
Quando parliamo si genera una forma d’onda che ha come caratteristiche frequenza (in Hz) e
ampiezza (in dB). Tutti gli ostacoli che il suono incontrerà nel nostro apparato fonatorio
modificano la forma d’onda rendendola complessa. Le onde complesse possono essere
periodiche o aperiodiche. Le vocali, semivocali e approssimanti sono un esempio di segnale
periodico in quanto corrisponde ad un elemento sonoro e continuo. I suoni sordi come [s], ad
esempio, sono tipicamente aperiodici.
Le vocali sono suoni sonori prodotti grazie alla vibrazione delle pliche vocali e il
coinvolgimento di labbra e lingua. È possibile identificare le varie vocali tracciando un
trapezio vocalico e immaginando che la parte destra del trapezio corrisponda alla parte
posteriore della bocca mentre il lato destro corrisponde al lato anteriore. Immaginando di
posizionare un pallino sul centro della lingua, la posizione che questo assumerà durante la
produzione della vocale determinerà la sua posizione all’interno del trapezio. Esse possono
quindi essere categorizzate in base al loro essere anteriori, centrali e posteriori oppure alte,
medie o basse. In italiano abbiamo un massimo di 7 vocali, sebbene in alcune varietà ne
vengano usate solo 5. Nel toscano, infatti, esiste una differenza fra la E aperta e la E chiusa e
fra la O aperta e la O chiusa. Questa differenza dei due foni determina una differenza nel
significato di due parole apparentemente uguali come [‘peska] (verbo pescare) e [‘pƐska]
(frutto).
Le consonanti vengono prodotte grazie all’interruzione del flusso d’aria all’interno
dell’apparato fonatorio, partendo dalla laringe fino ad arrivare alle labbra. Abbiamo le
consonanti occlusive, in cui vi è una fase di impostazione e di tenuta e una fase di rilascio “a
scoppio” del flusso d’aria, come ad esempio la T che è una occlusiva sorda alveodentale,

Document shared on www.docsity.com


Downloaded by: Catneg (caterina.negro54@gmail.com)
prodotta con occlusione creata dalla lingua sui denti e gli alveoli. Abbiamo le fricative come
S, prodotte tramite un restringimento dello spazio in cui deve passare l’aria, provocando un
fruscio. Le affricate, caratterizzate da una fase occlusiva e una fricativa, come C e G, le laterali
come L, le laterali fricative come GL e le vibranti come R. Le consonanti vengono distinte in
base al luogo di articolazione (dove si effettua l’occlusione) e al modo di articolazione, ovvero
se sono fricative, occlusive, ecc..
Il segnale attraversa l’orecchio esterno costituito dal padiglione auricolare esterno e dal canale
uditivo esterno, il quale riceve le molecole d’aria “agitate” in ingresso; successivamente passa
nell’orecchio medio costituito da tre ossicini chiamati martello, incudine e staffa che
trasmettono il segnale all’orecchio interno costituito dalla coclea che trasforma il segnale
meccanico in segnale elettrico da inviare poi al cervello. All’interno della coclea vi è un
liquido che si dirama in 3 canali, uno dei quali è la membrana basilare che a sua volta contiene
l’organo del corti. I 3 ossicini quindi amplificano il suono e lo traducono in energia
meccanica. La loro vibrazione crea delle onde nel liquido cocleare, le quali si propagano fino
all’organo del corti dove ci sono le cellule ciliate esterne e interne. Le cellule ciliate, vibrando,
liberano il glutammato, un neurotrasmettitore, attivando le fibre afferenti che portano il
segnale al SNC.

CAPITOLO 4 – DI FONI, FONEMI E INTERFACCE NEURALI

La decodifica delle proprietà spettro-acustiche genera rappresentazioni mentali basate su delle


categorie di suoni. Dopo che l’input è stato tradotto in categorie discrete avviene la
rappresentazione mentale del concetto espresso da una parola, ad esempio. I suoni che le
lingue usano per distinguere parole diverse si chiamano fonemi e si differenziano da tutti gli
altri suoni, detti foni. I fonemi, da soli, sono privi di significato; ne acquistano uno nel
momento in cui si combinano con unità maggiori, come i morfemi (che sono provvisti di
significato).
Esistono 3 livelli di rappresentazione dei suoni: acustico, fonetico e fonologico. All’estremo
del livello acustico, il segnale viene riprodotto fedelmente nella coclea; all’estremo opposto,
invece, abbiamo le rappresentazioni fonologiche che sono collegate all’acquisizione della
lingua madre. Durante il processo di acquisizione, differenze acustiche che hanno rilevanza
nella lingua madre generano delle rappresentazioni mentali forti. Durante il primo anno di
vita avviene un graduale passaggio da rappresentazioni fonetiche a fonologiche. Il risultato è
una rappresentazione più forte dei foni nativi e una meno forte dei foni non nativi. I suoni
nativi sono detti prototipici.
Quando si parla di foni, si parla di unità linguistiche che, all’interno di una stessa parola,
possono essere intercambiati fra loro senza produrre una differenza di significato. Ad
esempio, i due foni [k] e [gorgia toscana] possono essere interscambiabili per un parlante
toscano, in una parola come coca cola, in cui abbiamo una C seguita da vocale o in posizione
intervocalica. In questo caso siamo davanti alla presenza di un allofono, ovvero di un suono

Document shared on www.docsity.com


Downloaded by: Catneg (caterina.negro54@gmail.com)
diverso per rappresentare lo stesso fonema, ovvero /c/. Due fonemi diversi, invece, all’interno
di una stessa parola producono una differenza di significato, andando a creare le cosiddette
coppie minime. Alcuni esempi di coppie minime sono /cane/, /pane/, /lane/, /tane/ e cosi via…
Ognuna di queste parole ha un significato diverso determinato dall’unico elemento che le
differenzia, ovvero il fonema iniziale.
I fonemi però non sono la parte più piccola del linguaggio, i quanto possono essere scomposti
in base ai loro tratti distintivi, ovvero le proprietà articolatorie che li definiscono. I fonemi /p/
e /b/ condividono diversi tratti, ovvero sono entrambi suoni creati tramite una occlusione a
livello bilabiale, tuttavia uno è sordo e uno è sonoro. I tratti distintivi non si differenziano fra
lingua e lingua ma sono universali in quanto tutti gli homo sapiens sono in grado di produrre
i suoni del linguaggio umano.
Che differenza c’è fra tratti distintivi e gesti articolatori? Secondo alcuni linguisti non tutte le
unità linguistiche elaborate dal cervello corrispondono a tratti distintivi. Secondo il modello
Analysis by Synthesis, l’analisi iniziale del segnale sarebbe coadiuvata dalle informazioni
fonetico-fonologiche contenute nella memoria a lungo termine. Viene fatta, quindi, una sorta
di comparazione fra le informazioni contenute nel segnale e quelle già presenti in memoria
inerenti al proprio sistema linguistico. Questa analisi avviene sul segnale, quindi dal basso
verso l’alto (bottom-up) e dall’alto verso il basso (top-down) ottenuta quando le informazioni
in memoria vengono comparate con il segnale in uscita durante la produzione. Il cervello di
un bambino fa questa operazione in modo naturalissimo. La rappresentazione categoriale
viene ottenuta andando a ricercare in memoria quali sono le informazioni articolatorie
necessarie a produrre un determinato suono.
Secondo la Motor Theory of Speech Perception, invece, giocano un ruolo cruciale le
informazioni relative ai comandi motori. L’oggetto della comparazione non è il segnale
acustico. I bambini hanno infatti un’abilità innata nel memorizzare i gesti fonetici del tratto
vocale durante la produzione di suoni, come ad esempio il movimento della lingua o delle
labbra. Pertanto, durante la decodifica del segnale, è necessario un collegamento fra
percezione e produzione. In questo caso l’oggetto della comparazione non sono i tratti
distintivi ma i gesti articolatori. Anche questa teoria presuppone un’analisi bottom-up e top-
down.

CAPITOLO 5 – DAI SEGNALI ELETTROMAGNETICI AI TRATTI DISTINTIVI


Grazie alla elettroencefalografia e alla magnetoencefalografia è possibile misurare l’attività
elettrica generata dalle sinapsi, attraverso cui i neuroni si scambiano informazioni.
L’ EEG consiste nel mettere sullo scalpo del soggetto una serie di elettrodi in punti specifici,
utilizzando un sistema di riferimento internazionale; tramite essi è possibile misurare i
cosiddetti potenziali evento-correlati (ERP). Gli ERP rappresentano delle modificazioni del
segnale elettrico in seguito ad uno stimolo, che sia esso visivo o uditivo. L’EEG non è un
esame invasivo e non comporta nessun rischio. Le onde EEG vengono ottenute facendo la
media di tutti i segnali temporalmente correlati agli stimoli. I segnali così ottenuti sono

Document shared on www.docsity.com


Downloaded by: Catneg (caterina.negro54@gmail.com)
caratterizzati da forme d’onda, generati a partire da 50 a 1000 ms dallo stimolo, e possiedono
una polarità che può essere negativa (picco in alto) e positiva (picco in basso). Le polarità
vengono indicate con una lettera, quindi P o N, seguita da un numero che corrisponde alla
latenza e cioè al tempo che passa dalla somministrazione del segnale alla risposta elettrica
delle sinapsi. Avremo quindi varie componenti, la N100, P300, N400, P600, e così via…
La magnetoencefalografia, invece, consente di misurare il campo magnetico degli ERP
tramite dei sensori posizionati su un casco. Inoltre, risulta più efficiente in quanto l’attività
elettrica (al contrario di quella magnetica) misurata con la EEG risulta alterata dopo il
passaggio attraverso le ossa craniche.
Una componente che inizia ad essere di nostro interesse è la N100, la quale ci dice che è stata
registrata un’informazione a livello cerebrale a partire dai 70 ai 150 ms dalla
somministrazione dello stimolo. L’indagine di questa componente ci permette di capire come
i fonemi vengono decodificati nelle aree uditive.
Altra componente di nostro interesse è la Mismatch Negativity (MMN), ottenuta utilizzando
un paradigma chiamato oddball: vengono somministrati una serie di stimoli uguali detti
standard e alcuni stimoli inusuali detti devianti. La MMN si verifica a circa 100-250 ms dallo
stimolo, in concomitanza con la N100 ed è anch’essa con polarità negativa, ottenuta
sottraendo l’onda generata dallo stimolo standard a quella generata dallo stimolo deviante.
Durante la somministrazione degli stimoli, il cervello fa una predizione riguardo gli stimoli
successivi, e quando questa predizione verrà smentita dallo stimolo deviante, il risultato sarà
una MMN. L’ampiezza della MMN è sensibile al ruolo contrastivo che hanno i suoni rispetto
al sistema fonologico del parlante. Nella memoria a lungo termine, quindi, sono presenti
tracce solide dei fonemi nativi che possono essere misurate attraverso la MMN.
È stato fatto un esperimento per quanto riguarda la discriminazione delle vocali /e/ e /Ɛ/ nel
salentino. In dialetto salentino, il fonema / Ɛ/ quando è seguito da una vocale atona come la
/i/, perciò /’pƐdƐ/, ovvero “piede” al singolare, al plurale diventa /’pedi/ al plurale. Si è notato
che la discriminazione del fonema è più veloce rispetto alla discriminazione dell’allofono, in
quanto quest’ultimo richiede uno sforzo neuronale in più.
Per quanto riguarda l’acquisizione della L2, invece, è stato fatto uno studio riguardo
l’apprendimento della seconda lingua in un contesto formale e in un contesto di immersione.
Apprendere una L2 in un contesto di immersione mostra una migliore capacità di
discriminazione, quasi pari a quella dei parlanti nativi. L’apprendimento in un contesto
formale, invece, limita la memorizzazione a lungo termine dei foni non nativi: studiando due
gruppi di studenti dell’università del salento che hanno scelto l’inglese come prima lingua
(rispettivamente del primo anno e del quinto anno) è emerso che gli studenti non mostrano
nessuna differenza nella generazione della MMN durante i compiti di discriminazione dei
suoni dell’inglese.

Document shared on www.docsity.com


Downloaded by: Catneg (caterina.negro54@gmail.com)
CAPITOLO 6 – PERCEPIRE È PRODURRE E PRODURRE È PERCEPIRE
Dietro gli ERP ci sono dei movimenti oscillatori che indicano un’attività neuronale di fondo
che non deve essere ignorata in quanto è intrinseca ai processi cognitivi temporalmente
collegati agli stimoli. Ciò significa che prima dello stimolo la frequenza dei cicli oscillatori è
normale, subito dopo lo stimolo, invece, essa viene riorganizzata intorno a valori specifici.
Questa riorganizzazione genera delle oscillazioni evento-correlate. I ritmi oscillatori si
possono registrare direttamente dalla corteccia attraverso l’elettrocorticografia: si tratta di una
tecnica molto invasiva che può essere utilizzata in casi di patologie come l’epilessia e consiste
in un intervento chirurgico in cui vengono posizionati degli elettrodi direttamente sulla
corteccia. Il paziente rimane sveglio e collaborativo e questo permette dunque di fare degli
esperimenti anche in ambito linguistico.
La durata delle unità che compongono il linguaggio corrisponde a determinate frequenze dei
ritmi oscillatori. Le unità fonetico-fonologiche sono associate ai ritmi gamma e beta, le sillabe
e le parole ai ritmi theta e le frasi ai ritmi delta. Gli elettrodi mostrano che ci sono dei gruppi
di neuroni che si attivano in base al modo di articolazione di determinate consonanti e vocali;
c’è un gruppo di neuroni che elabora le occlusive, fricative e le affrica e un altro che elabora
le laterali, nasali, approssimanti e vibranti. Questo combacia perfettamente con la teoria
analysis by synthesis dato che il cervello fa delle ipotesi sul segnale in entrata e le compara
con le informazioni contenute in memoria. I gruppi neuronali si attivano in base ai tratti
distintivi che caratterizzano il suono di input. I ritmi gamma, infatti, che sono quelli implicati
nella categorizzazione delle unità fonologiche, risultano attivi nelle aree sensomotorie in cui
si attivano i gruppi neuronali in base ai tratti distintivi delle consonanti (labiali, labiodentali,
alveolari, postalveolari) e delle vocali (arrotondamento delle labbra e posizione della lingua).
In conclusione, percezione e produzione sono da considerare due processi collegati fra loro,
basti pensare al bambino che, durante l’apprendimento, trasferisce l’apprendimento percettivo
del linguaggio al dominio articolatorio.
La stimolazione magnetica transcranica è una tecnica non invasiva che consente, tramite una
bobina posizionata direttamente sullo scalpo che crea un campo magnetico, di modificare
l’attività elettrica a livello di corteccia cerebrale. È possibile sia inibire che facilitare l’attività
neuronale in modo da studiare le funzioni cognitive. Gli impulsi somministrati possono essere
singoli o ripetuti. La stimolazione ad impulso singolo permette di dimostrare modifiche
nell’eccitabilità del sistema motorio, mentre la stimolazione ripetitiva consente una
momentanea interruzione dell’attività del sistema motorio, consentendo di indagare su altri
aspetti. Sentire frasi come gli scioglilingua o delle parole con delle polivibranti attiva
maggiormente la corteccia motoria di sinistra che controlla la lingua: questo è in linea con le
predizioni della motor theory of speech perception.
La risonanza magnetica funzionale permette di indagare sull’intensità del flusso sanguigno
nelle varie aree del cervello in concomitanza di determinati stimoli uditivi. Il grande limite di
questo strumento, tuttavia, è che il cervello è in grado di fare più cose contemporaneamente,
perciò risulta difficile capire se l’afflusso sanguigno è diretto verso le aree interessate dallo
studio.

Document shared on www.docsity.com


Downloaded by: Catneg (caterina.negro54@gmail.com)
Il cervello lavora persino quando c’è silenzio. Se a dei soggetti si chiede di non fare nulla e
non gli si somministra alcuno stimolo, si attiveranno ugualmente le aree uditive, motorie e
somatosensoriali. Questo perché il cervello deve essere sempre attivo e pronto al controllo
dei processi di percezione e produzione dei suoni.

Document shared on www.docsity.com


Downloaded by: Catneg (caterina.negro54@gmail.com)

Potrebbero piacerti anche