Sei sulla pagina 1di 43

UNIVERSITA’ DEGLI STUDI DI MILANO BICOCCA

Facoltà di Psicologia
Corso di Laurea in Scienze della Comunicazione

ASPETTI NEUROFISIOLOGICI DELL’ ESPERIENZA


MUSICALE

Relatore: Chiar. ma Prof. ssa Luisa Girelli

Tesi Di Laurea di:


David Edoardo Carollo
Matr. 043723

Anno Accademico 2006/2007


Numero caratteri: 83669
“ La musica è una cosa strana, oserei dire che è un miracolo,
perché sta a metà strada tra pensiero e fenomeno, fra spirito e
materia, una storia di nebuloso mediatore uguale e diverso da
ciascuna delle cose che media, spirito che necessita di una
manifestazione nel tempo e materia che può far a meno dello
spazio. ”

Heinrich Heine

2
Indice

Introduzione ____________________________________________________________4
1. Interazione uomo-suono: cenni fisici e fisiologici ______________________________6
1.1. Natura degli stimoli acustici _________________________________________________ 6
1.2. Struttura del sistema uditivo_________________________________________________ 7
2. Origini, natura e sviluppo della competenza musicale _________________________11
2.1. Esperienza prenatale _____________________________________________________ 11
2.2. Il canto materno _________________________________________________________ 12
2.3. Sviluppo e plasticità cerebrale ______________________________________________ 14
2.4. Valutazione dell’ abilità musicale ____________________________________________ 16
2.5. L’ orecchio assoluto ______________________________________________________ 19
2.6. I savants musicali________________________________________________________ 20
3. Organizzazione cerebrale e funzione musicale ______________________________22
3.1. Modularità e localizzazione funzionale________________________________________ 22
3.2. L’ elaborazione dell’ informazione musicale____________________________________ 24
3.3. Le amusie _____________________________________________________________ 25
4. Musica e linguaggio: correlazione ed interdipendenza e di due abilità universali _____30
4.1. Afasia senza amusia e amusia senza afasia ___________________________________ 32
4.2. Specializzazione e dominanza emisferica _____________________________________ 33
4.3. Correlati neurali _________________________________________________________ 36
Conclusioni ____________________________________________________________37
Bibliografia ____________________________________________________________38
Sitografia______________________________________________________________42

3
Introduzione

Se guardiamo con attenzione al continuo fiorire di interesse che avviene nello studio
del rapporto uomo-suono, ci accorgiamo di quanti settori disciplinari si vadano sempre più,
e con maggiore impegno, affacciandosi all’analisi dei problemi che solleva la
comunicazione sonora, ritmica, musicale (e tutta l’area dei linguaggi e della
comunicazione non verbale).
E se dovessimo ricordare alcuni di questi settori noteremo come questi interessi
abbraccino uno spazio amplissimo della conoscenza umana e della ricerca più moderna:
la fetologia, la neonatologia, la neurofisiologia, la neuropsichiatria infantile, la pediatria, la
psicologia dell’età evolutiva, quella dinamica e sociale, la musicoterapia, la pedagogia e la
didattica, l’etologia e la psicologia comparata, la psicoanalisi, l’antropologia culturale e
l’etnologia, l’elettronica e la computeristica applicata al suono, la semiologia, la fonologia e
molte altre. E non deve sorprenderci tale fatto, perché lo studio del rapporto uomo-suono
racchiude, esprime e dà luogo a un pensiero complesso e a una visione transdisciplinare e
multidisciplinare.

Fig.1: Schema dello studio del suono nella sua caratterizzante interdisciplinarietà (fonte dell’ immagine:
Hodges, 1996).

4
Musica, materiali musicali, oggetti, eventi sonori… la materia su cui si esercita la nostra
percezione uditiva è di varia composizione e quindi anche di difficile delimitazione, sia
perché dicendo musica ci si riferisce ad una miriade di prodotti musicali, sia perché la
nostra percezione uditiva non si esercita solo su prodotti culturali finiti, ma anche su quel
sottofondo sonoro (suoni della natura, del linguaggio verbale, ecc.) che è un vero e proprio
“milieu sonore” in cui la nostra vita scorre.
La complessa organizzazione dell’esperienza musicale a livello del SNC (percezione,
memoria, attenzione, emozione), la sua specifica segregazione, la centralità della musica
nel processo di sviluppo dell’individuo e della specie, così come i risultati ottenuti dai più
recenti studi sulle capacità di percezione musicale dei primati non umani, possono aiutarci
a comprendere la natura delle abilità musicali, il loro carattere innato o acquisito e la loro
funzione.
Nel presente elaborato verrà effettuata una panoramica di analisi sugli aspetti
neurofisiologici e psicologici della percezione e delle abilità musicali, sulla loro natura e su
come si sviluppano, su come possano essere ostacolate o modificate da eventuali disturbi
cognitivi e su come esse agiscano nell’ intersezione e nella divergenza risultanti dal
confronto con un’ altra grande abilità di carattere universale, quella linguistica.

5
1. Interazione uomo-suono: cenni fisici e fisiologici

1.1. Natura degli stimoli acustici

I fenomeni acustici consistono in fenomeni oscillatori della materia e, contrariamente


alle onde elettromagnetiche, non si propagano nel vuoto e necessitano per la loro
propagazione di un mezzo elastico. L’orecchio umano percepisce questi fenomeni per un
intervallo di frequenze che va dai 20 Hz ai 20 kHz. Le oscillazioni non percepibili che si
trovano al di sopra dei 20 kHz vengono chiamate ultrasuoni, mentre al di sotto dei 20 Hz
infrasuoni; il suono si propaga nel mezzo elastico tramite onde di pressione.
La sorgente sonora, cioè un corpo in vibrazione, trasmette sollecitazioni di pressione al
mezzo, mediante una legge matematica in funzione del tempo. I fenomeni acustici
vengono espressi mediante la scala logaritmica dei decibel (dB), che fa riferimento alla
pressione acustica, e sono caratterizzati da due grandezze: pressione acustica e
frequenza. La prima dipende dalla pressione esercitata dall’onda sonora sulle particelle
del mezzo di propagazione, la seconda dal numero d’oscillazioni che avvengono al
passaggio dell’ onda in un secondo.

Fig. 2 : Relazione tra pressione acustica e frequenza, e delimitazione dell’area della sensazione uditiva che
racchiude tutti i suoni percepibili dall’udito umano; superiormente essa è limitata da una curva detta soglia
del dolore e inferiormente dalla curva chiamata soglia d’ udibilità (fonte dell’ immagine: www.unipr.it ).

6
Inoltre, caratteristica saliente delle onde sonore è la forma d'onda stessa, della sua
complessità, che rende in gran parte ragione delle differenze cosiddette di timbro che si
percepiscono tra diverse tipologie di suono. La differenza tra suoni e rumori risiede nella
natura delle loro vibrazioni, rispettivamente regolare nei primi e irregolare nei secondi.
Anche se vi sono innumerevoli definizioni relative ad essa, possiamo considerare la
musica come un particolare artefatto umano, prodotto direttamente o indirettamente,
avente molte finalità, costituito da strutture informative veicolate da energia acustica e
caratterizzata da elementi come ritmo1, melodia2, armonia 3e timbro4.
Il primo passo verso l’udito è la cattura dell’energia meccanica delle onde di pressione,
la sua trasmissione all’orecchio interno e la trasduzione in segnale nervoso, compiuta
dalle cellule ciliate dell’ orecchio interno.

1.2. Struttura del sistema uditivo

Gli organi preposti alla ricezione dei segnali acustici ed alla loro successiva
trasformazione in impulsi nervosi, costituisce l’apparato dell’ udito, composto dall’orecchio
esterno, medio ed interno.

Fig. 3: Anatomia interna dell’ orecchio umano (fonte dell’ immagine: www.rizzolilarousse.it ).

1
Movimento ordinato dei suoni, la cui variazione è generata da variazione di durate e accenti musicali.
2
Termine che si riferisce ad una successione di intervalli tra suoni di differente altezza, la cui struttura
genera una figura musicale di senso compiuto.
3
Aspetto della musica che riguarda l’ emissione simultanea di più suoni insieme e la loro relazione.
4
Qualità musicale che permette di distinguere quale strumento o corpo ha prodotto il suono.

7
Il padiglione auricolare ha la funzione di ricevere gli stimoli sonori e di localizzare la
provenienza degli stimoli stessi, la cui estremità interna confluisce nel condotto uditivo,
lungo circa 2.5cm; padiglione auricolare e condotto uditivo esterno costituiscono l’
orecchio esterno. Gli stimoli acustici, poi, raggiungono una membrana elastica molto
sensibile, il timpano, il quale, vibrando secondo la qualità ed intensità degli stimoli che
riceve, produce dei movimenti riflessi a carico di tre minuscoli ossicini, martello, incudine e
staffa, accolti nella cavità timpanica dell’ orecchio medio.
La tuba di Eustachio costituisce un canale che si protende dalla cassa del timpano sino
alla faringe e pone in comunicazione gli organi dell’orecchio medio con l’ambiente esterno.
Il martello, combaciando con la parete interna del timpano, trasmette il movimento
vibratorio all’incudine ed alla staffa a cui è collegato mediante legamenti. La staffa compie
una serie di movimenti “a mo’ di stantuffo” che imprime alla base della coclea, in
prossimità della finestra ovale, la quale mette in comunicazione l’orecchio medio con
quello interno; essa è costituita da una formazione ossea avvolta su se stessa in una
spirale divisa longitudinalmente da due membrane da cui derivano tre condotti: la rampa
vestibolare , la rampa timpanica e la rampa media. La base interna della rampa media è
costituita dalla membrana basilare la quale, ripiegandosi su se stessa, forma una specie di
tettoia, la membrana tectoria al di sopra dell’ organo del Corti. L’azione meccanica della
staffa che preme ripetutamente contro la finestra ovale, provoca un’onda di pressione
nella perilinfa della rampa vestibolare della coclea, la quale si ripercuote sulla membrana
basilare e tectoria i cui movimenti provocano oscillazioni delle cellule cigliate dell’organo
del Corti. Queste ultime, stimolando le cellule acustiche ad esse collegate, generano
scariche di impulsi raccolti dalle numerosissime terminazioni nervose ed inviate alla
corteccia cerebrale tramite i nervi acustici dove, opportunamente decodificati ed elaborati,
assumeranno poi il significato di suoni come noi lo intendiamo.
Nel sistema uditivo non esiste una singola via principale diretta alla corteccia, che sia
comparabile alla via reticolo-genicolo-striata del sistema visivo, piuttosto vi è una
complessa rete di vie uditive. Gli assoni del nervo uditivo formano sinapsi con i neuroni dei
nuclei cocleari ipsilaterali, dai quali molte proiezioni conducono ai nuclei olivari superiori,
che si trovano allo stesso livello.

8
Gli assoni dei neuroni olivari proiettano attraverso il lemnisco laterale ai collicoli
inferiori, dove formano sinapsi con i neuroni che proiettano ai nuclei genicolati del talamo,
che a loro volta proiettano alla corteccia uditiva; i segnali provenienti da ciascun orecchio
sono trasmessi sia alla corteccia uditiva ipsilaterale sia a quella controlaterale.

Fig. 4: Trasmissione dell’informazione alla corteccia uditiva ( da http://web.bvu.edu ).

Nell’ uomo la corteccia uditiva primaria (A1, corrispondente all’area 41 di Brodmann) è


localizzata all’ interno della scissura laterale di Silvio, ed è in gran parte circondata dalla
corteccia uditiva secondaria. Due importanti principi su cui essa è basata. In primo luogo,
come altre aree della corteccia cerebrale, anche la corteccia uditiva primaria è organizzata
in colonne funzionali; tutti i neuroni che si incontrano penetrando verticalmente la corteccia
con un microelettrodo rispondono efficacemente ai suoni appartenenti al medesimo
intervallo di frequenze. In secondo luogo , come la coclea, anche la corteccia uditiva
primaria è organizzata tonotopicamente: le regioni più anteriori della corteccia uditiva
rispondono alle alte frequenze , mentre le regioni più posteriori rispondono a quelle basse.

9
Fig. 5: Localizzazione e organizzazione della corteccia uditiva primaria (fonte dell’ immagine:
www.blackwellpublishing.com ).

Oltre alla A1, altre aree corticali localizzate sulla superficie superiore del lobo
temporale rispondono a stimoli uditivi. Alcune di queste aree uditive di ordine superiore
sono tonotopicamente organizzate, mentre altre sembrano non esserlo.
La musica è un’esperienza estremamente complessa, la cui comprensione non si
risolve nel fenomeno percettivo. Il contributo della memoria, ad esempio, è fondamentale
sia perché l’esperienza musicale permanga nel tempo, consentendo così il processo
dell’apprendimento, sia perché si tratta di un processo altamente strutturato che richiede il
contributo di differenti forme di conoscenza.
La memoria musicale, che dal punto di vista anatomico ha sede soprattutto nelle aree
uditive secondarie e nelle aree della corteccia frontale (dorsolaterale e inferiore), è un
sistema di rappresentazione percettiva che fornisce informazioni circa forma e struttura
degli eventi, ma non il loro significato che, a differenza del linguaggio che possiede già un
sistema semantico prefissato, avviene attraverso altri sistemi integrativi, quali memoria
associativa ed analisi emozionale. La risposta affettiva alla musica sembrerebbe legata,
inoltre, più ad elementi percettivi emozione-specifici (ad esempio “modo” maggiore o
minore, “tempo” veloce o lento) che ad un suo accesso diretto alle regioni sottocorticali ed
al sistema limbico (Peretz, Zatorre, 2005).

10
2. Origini, natura e sviluppo della competenza musicale

Come per quanto riguarda ogni altra abilità (ad esempio l’ acquisizione delle abilità
linguistiche), anche sul modo in cui viene a svilupparsi la competenza musicale possono
esservi sono opinioni diverse. Da sempre gli studi della Genetica Comportamentale si
sono interessati allo studio dell’ influenza e dell’ interazione tra i fattori ereditari da una
parte, e quelli dell’ ambiente dall’ altra, e sulla relativa incidenza degli stessi sulla valenza
di una determinata capacità o competenza, trovando la probabile risposta proprio a metà
del continuum intercorrente tra ambedue i fattori.
Le persone ascoltano, memorizzano, eseguono, creano e reagiscono alla musica e,
poiché si tratta di attività che possono essere apprese, esse vengono viste come “abilità”.
Anche se la composizione e l’esecuzione vengono universalmente riconosciute come
abilità particolarmente complesse, si deve anche ricordare che attività come fischiettare
una melodia familiare o rilevare una nota 5stonata in una melodia mai sentita prima sono
anch’esse abilità complesse, capaci di gettare luce sulla natura stessa della musica stessa
e su come essa agisce con e sull’essere umano.

2.1. Esperienza prenatale

La vita del bambino, fin dai primissimi tempi, ancora nella vita intrauterina, è immersa
nei suoni, in un habitat acustico e sonoro incredibilmente intenso. Il bambino è immerso
nel liquido amniotico, e questo implica suoni, rumori, fruscii e ritmi, come ad esempio il
battito cardiaco materno, i suoi movimenti respiratori, le sue vibrazioni.
Lo studio dello sviluppo delle capacità di elaborazione musicale nei bambini richiede
paradigmi sperimentali particolari che permettono di rilevare la presenza di percezione e di
elaborazione musicale, senza l’utilizzo di una mediazione verbale. Essi consentono non
solo la dimostrazione del sistema percettivo e cognitivo ben prima della nascita, ma anche
come la stimolazione uditiva prenatale possa avere degli effetti sul comportamento del
neonato.
Diverse ricerche (Spence, De Casper, 1986) hanno mostrato come il feto comincia a
rispondere a suoni e rumori a partire dal terzo mese di gravidanza; al momento della

5
Segno con cui si rappresentano i suoni usati in musica, e fondamento base su cui essa si articola; le note
rappresentano le lettere dell’ alfabeto musicale.

11
nascita la percezione visiva è ancora molto confusa e il riconoscimento degli stimoli
ambientali si deve immediatamente basare sull’udito (e sull’olfatto). La cosa straordinaria è
che la capacità dei neonati va ben oltre il “semplice” riconoscimento della voce della
madre: alcuni studi hanno dimostrato come una storia letta (o una canzone cantata)
ripetutamente durante il terzo trimestre di gravidanza venga preferita dal bambino dopo la
sua nascita rispetto ad una mai sentita. Per misurare questa preferenza viene misurato il
tempo di suzione, dimostratosi infatti superiore nel caso del “conosciuto” rispetto al
“nuovo” (Spence, De Casper, 1986).
Ancora nell’utero il futuro nato sembra quindi estremamente sensibile alla struttura
acustica del suono, ossia a quella che i linguisti chiamerebbero prosodia6. In effetti non è il
senso della storia ciò che viene ricordato, ma il tono della voce, il suo contorno, la sua
intensità, i respiri e le pause. Per quanto riguarda la musica, i risultati sembrano mostrare
che la musica non solo può essere appresa dal feto, ma può anche essere ricordata dopo
la nascita; è stato infatti dimostrato come neonati di una settimana preferiscano la
ninnananna che la mamma ha cantato loro (o anche la sigla musicale della serie televisiva
seguita da lei) durante la gravidanza; inoltre, con la misura del battito cardiaco, esse
sembrano avere un maggiore effetto calmante rispetto ad altre mai sentite prima (Hepper,
1991). Questi risultati mostrano come il feto, perlomeno all’ottavo mese, abbia capacità di
analisi acustica e di memoria assai più sviluppate di quanto si sarebbe potuto immaginare.

2.2. Il canto materno

Il canto materno, che è la prima vera e propria esperienza musicale del neonato,
consiste principalmente in un repertorio di “ninne-nanne”, filastrocche e canzoni finalizzate
al gioco e alla comunicazione delle emozioni. La mamma che canta al bambino adotta uno
stile particolare, diverso da quello utilizzato in altri contesti musicali: esso è caratterizzato
da un registro (tono della voce) più alto, da un tempo lento e dall’aumento di qualità
espressive della voce, e varia anche in relazione all’età del bambino (Bergeson, Trehub,
1999).
Il canto materno riesce ad aumentare il livello di attivazione (arousal) del bambino.
Anche usando una registrazione, i neonati ascoltano per un tempo significativamente più

6
Caratteristica del linguaggio parlato relativa ad intonazione, ritmo e accento dello stesso.

12
lungo la registrazione di un canto femminile in stile materno rispetto ad uno in stile
normale ed informale (Trainor,1996).
Trehub (2001) ha condotto diversi studi, insieme ai suoi collaboratori, con lo scopo di
indagare l'importanza del canto rivolto ai bambini. Questi studi hanno preso in esame le
ninnananne, rilevando un grado sorprendente di uniformità transculturale in melodie, ritmi
e tempi. Trovarono che i bambini tendevano a seguire registrazioni audiovisive delle loro
madri molto più a lungo quando queste cantavano piuttosto che quando parlavano:
bambini di sei mesi in condizioni di tranquillità psicologica rivelavano una reazione
maggiore (rivelata dalla produzione di cortisolo salivare) al canto della madre piuttosto che
alle sue espressioni verbali, segno dell'importanza del canto come strumento di sostegno
emozionale.
Il fatto che tali reazioni non siano interamente un riflesso della socializzazione è
dimostrato dalle risposte fisiologiche dei neonati,come testimonia il lavoro che Standley
(1998; 2003) ha condotto all’interno di unità di terapia intensiva neonatale. Uno dei suoi
studi dimostrò che il canto di una ninnananna da parte di una voce femminile accelerava
notevolmente lo sviluppo delle capacità di suzione nei neonati prematuri, il che a sua volta
si traduceva in significativi aumenti di peso. Fu inoltre notato che la musica stabilizzava i
livelli di saturazione dell'ossigeno, fatto che accelera lo sviluppo fisico dei bambini
prematuri. Alcuni di essi furono sottoposti ad una combinazione di musica e massaggi e
vennero dimessi dall'ospedale in media undici giorni prima rispetto ai neonati del gruppo
di controllo.
Non solo questi risultati sono di notevole interesse teorico, ma hanno anche una
ricaduta pratica, indicando che i professionisti della salute potrebbero aiutare le madri
incoraggiandole a cantare ai propri piccoli. Street (2003) suggerisce che, se si aiutassero
le madri a sviluppare una maggiore consapevolezza delle attitudini musicali dei loro
bambini, esse sarebbero invogliate a cantare ancora più spesso. Questo a sua volta
infonderebbe un senso di benessere sia nella madre che nel piccolo, rafforzerebbe la loro
complicità ed accrescerebbe il contributo della madre allo sviluppo del figlio.
Trehub (2001) è ancora più esplicita in merito all'importanza biologica del canto
materno: grazie ai suoi effetti positivi sull'umore del bambino, il canto materno potrebbe
contribuire alla sua crescita e sviluppo favorendo l'alimentazione, il sonno e persino
l'apprendimento. Il lungo periodo in cui i bambini sono indifesi crea intense pressioni
selettive sui genitori affinchè si impegnino nel curarli e sugli stessi bambini affinchè
adottino comportamenti che premino tale impegno. Addormentarsi alla melodia di una

13
ninnananna o cadere in uno stato quasi estatico in risposta ad altre esibizioni canore
potrebbe essere un'adeguata ricompensa per gli sforzi materni. In generale, le
conseguenze positive del canto, che si tratti di riduzione del pianto, di induzione del sonno
o di uno stato d'animo favorevole, contribuiscono al benessere del bambino e allo stesso
tempo incoraggiano il comportamento materno.
Infine, studi recenti permettono di ipotizzare che il canto possa aiutare il bambino ad
imparare la lingua, in quanto sembra facilitare la segmentazione, ossia l’estrapolazione e il
riconoscimento delle parole (Schon et al., in preparazione).

2.3. Sviluppo e plasticità cerebrale

In neuroscienze si parla di plasticità, di cui il cervello gode, modificandosi e forgiandosi,


soprattutto nelle prime fasi dell’infanzia, ma che continuerà anche nell’età adulta, mediante
l’esperienza. Possiamo immaginare due tipologie di modificazione cerebrale:
1) una determinata popolazione di neuroni particolarmente sollecitata, ad esempio
dalla pratica musicale intensiva, recluta i neuroni adiacenti per avere man forte;
2) una determinata popolazione di neuroni particolarmente sollecitata si riorganizza in
modo da essere più efficiente.
In questo modo abbiamo due tipologie di modificazioni cerebrali, chiamate
rispettivamente strutturale (o morfologica) e funzionale.
Come viene studiata la plasticità cerebrale umana? Ci sono almeno tre grandi
approcci. Nel primo si studia lo sviluppo del bambino seguendo i cambiamenti cerebrali
legati ad età ed esperienza (approccio evolutivo). Nel secondo si mettono a confronto i
funzionamenti cerebrali di due popolazioni che siano diverse sotto un aspetto, ad esempio
musicisti e non musicisti. Nel terzo si studia come il cervello si riorganizzi in seguito ad un
evento patogeno, che può andare dalla cecità fino al danno cerebrale (es. ictus,
trauma).Ad esempio un ricercatore interessato alla plasticità della corteccia uditiva
potrebbe studiare l’evoluzione della percezione del timbro con l’età, valutare se i musicisti
abbiano una percezione più accurata del timbro rispetto ai non musicisti e se i pazienti con
una determinata lesione cerebrale riescano a recuperare (con tempo e riabilitazione) la
capacità di discriminare due timbri diversi (ammesso che l’abbiano persa in seguito alla
lesione).

14
Se negli studi comportamentali si avanza l’ipotesi che le modificazioni del
comportamento siano il risultato della plasticità cerebrale, l’avvento delle tecniche di
neuroimmagine (EEG7, MEG8, PET9, fMRI10) ha permesso negli ultimi decenni di studiare
anche la plasticità cerebrale effettiva. Ad esempio per tanti anni si è saputo che le persone
cieche possiedono meccanismi compensatori che migliorano la loro abilità uditiva, ma solo
recentemente è stato possibile dimostrare che ciò è collegato ad una maggiore densità
della corteccia uditiva (Weeks et al., 2000)
Questo potrebbe forse spiegare la superiorità comportamentale dei non vedenti nei
compiti di identificazione spaziale delle fonti sonore (Lessare et al. 1998), superiorità che è
stata riscontrata anche nei direttori d’orchestra (Munte et al., 2001). Tale plasticità
neuronale si riscontra a livello della corteccia uditiva, ma anche di quella somatosensoriale
(che, come nel caso di quella uditiva che è tonotopica, ha un’organizzazione topografica
dei neuroni).
Elbert e colleghi. (1995) hanno messo a confronto la rappresentazione corticale della
corteccia somatosensoriale di due gruppi di soggetti: un gruppo di musicisti che
suonavano strumenti ad arco con esperienza musicale media di dodici anni e un gruppo di
controllo senza alcune formazione musicale. Utilizzando una breve stimolazione che
consisteva in una lieve pressione delle dita (pollice e mignoli) di entrambe le mani, è stato
osservato un aumento della rappresentazione corticale delle dita della mano sinistra nel
gruppo dei musicisti. Bisogna ricordare che le dita della mano sinistra, in questi musicisti,
sono utilizzate in modo intensivo e preciso per cambiare l’altezza delle note, mentre le dita
della mano destra sostengono l’arco. Non a caso, le rappresentazioni corticali ottenute
dalla stimolazione della mano destra non differivano tra il gruppo di musicisti e quello di
controllo. Inoltre, l’aumento della rappresentazione corticale della mano sinistra, nei
musicisti, correlava con l’età d’inizio degli studi musicali; era infatti maggiore nei soggetti
che avevano cominciato a suonare lo strumento da giovanissimi.
Il fatto che il cervello mantenga la capacità di modificare la propria struttura nell’arco di
tutta la vita può talvolta avere effetti collaterali poco adattativi. Esistono disturbi dovuti
all’eccessiva stimolazione celebrale come ad esempio, nel caso di musicisti, la distonia

7
Elettroencefalogramma, tecnica che consente la registrazione dell’ attività elettrica del cervello.
8
Magnetoencefalografia, tecnica che consente lo studio della funzionalità cerebrale tramite la misura del
campo magnetico generato dalla sua attività.
9
Tomografia ad emissione di positroni, tecnica di medicina nucleare che fornisce informazioni sull’ attività
metabolica del cervello, evidenziando le aree cerebrali attive in cui si accumula una maggiore quantità di
radioattività.
10
Risonanza magnetica funzionale, tecnica di imaging biomedica che consente di evidenziare le aree
cerebrali attive in cui vi è un aumento di flusso ematico, e di conseguenza di ossigeno, volta a fornire
informazioni sia funzionali che morfologiche.

15
focale, che comporta una incapacità di coordinare le mani, che spesso viene
erroneamente diagnosticata come problemi muscolari o tendinei. In realtà, l’utilizzo intenso
e continuativo delle dita e la plasticità celebrale può portare ad una disorganizzazione
delle rappresentazioni corticali a livello della corteccia somatosensoriale (Elbert et al.,
1998) e al seguito di essa, si perde il controllo fine delle dita, in quanto si assiste ad un
accavallamento delle rappresentazioni di queste ultime. Ad esempio, quando il musicista
vuole muovere il dito indice, se la rappresentazione di tale dito si accavalla con quella del
medio, si metteranno in azione in modo automatico. Questo lo costringerà probabilmente
ad interrompere temporaneamente l’attività e a seguire una adeguata riabilitazione
comportamentale atta a ricreare la corretta riorganizzazione funzionale della corteccia
somatosensoriale. Infatti il cervello rimane plastico e nulla impedisce di “ rimodellarlo” e
ricreare un’organizzazione della corteccia senza accavallamenti delle rappresentazioni
delle dita (Candia et al., 1999).
Nell’insieme gli studi effettuati ci mostrano come il cervello dei musicisti (e non solo )
sia plastico. Se da un lato potrebbe esserci con l’aumento dell’età una diminuzione di
plasticità nelle strutture della corteccia uditiva per la percezione e discriminazione uditiva
(Kuhl et al., 1997), la plasticità in ogni caso persiste anche in età avanzata poiché è
visibile anche in musicisti che hanno cominciato tardi lo studio dello strumento. Infine, per
quanti fattori genetici giochino di certo la loro parte, il cervello può essere plasmato
dall’esperienza nella sua organizzazione strutturale e funzionale.

2.4. Valutazione dell’ abilità musicale

Uno dei principali contributi degli psicologi in campo musicale ha riguardato la


valutazione del talento musicale. L’approccio di questo tema è stato di due tipi: gli studiosi
si sono interessati a quantificare i vari elementi che contribuiscono al talento musicale e
hanno cercato – mediante l’uso di test non musicali – di delineare le capacità sensoriali,
cognitive ed esecutive associate col talento musicale.
La misurazione dell’abilità musicale (campo che ha attirato la maggiore attenzione) è
stata ostacolata dalla mancanza di accordo sulla natura del talento musicale stesso,
problema che comunque non ha impedito agli psicologi di escogitare test per la sua
quantificazione. Lehmann (1968) sottolineò il fatto che “l’intelligenza potrebbe essere
misurata prima che definita e lo stesso vale per l’attitudine alla musica”. Ne è risultata la
16
messa a punto di una varietà di batterie di test che comprendono la quantificazione di
quegli elementi che i rispettivi autori reputano costituenti essenziali dell’abilità musicale.
Le differenti batterie di uso corrente possono essere divise in tre categorie principali:
nella prima sono compresi quei test basati sulle classiche misure psico-fisiche della
percezione uditiva con un contenuto musicale poco riconoscibile, nella seconda ci sono
quelli che usano come stimolo il materiale musicale e infine viene la categoria di test che
valuta gli aspetti complessi della musica come l’apprezzamento di essa e il riconoscimento
di brani musicali.
Un esempio della prima categoria è la Seashore Measure of Musical Talent pubblicata
nel 1919, prima batteria ad aver incontrato il consenso internazionale. Il test
(successivamente revisionato) comprende 6 misure denominate (con la rispettiva
domanda posta al soggetto dopo la presentazione):

Senso del tono: (coppie di note di frequenza differente, la seconda nota è più alta o più
bassa della prima?);
Discriminazione dell’intensità sonora: (coppie di note di differente intensità sonora, la
seconda è più forte o più debole della prima?);
Senso del tempo: (coppie di note di differente durata, la seconda è più lunga o più
corta della prima?);
Timbro: (coppie di note, sono uguali?);
Memoria tonale: (coppie di sequenze di note, quale nota è diversa?);
Senso del ritmo: (coppie di modelli ritmici, sono uguali o diversi?).

Un esempio della seconda categoria (basata sul materiale musicale) è il Test di Wing
sull’intelligenza musicale, dove lo scopo era quello di mettere insieme una serie completa
di test, di stabilire la loro relativa validità e di selezionare quelli che sembravano aver un
buon valore diagnostico. La batteria, nella sua forma attuale, comprende 7 test
standardizzati:

Analisi di un accordo: (quante note ci sono in un accordo?);


Cambiamento di tono: (i due accordi sono stati ripetuti esattamente oppure è stata
alzata, o abbassata, una nota?);
Memoria: (si presenta al soggetto una coppia di melodie e si chiede quale nota è stata
variata nella seconda);

17
Ritmo: (si presenta al soggetto una coppia di melodie e si chiede se la seconda è
uguale alla prima, o in caso contrario qual è la versione migliore);
Armonia, Intensità sonora e Fraseggio: (come per il ritmo tranne che possono venire
alterati l’armonizzazione, l’ intensità sonora o il fraseggio);

Nella terza categoria si trovano gli Oregon Musical Discrimination Test, che valutano
l’apprezzamento musicale e l’abilità a riconoscere le variazioni nei passaggi musicali. Si
presentano ai soggetti delle versioni per pianoforte di pezzi classici che sono stati in
qualche modo alterate, assieme con le versioni originali. Il soggetto deve quindi dire qual è
il brano originale e in quale modo le altre versioni sono state alterate.
I test differiscono tra di loro per la scelta delle sotto-prove utilizzate, dei gruppi d’età a
cui sono destinati, e per il valore dei procedimenti di standardizzazione. I test sia Wing che
Seashore sono stati progettati per essere utilizzati su ragazzi dagli otto anni in avanti, e
sotto alcuni punti di vista possono sembrare simili (entrambi contengono, per esempio, un
test di memoria melodica). Alcune sotto-prove sembrano comunque poco giustificabili in
termini di affidabilità. Il test Seashore, per esempio contiene una prova di discriminazione
d’altezze, con differenze che giungevano appena a 2Hz; alcune ricerche dimostrano che
molti musicisti esperti sono incapaci di discriminazioni così sottili, altre hanno trovato
correlazione zero tra i punteggi al test Seashore e il successo nel suonare strumenti come
clarinetto e trombone (Sloboda, 1985).
E’ vero che un fallimento nel tentativo di compiere discriminazioni lungo dimensioni del
suono come altezza e intensità renderebbe impossibile ottenere dei risultati in campo
musicale, ma è anche lecito il diritto di mettere in dubbio il valore che può avere la
capacità di effettuare discriminazioni estremamente sottili, in quanto la maggior parte dei
dati spinge a ritenere che diventare degli esperti in campo musicale consiste nell’afferrare i
vari livelli delle strutture che sono presenti nelle sequenze musicali. Un test di capacità o
attitudini musicali dovrebbe occuparsi dimostrabilmente di queste abilità basilari. Su
queste basi il test Wing va preferito al Seashore , sembra che produca delle migliori stime
di validità di questo, anche se alcune deficienze tecniche nella sua presentazione rendono
difficile raccomandarlo a cuor leggero (Sloboda, 1985)
I test di capacità musicale non hanno mai avuto lo stesso impatto sull’insegnamento
della musica a livello professionale dei test che si sono rivolti a discipline curricolari
centrali come la lettura o la matematica e sembra che un fattore importante alla base dello
stato relativamente insoddisfacente del mercato dei test musicali possa essere l’assenza

18
di una forte e continua domanda da parte degli insegnanti. Sarebbe peraltro saggio
considerarne con molta cautela i risultati e, di conseguenza, sarebbe poco sensato
prendere le più importanti decisioni in campo educativo in base ai soli punteggi ottenuti dai
test (Mc Donald, 1987).

2.5. L’ orecchio assoluto

L’ orecchio assoluto, o Absolut Pitch, è la capacità di identificare in maniera precisa


l’altezza (frequenza) di un suono. La maggior parte degli esseri umani elabora i suoni
musicali in maniera relativa (residual absolute pitch), analizzando melodia e relazione tra
le note, ma non l’altezza assoluta delle stesse. L’orecchio assoluto è senza dubbio una
capacità rara e la sua incidenza nella popolazione è stimata attorno allo 0.01% (Profita,
Bidder, 1988). I possessori di AP possono identificare un singolo suono in modo
immediato e senza aver messo in atto nessuno sforzo particolare per sviluppare questa
capacità. Un altro fattore di interesse di AP è la difficoltà del suo apprendimento.
Nonostante ciò, possedere l’orecchio assoluto non serve in realtà a nulla, neppure al
musicista in quanto non è mai stata dimostrata una correlazione tra orecchio assoluto e
capacità musicali.
Nelle culture dove vengono incoraggiate la formazione e l’educazione musicale a
partire da un’età molto precoce, come ad esempio in Giappone, l’incidenza di questa
abilità tra i musicisti è molto più ampia e può arrivare addirittura al 50% ( Miyazaki, 1988).
Questo ha portato alcuni ricercatori a suggerire che l’AP potrebbe essere acquisito da tutti
gli individui, ma soltanto durante un periodo “critico” che finisce quando il bambino arriva ai
cinque o sei anni di età, anche se con un’ampia differenza interindividuale. Nonostante vi
siano dati a favore dell’ipotesi genetica (diversa distribuzione di AP fra le diverse
popolazioni umane) ce ne sono altri a favore di una teoria dell’apprendimento precoce
dell’orecchio assoluto, come ad esempio l’esistenza di una correlazione tra l’età in cui
inizia la formazione musicale e la probabilità di AP e che i tentativi di insegnarlo ai bambini
più piccoli hanno più successo rispetto a quelli più grandi o agli adulti. La capacità di
orecchio assoluto viene attribuita ad un training musicale precoce e prolungato, assieme
alla predisposizione genetica. In tutti i casi in cui si cerca di identificare i fattori che hanno
favorito lo sviluppo di una determinata abilità, si ritorna al problema generale natura-
cultura e, come in altri casi, sembra che una posizione intermedia che riconosca da un lato
l’influenza di predisposizioni biologicamente determinate e dall’altro il ruolo dell’ambiente e

19
degli stimoli esterni possa essere la posizione più equilibrata per affrontare queste
speculazioni teoriche.
Anche se le basi neuroanatomiche della capacità di AP non sono ancora ben definite,
sembra che la corteccia uditiva dell’emisfero destro sia più abile nella codifica
dell’informazione frequenziale. Zatorre (1989) ha esaminato la prestazione di un pianista
che all’età di diciassette anni aveva subito una lobectomia11 sinistra. L’intervento non
mostrò alcun effetto sulla sua capacità di AP, anzi, la migliorò: prima di esso il soggetto
aveva un errore costante nell’identificazione dei suoni pari ad un semitono12, errore che
scomparve dopo l’operazione. Allo stesso tempo questo non ci precisa né il come né il
dove sia effettuata la codifica assoluta dell’altezza. Una sede più probabile è il collicolo
inferiore che, grazie alla sua precisione nella codifica della periodicità, potrebbe fornire
informazioni alla corteccia uditiva, basate su alcune precise oscillazioni neuronali.
Benché possa sembrare un’abilità “banale” rispetto ad altre capacità cognitive l’AP è
un tema che attira molti ricercatori, essendo un interessante modello per lo studio
dell’interazione geni-cultura, relazione che interessa ogni capacità umana.

2.6. I savants musicali

Esiste il talento innato? Questo interrogativo, oltre ad essere particolarmente


affascinante, riveste anche un ruolo importante da un punto di vista educativo e sociale. In
effetti una teoria che si basi solo sul talento innato è un concetto pericoloso, in quanto
rischia di diventare una fonte di discriminazione sociale; dal lato opposto una teoria che si
basi solo sugli aspetti culturali e ambientali per spiegare l’apprendimento rischia di
stigmatizzare coloro che non riescono come “pigri”.
Un dato importante nella difesa della teoria innatista ci viene dalla descrizione dei
savants musicali, termine che si riferisce generalmente ad individui che, pur avendo livelli
intellettivi e socioemotivi abbastanza bassi e spesso non ricevendo una forma di
educazione musicale adeguata, mostrano prestazioni musicali chiaramente superiori alla
media, fin dalla primissima infanzia.
Miller condusse molti studi (1985;1989) sui savants musicali e sulle loro caratteristiche,
trovando tra loro molte somiglianze e tratti caratteristici. Tutti e tredici quelli da lui

11
Intervento chirurgico che consta nell’ asportazione del lobo deficitario.
12
Il tono è definito generalmente come intervallo musicale, ed è composto da due semitoni.

20
esaminati, gran parte dei quali autistici13, dimostrarono di possedere AP, con tendenza all’
ecolalia14 e quasi tutti erano di sesso maschile, predominanza di genere che si ritrova nei
casi di bambini autistici, tra i quali si ritrova anche un’ elevata incidenza di AP. Questa
tendenza potrebbe essere il riflesso di una generica differenza cognitiva tra maschi e
femmine, in virtù della quale i primi risulterebbero particolarmente suscettibili a deficit
relativi al linguaggio e alle capacità di interiorizzare i sentimenti altrui (Baron, Cohen,
2003).
Secondo Sloboda (2005) vi sono alcuni fattori che possono essere associati
all’acquisizione delle competenze eccezionali nei soggetti savants. Il primo fattore comune
sembra essere un alto livello di motivazione interna che permette all’individuo di
impegnarsi in una singola attività per molti anni. Il secondo fattore è relativo all’ambiente in
cui il soggetto si viene a trovare: dal momento della scoperta di queste abilità eccezionali, i
bambini che hanno gravi deficit negli altri ambiti intellettivi vengono spesso messi nelle
condizioni di esercitarsi in modo regolare nell’attività per la quale sono portati. Il terzo
fattore è il tempo a disposizione, che spesso permette l’esercizio continuo che li porta a
raggiungere risultati eccezionali.
Questo sembrerebbe dimostrare che anche nel caso dei savants, il loro talento sembra
svilupparsi grazie ad una serie di circostanze che esulano dal loro patrimonio genetico, o
che comunque non dipenda in modo intrinseco da esso. I fattori biologici rivestono un
ruolo molto importante, ma non hanno la prevedibilità e la specificità associate alla
nozione di talento, nozione che, perdendo quindi l’aspetto discriminatorio e selettivo che
poteva caratterizzarlo, viene usato in modo decisamente più sereno.

13
Affetti da autismo, condizione psichica caratterizzata da distacco/isolamento dalla realtà e prevalenza del
mondo interiore, con probabili ripercussioni sulle capacità di socializzazione ed apprendimento.
14
Disturbo del linguaggio che consiste nel ripetere involontariamente, come un’ eco, parole o frasi
pronunciate da altre persone, presente fino al 75% nelle diagnosi di autismo.

21
3. Organizzazione cerebrale e funzione musicale

3.1. Modularità e localizzazione funzionale

Il termine “musica” non rappresenta una semplice struttura acustica, ma si tratta di


un’esperienza soggettiva complessa, basata su un insieme di capacità mentali e che
necessita di diverse funzioni percettive e cognitive. L’ abilità musicale è stata
tradizionalmente studiata come prodotto di un’ aspecifica architettura cognitiva, ma un
crescente numero di ricerche parte attualmente dal presupposto che la musica sia una
facoltà cognitivamente unica ed evolutivamente distinta (Peretz, Coltheart, 2003).
L’idea dell’esistenza di un “modulo” specifico per l’elaborazione dell’informazione
musicale è supportata, infatti, dagli studi di lesione che evidenziano, accanto ad esempi di
agnosia verbale15, casi di amusia sia congenita che acquisita (Stewart, 2002), dove alcuni
pazienti sarebbero in grado di riconoscere il suono della parola umana o altri suoni
ambientali aspecifici ma non le melodie pur familiari.
Tempo e melodia, che sono le due principali dimensioni della musica, subiscono
anch’esse differenti sistemi di elaborazione; la neocorteccia temporale di destra, con
particolare riferimento al giro temporale superiore (regione anterolaterale del giro di
Heschl, piano temporale, aree associative soprattutto posteriori), e probabilmente anche la
corteccia frontale di destra, rivestono un ruolo particolarmente importante nella percezione
di una melodia (Griffiths, 2000). Il riconoscimento del solo intervallo melodico in assenza di
una linea melodica di riferimento richiederebbe invece il contributo di entrambe le strutture
temporali di destra e sinistra.
Dati EEG e MEG mostrano, inoltre, che la corteccia risponde alle relazioni di frequenza
anche in assenza di attenzione, e ciò spiegherebbe perché il riconoscimento di una linea
melodica o la discriminazione di un intervallo melodico possano essere mantenuti in
presenza di danno cerebrale (Peretz, Zatorre, 2005).
Nella musica tonale16 le relazioni di frequenza evocano una scala17 particolare;
evidenze empiriche dimostrano che l’ascoltatore utilizza implicitamente la struttura tonale
della scala ai fini della percezione e della memoria e che anche l’elaborazione dell’aspetto
tonale della melodia avvenga nel SNC in modo indipendente e coinvolga principalmente le

15
Incapacità di riconoscere suoni verbali in presenza di normale riconoscimento musicale.
16
Tipo di musica organizzata intorno ad un suono centrale, o “tonica”.
17
Successione ascendente o discendente di suoni compresi nell’ ambito di un’ ottava (intervallo tra una nota
musicale ed un’ altra).

22
aree uditive secondarie, poste nella porzione più anteriore del giro temporale superiore,
area connessa alle regioni frontali a loro volta implicate nella memoria di lavoro potrebbero
essere coinvolte nell’immagazzinamento (Warrier, Zatorre, 2004).
Diverse tecniche di neuroimmagine hanno dimostrato che la dissonanza, elemento
critico nella percezione musicale, comporta l’attivazione bilaterale del giro temporale
superiore e che il giro di Heschl è coinvolto nell’elaborazione delle dissonanze ma non
delle consonanze. Deviazioni dalle aspettative armoniche comporterebbero invece
l’attivazione, sempre bilaterale, dell’ opercolo frontale (area frontale inferiore) che
corrisponde all’ area di Broca nell’emisfero sinistro (Peretz, Zatorre, 2005). Il ritmo,
seconda caratteristica fondamentale della percezione musicale, oltre al coinvolgimento
della corteccia uditiva di destra (metrica) e di sinistra (durata), sembra interessare anche
altre aree cerebrali come cervelletto ed area frontale (Janata, Grafton, 2003).
Parson e collaboratori (2003) effettuarono una serie di test su musicisti professionisti
impegnati a suonare il pianoforte, mentre una scansione PET creava un’ immagine della
loro attività cerebrale, e scoprirono che ognuno di essi provocava attività neurali in
numerosi parti del cervello, variamente distribuite. Tali risultati si confermarono
particolarmente interessanti anche per quanto riguarda l’attivazione del cervelletto, che
quindi svolge funzioni non strettamente circoscritte al controllo motorio. Conclusero quindi
che le reti neurali preposte all’elaborazione della musica sono ampiamente distribuite
all’interno del cervello e che, confrontando i dati con quelli di un gruppo di controllo
sperimentale, localizzazione ed attività delle reti neurali adibite alla musica sono differenti
nei cervelli di musicisti e non musicisti.
La stessa Peretz, in un suo articolo (2003) scrisse :

“ La dimostrazione dell’esistenza di una siffatta organizzazione cerebrale per la musica in tutti gli
esseri umani rimane elusiva . A mio parere, l’unico punto di accordo che si è raggiunto oggi circa
l’organizzazione cerebrale soggiacente alla musica riguarda l’elaborazione del contorno melodico.
La grande maggioranza degli studi indica la circonvoluzione temporale superiore e le regioni
frontali della parte destra del cervello come le aree preposte all’elaborazione delle informazioni
relative al contorno melodico. Tuttavia, resta ancora da stabilire se tale meccanismo sia specifico
per la musica, dal momento che gli schemi di intonazione della lingua parlata sembrano chiamare
in causa circuiti cerebrali collocati in aree simili, se non identiche. ”

La sua affermazione finale circa l’apparente sovrapposizione delle reti neurali


impiegate per talune attività linguistiche e musicali è uno dei punti più importanti, sebbene
ancora irrisolto.

23
Patel (2003) confrontando dati lesionali e dati di neuroimmagine ha notato che
sebbene gli studi sulle lesioni abbiano dimostrato che le capacità musicali e linguistiche
possono essere parzialmente o completamente dissociate, quelli di brain imaging
suggeriscono che i due domini in realtà condividano le stesse reti neurali. Questa
apparente contraddizione rimane da risolvere.

3.2. L’ elaborazione dell’ informazione musicale

Ogni giorno, a casa o per la strada o al lavoro ci capita di sentire della musica, così
per caso. Nel giro di una frazione di secondo siamo in grado di dire se conosciamo quel
determinato brano oppure no; inoltre siamo capaci di canticchiare il brano e talvolta
recuperare informazioni ad esso legate. Se poi il brano è una canzone, non solo riusciamo
a cantare la melodia, ma anche a cantarla con le parole del testo stesso. Nonostante tutto
questo avvenga spesso con un’ estrema facilità e in parte automaticità, i meccanismi
cerebrali alla base di tutte queste operazioni sono tutt’ altro che evidenti.
Un modello per il riconoscimento e l’ elaborazione della musica è descritto da Peretz e
Coltheart (2003). In questo modello l’input viene analizzato da due sistemi paralleli che
vengono considerati indipendenti; essi elaborano in maniera separata le informazioni
necessarie ad effettuare un’ analisi melodica (variazione dell’altezza dei suoni) ed una
temporale (variazione della durata dei suoni).
Il sistema di analisi melodica ha tre sottocomponenti: analisi del contorno, degli
intervalli e della tonalità. Il sistema di analisi temporale ha due sottocomponenti, una per
l’analisi degli aspetti metrici e una per gli aspetti ritmici. In modo semplificato, la via della
melodia potrebbe rappresentare il “cosa”, mentre la via temporale il “quando” occorrono gli
eventi nell’ input musicale. Entrambi i moduli filtrano i propri output attraverso i moduli del
lessico musicale (concepito come un sistema di rappresentazioni di informazioni musicali
specifiche ai quali l’individuo è stato esposto nel corso della sua vita) e dall’ analisi
dell’espressione emozionale.

24
Fig. 6: Modello modulare dell’ elaborazione musicale (fonte dell’ immagine: www.nature.com ).

Una serie di studi su pazienti cerebrolesi (Peretz, Coltheart, 2003) suggerisce che le
strutture melodiche e temporali vengano elaborate separatamente ed in maniera
indipendente. Se quindi, da un lato, vi è una forte tendenza a decomporre la musica in
diversi moduli più piccoli, perlopiù specifici ed indipendenti tra loro, gli studi
comportamentali mostrano spesso come queste stesse funzioni necessarie all’analisi
musicale non siano indipendenti e talvolta non siano affatto specifiche alla musica.
Al momento sarebbe prematuro formulare conclusioni certe riguardo alla questione
della modularità della musica: essa può sussistere ad alcuni livelli di elaborazione ed
essere assente ad altri livelli.

3.3. Le amusie

“Amusia” (dal greco a-musia, mancanza di armonia) è un termine generico che indica
una perdita o compromissione di origine biologico delle capacità musicali, e può essere
congenita o acquisita successivamente come conseguenza di un danno cerebrale.

25
La natura di questa compromissione può essere di vario genere, ma principalmente si può
manifestare nelle prestazioni motorie o espressive (amusia espressiva), nelle capacità di
discriminazione ed identificazione delle melodie (amusia recettiva) e nella capacità di
suonare uno strumento (amusia strumentale)
La perdita delle capacità di cantare o fischiare una melodia è una delle forme di
amusia più frequenti e prende il nome di amusia espressiva. La perdita può essere totale
nel senso che il paziente si trova a non essere più in grado di produrre sia un suono che
una melodia, su comando verbale o dietro imitazione, o parziale se è in grado di produrre
solo un suono ma non una melodia. Per contro, può essere capace di produrre una
melodia familiare ma incapace di produrre suoni isolati. La perdita nelle capacità orali
espressive può essere parziale anche nel senso che il paziente può essere in grado di
riprodurre un motivo musicale, ma il suo canto dà risultati piuttosto poveri in termini di
melodia, intonazione e ritmo.
Una difettosa percezione della musica che si riflette nell’ incapacità di discriminare fra
loro patterns melodici, timbro, tono e in alterazioni qualitative dell’ esperienza acustica (ad
esempio percepire i suoni come dissonanti o spiacevoli) è quel tipo di amusia che viene
chiamata “recettiva” (o agnosia musicale). In termini generali il concetto di agnosia si
riferisce ad un disturbo nelle capacità di riconoscimento benché il canale sensoriale
primario sia intatto. Di conseguenza, il problema non è legato alla percezione in sé, ma al
fatto che il paziente non è più in grado di riconoscere gli stimoli come suoni e parti di una
melodia. I soggetti con agnosia musicale non sono quindi più in grado di riconoscere
melodie precedentemente conosciute, ma è importante sottolineare che ciò non accade
per i testi delle melodie stesse.
Un musicista con questo deficit potrebbe quindi paradossalmente essere in grado di
leggere lo spartito e suonare lo strumento musicale, senza però poter riconoscere la
musica prodotta; l’ agnosia musicale è molto “selettiva”, in quanto anche la capacità di
riconoscere altri suoni ambientali (es. rumore del treno) risulta normale. Questi disturbi
sono frequentemente associati a lesioni nella corteccia temporale di entrambi gli emisferi
(Peretz, 1996).
Altre tipologie di amusia, come quella strumentale (perdita della capacità di suonare
uno strumento), per definizione, possono colpire solamente coloro che hanno avuto una
determinata formazione musicale; si riferiscono quindi a condizioni patologiche che hanno
determinato la presenza di uno specifico problema cognitivo come conseguenza di un
danno cerebrale, sia esso dovuto a malattia, trauma o altro.

26
In altri casi ci troviamo di fronte ad un livello di incapacità musicale del tutto inatteso
per una persona con un normale livello di funzionamento intellettivo e socioemotivo,
incapacità decisamente inferiore alla media (se non inesistente) pur avendo avuto una
normale esposizione a stimoli musicali. Questi soggetti, chiamati tone deaf (sordità tonale,
anche se in letteratura si preferisce il termine “amusia congenita”), non sono soggetti a
una patologia e vengono normalmente diagnosticati in fasi relativamente precoci, spesso
prescolari, dello sviluppo dell’individuo. Uno dei test più sensibili per la diagnosi di questo
disturbo richiede l’identificazione di irregolarità nell’ altezza dei suoni in una melodia
comune. Il test è costituito da una serie di melodie familiari e non: metà delle melodie
vengono modificate attraverso l’introduzione di un suono che devia dalla scala originale e i
soggetti devono giudicare se le melodie contengono delle “note sbagliate” o meno. I
soggetti affetti da amusia non riescono ad identificare le melodie sbagliate, mentre nel
riconoscimento dei suoni ambientali non si manifesta alcuna differenza tra il gruppo di
amusici e quello di controllo.
Questo tipo di prestazione è coerente con le osservazioni generali secondo le quali
l’amusia determina un’ incapacità nella percezione dell’ altezza dei suoni musicali (a
questo proposito esiste un test online riguardante lo studio di Peretz sulla discriminazione
dell’ altezza delle note all’ indirizzo web http://www.delosis.com/listening/home.html ), con
conseguente risultato in termini di abilità di percezione musicale. Lecito quindi ipotizzare
che, nel caso dell’ amusia congenita, il disturbo sia attribuibile ad uno sviluppo anomalo di
alcune strutture cerebrali indispensabili all’elaborazione musicale, le stesse che sarebbero
danneggiate nel caso di amusia acquisita (Peretz, 2001).
Nel 2002 Peretz pubblicò il primo studio esaurientemente documentato sul caso di una
persona affetta da sordità tonale, la quale non fece altro che mettere un annuncio in cui si
cercavano volontari che si ritenessero affetti da sordità ai toni fina dalla nascita. Per prima
cosa i soggetti dovevano aver raggiunto buoni risultati scolastici nel loro percorso di studi,
al fine di escludere la possibilità che la loro amusia fosse una conseguenza di generali
difficoltà di apprendimento; in secondo luogo dovevano aver ricevuto lezioni di musica
durante l’ infanzia, in modo da garantire che l’ amusia non fosse discesa da una ridotta
esposizione alla musica; terzo, dovevano poter dire di aver sofferto di quel tipo di disturbo
da sempre, accrescendo così la probabilità che la condizione fosse stata presente fin dalla
nascita.
Il caso più eclatante fu quello di Monica, donna francese di poco più di quarant’ anni,
con un buon grado di istruzione, che aveva sempre percepito la musica come un “rumore”

27
e non era mai stata in grado di cantare o ballare. Quando pressioni sociali l’avevano
costretta ad unirsi al coro della chiesa e ad un complesso musicale della scuola, l’
esperienza era stata per lei estremamente stressante ed imbarazzante.
Peretz e colleghi la sottoposero ad una batteria di test che avevano impiegato per
pazienti colpiti da lesioni cerebrali, confrontando i suoi risultati con quelli di donne di età e
livello di istruzione simili ma con abilità musicali nella norma. La maggior parte dei test
verteva sul riconoscere l’ uguaglianza o la differenza di varie melodie presentate in coppie,
alcune delle quali venivano manipolate dai ricercatori al fine di scoprire se Monica fosse in
grado di individuare variazioni nel contorno melodico e negli intervalli. Non lo era. E
nemmeno era in grado di percepire cambiamenti nel ritmo. Dato che invece era piuttosto
abile ad identificare parlati conosciuti, basandosi sulla loro voce, questo deficit non poteva
discendere da una debolezza di udito, da una carenza di memoria o da disattenzione.
La capacità di Monica di percepire l’ intonazione linguistica abbinata all’ incapacità di
seguire il contorno melodico è uno dei dati più interessanti emersi dallo studio di Peretz :
le persone affette da amusia congenita possedevano le stesse capacità del gruppo di
controllo di riconoscere intonazione e prosodia della lingua orale.
Una frazione della popolazione compresa tra il 3% e il 6% soffre di un disturbo di
apprendimento del linguaggio, pur in assenza di qualunque altro tipo di menomazione
cognitiva, e una percentuale simile può essere suggerita anche nel caso dell'amusia
congenita (Peretz et al., 2002). Una domanda naturale è se l'amusia congenita sia una
condizione biologicamente ereditabile; chi è incapace di tenere una nota può incolpare i
propri genitori? Pare che anche la madre e il fratello di Monica avessero capacità musicali
subnormali, ma ciò non fu mai formalmente testato. Nessun deficit simile fu rilevato invece
nel padre e nella sorella. Dei dieci altri soggetti studiati da Peretz, sei riferirono che uno
dei genitori (per lo più la madre), e almeno un fratello o una sorella, soffrivano di analoghi
disturbi,per quanto in tutte le famiglie fossero presenti anche membri dotati di abilità
musicali.
Drayna (2001) eseguì degli studi sui gemelli, che forniscono strumenti per valutare il
contributo relativo dei geni ereditati e dell'ambiente di sviluppo nella caratterizzazione del
pensiero e del comportamento individuale. I gemelli identici omozigoti possiedono
esattamente gli stessi geni, mentre quelli i gemelli dizigoti non sono più simili tra loro di
quanto non lo siano due fratelli qualsiasi nati dagli stessi genitori. Salvo rarissime
eccezioni, i gemelli crescono in ambienti che sono ciò che di più identico si possa
immaginare per due individui distinti, medesima educazione e simili esperienze di vita. In

28
qualche rara occasione, i gemelli vengono separati alla nascita e cresciuti da famiglie
diverse, in ambienti diversi. Esaminando somiglianze e differenze tra gemelli identici e
non, una volta raggiunta l'età adulta, e operando un confronto tra quelli rimasti assieme e
quelli separati alla nascita, è possibile dedurre l'importanza relativa di geni e ambiente
nella caratterizzazione del loro aspetto, pensiero e comportamento.
Drayna (2001) condusse lo studio sulle capacità di distinguere le altezze. Testò 284
coppie di gemelli, 136 delle quali composte da gemelli identici. Tutti furono sottoposti al
"test delle melodie distorte", impiegato da Peretz e colleghi per esaminare le abilità
musicali in individui colpiti da lesioni cerebrali e in altri soggetti. Drayna rilevò che, rispetto
ai gemelli dizigoti, quelli omozigoti apparivano più simili nella loro capacità identificare le
melodie distorte. Attraverso una sofisticata analisi statistica, egli calcolò che circa l'80%
dell'abilità di riconoscimento delle altezze deriva da geni ereditati e il 20% dall'ambiente
specifico in cui l'individuo si sviluppa e dalle esperienze musicali a cui è sottoposto.
Peretz e colleghi conclusero che la causa soggiacente dell’ amusia congenita era un
deficit nella capacità di riconoscere l’ altezza dei suoni. Ammisero che la maggior parte dei
soggetti soffriva di carenze in abilità musicali apparentemente non collegate ad essa,
come ad esempio la memoria per le melodie, la facoltà di distinguere le melodie in base al
ritmo e la capacità di tenere il tempo. Ma tutti questi aspetti furono giudicati secondari, “a
cascata”, di una soggiacente incapacità di percepire l’ altezza dei suoni che avevano
compromesso lo sviluppo dell’ intero sistema musicale nel cervello.

29
4. Musica e linguaggio: correlazione ed interdipendenza
e di due abilità universali

Come e perché musica e linguaggio sono correlati? Nettl (1983) definì la musica come
“comunicazione sonora umana al di fuori dell’ambito linguistico”, mentre la definizione di
linguaggio è probabilmente più immediata : un sistema di comunicazione consistente in un
lessico, un insieme di parole dal significato comunemente accettato, e in una grammatica,
complesso di regole che determinano il modo in cui le parole vengono combinate per
formare enunciati.
Sia il linguaggio che la musica hanno una struttura gerarchica, essendo costituiti da
elementi acustici ( parole o note) combinati in frasi (enunciati o melodie), che possono a
loro volta venire combinate per creare un evento linguistico o musicale. Entrambi possono
essere descritti infatti come “sistemi combinatori”; la ricorsione18, è l’unico attributo del
linguaggio che non trova alcun parallelismo nei sistemi di comunicazione animale (Hauser
et al., 2002). Per quanto musica e linguaggio siano entrambi sistemi gerarchici costruiti a
partire da unità discrete, la natura di tali unità è fondamentalmente differente : quelle del
linguaggio sono simboli, quelle musicali no .
Le regole di uno stile musicale o di una lingua sono profondamente diverse. Quelle
della musica non veicolano significati come fa la grammatica di una lingua : invertire
l’ordine di alcune unità avrà effetto assai meno rimarchevole su un brano musicale, dove
l’inversione non ne altera il significato, giacchè non vi era alcun significato originario da
cambiare. Sloboda (1985) ha puntualizzato che “noi impieghiamo il linguaggio per fare
asserzioni o domande in merito al mondo e agli oggetti reali; ammesso che la musica si
riferisca a qualcosa , non si tratta certamente degli stessi oggetti denotati dal linguaggio”,
anche se questo non esclude che la musica possa essere utilizzata per raccontare storie o
per far riferimento al mondo reale. Pertanto il linguaggio parlato è sia referenziale che
manipolativo, mentre la musica è principalmente manipolativa in quanto induce stati
emozionali e movimento fisico.
Inoltre musica e linguaggio condividono la dote del fraseggio espressivo, con cui si fa
riferimento al modo in cui le proprietà acustiche delle frasi sia linguistiche che musicali
possono essere modulate per trasmettere enfasi ed emozione. Brown (2000) pone un
forte accento sulla presenza di esso in entrambi, ipotizzando che si trattasse di una delle

18
L’incorporazione di una frase linguistica o musicale all’interno di un’altra.

30
caratteristiche fondamentali del loro antenato comune originario, da lui denominato
“musilingua”.
Spesso e volentieri musica e linguaggio fanno un uso simile di alcuni parametri; ad
esempio, quando ci si interessa al contenuto emotivo di una frase, se triste essa
probabilmente sarà pronunciata lentamente, e lo stesso vale per la musica. Juslin e
Laukka (2003) hanno analizzato più di cento studi sulla relazione tra parametri acustici ed
emozione trasmessa, nel linguaggio e in musica, rendendosi conto che il tempo,
l’intensità, l’altezza, le variazioni di altezza e diversi altri parametri hanno lo stesso effetto
sull’ espressività di una frase linguistica o musicale.
A livello fonetico due fenomeni interessanti sono stati descritti sia per la musica che per
il linguaggio: la percezione categorica e la restaurazione fonetica (Aiello, 1994). Il
fenomeno di restaurazione fonetica avviene qualora si sostituisca una parte del segnale
linguistico con un rumore o silenzio; qui le aspettative semantico-lessicali o musicali
prendono il sopravvento sull’analisi acustica e riempiono l’informazione mancante. Il
fenomeno di percezione categorica è legato al fatto che un continuo sonoro linguistico o
musicale sia percepito come segmentato in unità discrete. A dispetto delle notevoli
differenze individuali di pronuncia e di esecuzione in musica e linguaggio, la percezione
categorica sembra favorire un riconoscimento ed una comprensione migliore e più
semplice, anche grazie al processo di chunking, processo di raggruppamento delle unità
discrete, riducendo così la quantità complessiva di materiale (Halpern, Bower, 1982). In
una recente serie di studi è stato inoltre dimostrato come, entro certi limiti, le modifiche
percettive indotte dallo studio della musica determinino analoghe modifiche percettive
nella percezione del linguaggio (Magne, Schon, Besson, 2006)
Infine musica e linguaggio condividono tre modalità di espressione: possono essere
vocali, come nel discorso e nel canto; gestuali, come nel linguaggio dei segni e nella
danza; e possono essere scritte. In ognuno di questi casi, ambedue le facoltà hanno base
biologica nel cervello; alcune patologie cognitive possono condurre ad afasia, cioè perdita
della capacità linguistica e/o amusia. ovvero perdita del senso musicale.

31
4.1. Afasia senza amusia e amusia senza afasia

I casi clinici documentati di persone che hanno sofferto di afasia19 offrono un’ ottima
opportunità per esaminare le relazioni neurali tra musica e linguaggio. Se, ad esempio, la
musica fosse un sottoprodotto del linguaggio, o viceversa, allora la perdita dell’ abilità
musicale dovrebbe essere una conseguenza automatica della perdita del linguaggio; per
contro, se musica e linguaggio poggiassero su reti neurali totalmente indipendenti, allora
la perdita di una delle due facoltà non dovrebbe incidere sull’altra.
Luria e colleghi (1965) hanno mostrato come l’amusia non accompagna
necessariamente l’afasia. Essi hanno descritto il caso del compositore russo Shebalin,
che fu vittima di un’ emorragia nell’ emisfero sinistro, portandolo ad una paralisi
temporanea del lato destro del corpo e ad un disturbo linguistico grave (afasia) che gli
impedì di parlare e di capire fino alla fine dei suoi giorni. Nonostante le gravi condizioni egli
continuò a lavorare come insegnante di musica e come compositore, concludendo opere
già iniziate e scrivendone diverse altre. L’autopsia post mortem di Shebalin rilevò un
danno rilevante nel lobo temporale e in quello parietale dell’ emisfero sinistro, lesione che
genera il più delle volte un disturbo afasico. Il caso di Shebalin è quindi un caso di afasia
senza amusia, ossia di disturbo linguistico senza disturbo musicale.
Un altro caso famoso è quello della paziente I.R. descritto da Peretz, Belleville e
Fontane (1997). All’ età di 28 anni I.R. dovette subire degli interventi chirurgici a causa
della rottura di un aneurisma dell’ arteria cerebrale media dell’emisfero destro. In seguito
all’intervento, la paziente rimase con due lesioni cerebrali estese, comprendenti la
corteccia uditiva bilateralmente e le aree frontali dell’ emisfero destro. Nonostante queste
lesioni, I.R. mostrò un funzionamento intellettivo, linguistico e di memoria indenne, ma
emerse la sua incapacità a riconoscere musica che le era stata familiare prima della
lesione, con impossibilità di cantare in modo intonato e di apprendere nuovi brani.
I.R. è un caso esemplare di amusia senza afasia, l’ esatto opposto del caso Shebalin.
Ci troviamo di fronte a quella che viene chiamata in gergo “doppia dissociazione”, di cui
i casi sopra citati sembrerebbero indicare che esista una specializzazione cerebrale e
funzionale per la musica (e per il linguaggio), anche se in realtà le cose non sono così
semplici (Schon, Akiva-Kabiri, Vecchi, 2007).

19
Disturbo che porta ad alterazione o perdita della facoltà del linguaggio, generalmente in seguito alla
lesione di aree del cervello deputate all’ elaborazione dello stesso (aree di Broca e Wernicke).

32
4.2. Specializzazione e dominanza emisferica

Fin dai primi studi sulla dominanza cerebrale (Morel, 1947) era apparso evidente che
ascolto musicale e ascolto verbale fossero da considerare delle funzioni giustapposte ma
non coincidenti; afasia ed amusia rivelavano situazioni interessanti in quanto se
apparivano in alcuni casi come disturbi indipendenti – ad esempio un paziente sapeva
cantare l’aria e le parole di una canzone, ma non sapeva ripetere quelle stesse parole in
assenza della melodia – spesso però potevano presentarsi associati, facendo pensare che
essi implicassero almeno in parte lo stesso sistema neuroanatomico.
Sono stati soprattutto gli studi di Kimura (1973) e di Bever e Chiarello (1974), basati
peculiarmente sulla tecnica dicotica, mediante la quale si faceva ascoltare
simultaneamente linguaggio in un orecchio e melodie in un altro, a mettere in evidenza la
dominanza dell’emisfero destro per il riconoscimento delle melodie; il risultato delle
osservazioni compiute veniva confortato sia dall’osservazione mediante PET, riportando la
cognizione musicale alla dominanza preferenziale dell’emisfero destro, sia da dati
neurochirugici in quanto a seguito di una lesione, anche estesa, dell’emisfero sinistro il
canto rimaneva ancora possibile per il paziente, mentre i deficit musicali si presentano
quando la lesione interessava l’emisfero destro.
In particolare pare che l’ascolto di una melodia attivi l’area temporale e l’area frontale
destre (Zatorre, Evans, Meyer 1994), ma l’essenziale è dato dal considerare che la
percezione di una melodia, almeno da parte di un ascoltatore non musicista esperto,
avviene rispetto al profilo generale, e dunque si tratta di una percezione olistica (al
contrario di quello che avverrebbe invece nel caso di un professionista, dove il tipo di
percezione avrebbe invece carattere prevalentemente analitico) : in altre parole questo
sembra voler indicare che l’attenzione riveste un ruolo determinante nei risultati di questi
studi. L’uso di una strategia o di un’altra si riduce alla focalizzazione dell’attenzione ad un
aspetto piuttosto che ad un altro dello stimolo musicale, portando all’uso di una rete
cerebrale piuttosto che di un’altra.

33
Fig. 7: Immagine PET relativa all’ attivazione di aree cerebrali differenti, in musicisti e non, in risposta a
stimoli musicali: nei primi avviene in maniera analitica, e quindi con attivazione maggiore dell’ emisfero
cerebrale sinistro; nei non musicisti avviene invece in maniera olistica, interessando quindi prevalentemente
quello destro (fonte dell’ immagine: www.psicolab.net ).

Soggetti con lesioni cerebrali sono stati esaminati in rapporto alla presentazione di una
frase melodica e di sue versioni modificate, o a livello del profilo generale o riguardo a
intervalli tonali successivi, ma nel rispetto del profilo generale. Da questi esperimenti è
emerso che nei soggetti portatori di lesioni all’emisfero destro veniva ad essere colpita la
percezione del profilo generale della melodia, mentre se la lesione era a sinistra, era
colpita l’individuazione della struttura particolareggiata degli intervalli e l’organizzazione
temporale della melodia. Anche Falk (2000) sottolinea come melodia e ritmo sembrano
essere neurologicamente dissociati in quanto l’emisfero destro elabora gli aspetti melodici
della musica, mentre l’emisfero sinistro sembra maggiormente coinvolto nell’elaborazione
del ritmo (Peretz, 1993). L’emisfero destro, come sappiamo, interpreta anche gli aspetti
melodici del linguaggio, il tono della voce, e dunque le connotazioni emotive ed affettive
del parlato.
Anche nel test di Wada20 quando l’iniezione inibisce l’emisfero destro, l’abilità del canto
risulta assai disturbata, mentre la facoltà del parlato è compromessa solo nel senso che
l’articolazione delle parole è più lenta e monocorde, mentre l’intonazione, la pronuncia, e
l’abilità a partecipare ad una conversazione non ne risentono: la memoria tonale ed il

20
Iniezione di amobarbitale nella arteria carotidea destra o sinistra, che produce una inibizione temporanea
dell’emisfero corrispondente.

34
senso dello spazio melodico pare completamente scomparso, mentre il ritmo sembra
meno interessato dall’inibizione.
La cosa più interessante riguardo al linguaggio è il dato che l’emisfero dominante è il
destro e non il sinistro, quando le parole sono processate solo come stimoli acustici, nel
senso che il percetto non è il contenuto semantico del messaggio, che ha l’effetto di
trasferire l’elaborazione da un emisfero all’altro: Zaidel (1974) ha mostrato che dopo
commissurotomia21 l’emisfero destro ha un vocabolario uditivo considerevole, in quanto è
in grado di riconoscere comandi e di mettere in relazione parole presentate per via uditiva
e la visione con rappresentazione figurativa. Dai suoi esperimenti emerge che l’emisfero
destro ha difficoltà ad analizzare le categorie fonetiche, mentre la discriminazione delle
vocali sembra non costituire un problema, pertanto l’emisfero destro sembrerebbe essere
prevalentemente un analizzatore gestaltico di tratti acustici e non di tratti fonetici. Dagli
studi di Studdert-Kennedy (1970) già era emersa la superiorità dell’orecchio destro, e
dunque dell’emisfero sinistro, per sillabe formate CVC, quindi in relazione alla
combinazione consonante/vocale, mentre le vocali sono percettivamente o bilaterali, o
addirittura unilaterali sull’emisfero destro: evidentemente esse vengono elaborate più
rapidamente sulla base del loro contenuto musicale.
In generale dagli studi sull’ascolto dicotico emerge che i toni puri, semplici, sembrano
percepiti bilateralmente, mentre l’emisfero destro mostra una chiara preferenza per quelli
complessi, producendo un incremento nell’accuratezza.
Una serie di studi che si interessavano all’elaborazione dell’altezza ha messo in
evidenza come la corteccia uditiva destra sia più specializzata della sinistra nell’analisi
precisa dell’informazione frequenziale (altezza), mentre quella sinistra lo sia di più
nell’analisi dell’informazione temporale, necessaria, ad esempio, per la distinzione di due
fonemi (Zatorre, Belin, Penhune, 2002). In questo caso abbiamo un indice di una possibile
specializzazione emisferica a livello della corteccia uditiva, ma attenzione a non
interpretare questo come assoluto, in quanto si tratta di una specializzazione relativa.
Quando ci si interessa a funzione cognitive più complesse, vi è una tendenza generale ad
una diminuzione della preferenza emisferica.

21
Sezione del corpo calloso.

35
4.3. Correlati neurali

I primissimi studi che hanno utilizzato gli ERPs22 avevano come scopo il confronto fra
musica e linguaggio. Studi precedenti sul linguaggio avevano messo in evidenza
l’esistenza di una componente ERP, la N400 (polarità negativa e massimo picco verso i
400msec), la cui ampiezza era maggiore per parole che erano semanticamente
incongruenti rispetto a parole congruenti (beve il caffè con il latte/ lardo). Ciò che non era
evidente era se questa componente N400 fosse specifica al linguaggio oppure no.
Besson e Macar (1987) confrontarono quindi delle frasi nelle quali l’ultima nota era
fuori tonalità. I risultati per la musica non mostrarono traccia della N400, ma di una
componente più tardiva, detta P600 (positiva con picco verso i 600 msec). Alcuni anni più
tardi Patel e collaboratori (1998) mostrarono che questa P600 era simile in musica e
linguaggio quando gli errori linguistici erano di tipo sintattico e non semantico. Schon e
collaboratori (2004) dimostrarono però che questa componente non era specifica ad
un’elaborazione sintattica, ma che era presente anche in errori di pronuncia, quindi con
incongruità prosodiche. Inoltre l’apparire di tale componente, in seguito alla presentazione
di materiale linguistico, dipendeva dall’esperienza musicale che i soggetti avevano avuto:
appariva infatti circa 100 msec prima per i musicisti che per i non musicisti, a
dimostrazione che la pratica musicale aveva avuto un effetto sull’abilità del cervello da
elaborare l’informazione musicale, ma anche linguistica (prosodica).
Se da un lato le regole che definiscono le relazioni sono diverse in musica e nel
linguaggio, il processo di integrazione strutturale potrebbe essere lo stesso; il fatto di
avere un fenomeno osservabile come la P600 (Koelsch, 2005), sensibile alla struttura
musicale e linguistica diventa interessante poiché ci permette di studiare quali siano i
fattori che modificano questo fenomeno (ERP).
Ad esempio, possiamo studiare fino a che punto esso sia sensibile all’attenzione o allo
stato d’umore, o se sia modificabile dall’esperienza e in quanto tempo, se esista già nei
bambini e come evolva nell’età. Diversamente dagli indici comportamentali (come il tempo
di risposta), gli indici elettrofisiologici ci danno il decorso continuo dell’attività cerebrale,
dalla presentazione dello stimolo fino ad oltre la risposta: non solo sono indici più sensibili,
ma anche più informativi in quanto ci dicono a che punto un a certa nota comincia ad
essere percepita in un certo modo, ed hanno un’informazione anche di tipo spaziale, sulle
aree cerebrali che sarebbero implicate in un tale tipo di operazione mentale.
22
Potenziali evocati evento-correlati, modificazioni elettriche che avvengono nel SNC, dipendenti dal
contenuto informativo di un determinato stimolo.

36
Conclusioni

La musica non solo è un’ attività umana estremamente diffusa, ma riveste anche una
grande importanza in diversi ambiti disciplinari, rendendola in sé un oggetto di ricerca
particolarmente interessante. Il fatto che la musica sia onnipresente nelle culture umane a
tutte le età e che richieda diverse capacità cognitive rende il suo studio particolarmente
utile, in quanto ci permette di valutare il funzionamento della mente da un punto di vista
nuovo e diverso.
Lo studio della musica in ambito psicologico e neuroscientifico, di sviluppo
relativamente recente, raramente è fine a sé stesso. Infatti è quasi sempre legato al
desiderio di comprendere meglio una funzione cognitiva di ordine più generale, e la
musica è utilizzata come modello alternativo, ruolo che le si presta assai bene poiché
richiede la messa in atto di molte funzioni cognitive, come attenzione, memoria, motricità e
percezione. Approfondire la conoscenza delle modalità mediante le quali il cervello elabori
l’informazione musicale, supportato in gran parte dall’ applicazione ad esso delle più
moderne tecniche di neuroimmagine, o di come la pratica musicale influenzi il
funzionamento cerebrale, diventa importante anche rispetto a possibili applicazioni in
ambito pedagogico e terapeutico.
In prospettiva futura, lo studio di neuroscienze e musica, la cui ricerca reperisce
continuamente nuovi filoni investigativi, sta diventando sempre più un punto di riferimento
per la ricerca neurologica, la cui attenzione è documentata dall’ istituzione di sempre più
frequenti convegni internazionali e dalla pubblicazione di numerose riviste specialistiche
che descrivono i progressi che discipline come la neuropsicologia, la psicologia
sperimentale e la psicofisiologia riescono ad ottenere in un settore in passato ritenuto
esclusivamente di pertinenza umanistica.
Emerge quindi la necessità di sottolineare l’ utile dialogo che si può instaurare tra arte
e scienza, dialogo tra due “mondi” dissimili che perseguono obiettivi dissimili con metodi
altrettanto dissimili di conoscenza. Pur tuttavia, esaminati sotto l’aspetto della pluralità dei
servizi che possono arrecare all’ uomo e al miglioramento della qualità della vita, due
“mondi” che possono trovare una felice quanto proficua convivenza.

37
Bibliografia

AIELLO R. (1994), Music and Language: Parallels and Contrast, Oxford university press,
New York.

BARON-COHEN S. (2003), The Essential Difference, Allen lane, London.

BEAR M.F., CONNORS B.W., PARADISO M.A. (2002), Neuroscienze: Esplorando il


Cervello, Masson, Milano.

BESSON M., MACAR F. (1987), An Evented-related Potential Analysis of Incongruity in


Music and other Non-linguistic Contexts, in “Psycophysiology”, 24: 14-25.

BERGESON T.R., TREHUB S.E. (1999), Mothers’ Speech and Song for Infants, in “The
Journal of the Acoustical Society of America”, 106: 2235.

BEVER T.G., CHIARELLO R.G. (1974), Cerebral Dominance in Musicians and non
Musicians, in “Science”, 185: 137-9.

CANDIA V.T. et al. (1999), Constraint-induced Movement Therapy for Focal Hand
Dystonia in Musicians, in “Lancet”, 353 (9146): 42.

DRAYNA et al. (2001), Genetic Correlates of Musical Pitch in Humans, in “Science”, 291:
1969-72.

ELBERT T. et al. (1995), Increased Cortical Representation of the Fingers of the Left Hand
in String Players, in “Science”, 270: 305-7.

ELBERT T. et al. (1998), Alteration of Digital Representation in Somatosensory Cortex in


Focal Hand Dystonia, in “Neuroreport”, 9 (16): 3571-5.

FALK D. (2000), Primate Diversity, Norton publications, New York.

GIORDANO C., RIGHINI G., SCHINDLER O. (1999), Biologia della Musica, Omega,
Torino.

GRIFFITHS T.D. (2000), Musical Allucinosis in Acquired Deafness. Phenomenology and


Brain Substrate, in “Brain”, 123: 2065-76.

HALPERN A.R., BOWER G.H. (1982), Musical Expertise and Melodic Structure in Memory
for Musical Notation, in “American Journal of Psychology”, 95: 31-50.

HEPPER P.G. (1991), An Examination of Fetal Learning before and after Birth, in “Irish
Journal of Psychology”, 12: 95–107.

HODGES A.H. (1996), Handbook of Music Psychology, IMR, San Antonio.

IMBERTY M. (1986), Suoni Emozioni Significati: per una Semantica Psicologica della
Musica, CLUEB, Bologna.

38
JANATA P., GRAFTON S.T. (2003), Swinging in the Brain: Shared Neural Substrates for
Behaviours Related to Sequencing and Music, in “Nature”, 6: 682-7.

JUSLIN P.N., LAUKKA P. (2003), Emotional Expression in Speech and Music: Evidence of
Cross-modal Similarities, in “Annals of New York Academy of Science”, 1000: 279-82.

KIMURA D. (1973), Functional Asymmetry of Brain in Dichotic Listening, in “Cortex”, 3:


163-78.

LEHMAN P.R. (1968) Tests and Measurement in Music. Englewood Cliffs, Prentice-Hall,
NJ.

LURIA A.R. (1965), Aphasia in a Composer, in “Journal of Neurological Sciences”, 2(3):


288-92.

LESSARD N. et al. (1998), Early Blind Human Subjects Localize Sound Sources better
than Sighted Subjects, in “Nature”, 395: 278-80.

LORENZETTI L. M. (1987), Suono e Comunicazione, Unicopli, Milano.

MAGNE C., SCHON D., BESSON M. (2006), Musician Children Detect Pitch Violations in
both Music and Language better than non Musician Children, in “Journal of Cognitive
Neurosciences”, 18: 199-211.

MC DONALD C. (1987), La Musica e il Cervello: Studi sulla Neurologia della Musica,


Piccin, Padova.

MILLER L.K. (1989), Musical Savants: Exceptional Skill in the Mentally Retarded,
Lawrence Erlbaum, Hillsdale, NJ.

MIYAZAKI K. (1998), Musical Pitch Identification by Absolute Pitch Possessor, in


“Perception and Psychophysics”, 44 (6): 501-12.

MITHEN S. (2007), Il Canto degli Antenati: Origini di Musica, Linguaggio, Mente e Corpo,
Codice, Torino.

MOREL F. (1947), Introduction a la Psychiatrie Neurologique, Masson, Paris.

MUNTE T.F. et al. (2001), Neuroperceptions. Superior Auditory Spatial Tuning in


Conductors, in “Nature“, 409: 580.

NETTL B. (2003), The Study of Etnomusicology: Twenty-nine Issues and Concepts,


University of Illinois Press, Urbana, IL.

PARSONS L. (2001), Exploring the Functional Neuroanatomy of Music Performance,


Perception and Comprehension, in “Annals of New York Academy Science”, 930: 211-31.

PATEL A.D. et al. (1998), Processing Syntactic Relations in Language and Music, in
“Journal of Cognitive Neurosciences”, 10(6): 713-33.

39
PATEL A.D. (2003), Language, Music, Syntax and Brain, in “Nature Neuroscience”, 6:
674-81.

PERETZ I. (1993), Auditory Atonalia for Melodies, in “Cognitive Neuropsychology”, 10: 21-
56.

PERETZ I. (1996), Can We Lose Memory for Music? A Case of Music Agnosia in a non
Musician, in “Journal of Cognitive Neurosciences”, 8: 481-96.

PERETZ I., BELLEVIL S., Fontaine S. (1997), Dissociation between Music and Language
Function after Cerebral Resection: a new Case of Amusia without Aphasia, in “Canadian
Journal of Experimental Psychology”, 51(4): 354-68.

PERETZ I. (2001), Brain Specialization for Music: new Evidence from Amusia, in “Annals
of New York Academy Science”, 931: 153-65.

PERETZ I. et al. (2002), Congenital Amusia: a Disorder of Fine-grained Pitch


Discrimination, in “Neuron”, 33: 185-91.

PERETZ I., ZATORRE R. (2005) Brain Organization for Music Processing in “Annual
Review of Psychology”, 56: 89-114.

PERETZ I., COLTHEART M. (2003) Modularity of Music Processing, in “Nature


Neurosciences”, 6: 688-91.

PROFITA J., BIDDERT T.G.(1998) Perfect Pitch, in “American Journal of Medical


Genetics”, 29: 763-71.

SCHON D. et al.(2004), The music of Speech: Electrophysiological Study of Pitch


Perception in Language and Music, in “Psychophysiology”, 41: 341-9.

SCHON D., AKIVA-KABIRI S., VECCHI T. (2007), Psicologia della Musica, Carocci,
Roma.

SCHON et al. (in preparazione), Meaning of Sound and Meaning of Words: a Unique
Electrophysiological Marker?

SLOBODA J. (1985), La Mente Musicale: Psicologia Cognitivista della Musica, Il Mulino,


Bologna.

SLOBODA J. (2005), Talent and Skill Development, Oxford University Press, Oxford.

SPENCE M. J., DE CASPER A. J. (1986). Prenatal Experience with Low-frequency in


Maternal Speech Sounds Influences Newborns, in “Infant Behavior and Development”, 9:
133-50.

STANDLEY J.M. (1998), The Effects of Music and Multimodal Stimulation on Physiologic
Stimulation and Developmental Responses of Premature Infants in Neonatal Intensive
Care, in “Pedriatic Nursing”, 24: 532-8.

40
STEWART L. (2002), Congenital Amusia: All the Songs Sound the Same in “Current
Biology”, 12, pp.420-1.

STREET A., YOUNG S., TAFURI J., ILARI B. (2003), Mothers’ Attitude to Singing to their
Infants, Proceedings of 5th ESCOM conference, 363.

STUDDERT-KENNEDY M. (1970), Motor Theory of Speech Perception, in”Psychological


Review”, 77: 431-61.

TRAINOR L. J. (1996), Infants Preferences for Infant-directed versus non Infant-directed


Playsongs and Lullabies, in “Infant Behaviour and Development”, 19: 83-92.

TREHUB S.E. (2001), Musical Predisposition in Infancy, in “Annals of New York Academy
of Science”, 930: 1-16.

WARRIER C.M., ZATORRE R.J. (2004), Right Temporal Cortex is Critical for Utilization of
Melodic Contextual Cues in a Pitch Constancy Task, in “Brain”, 127: 1616-25.

WEEKS et al. (2000), A Positron Emission Tomographic Study of Auditory Localization in


the Congenitally Blind, in “The Journal of Neurosciences”, 20: 2264-72.

ZAIDEL D. (1974), Memory Impairment after Commissurotomy in Man, in “Brain”, 97: 263-
72.

ZATORRE R.J. (1989), Intact Absolute Pitch Ability after Left Temporal Lobectomy, in
“Cortex”, 25(4): 567-80.

ZATORRE R.J, EVANS A.C., MEYER E. (1994), Neural Mechanism underlying Melodic
Perception and Memory for Pitch, in “Journal of Neurosciences”, 14(4): 1908-19.

ZATORRE R.J., BELIN P., PENHUNE V.B. (2002), Structure and Function of Auditory
Cortex: Music and Speech, in “Cognitive Sciences”, 6 (1): 37-46.

41
Sitografia

www.apa.org

http://asa.aip.org

www.bertirotti.com

www.blackwellpublishing.com

http://brain.oxfordjournals.org

www.brams.umontreal.com

www.cortex-online.com

www.delosis.com

www.fondazione-mariani.com

www.jneurosci.com

www.musicianbrain.com

http://musicweb.hmt-hannover.de

www.nature.com

www.nyas.org

www.psicolab.net

www.rizzolilarousse.it

www.sciencemag.com

www.unifi.it

www.unipr.it

http://web.bvu.edu

www.thelancet.com

www.zlab.mcgill.ca

42
43

Potrebbero piacerti anche