Sei sulla pagina 1di 33

PSICOLOGIA DELLA MUSICA

1. Musica e mente musicale: un’introduzione

La maggior parte delle mamme e alcuni papà cantano canzoni e ninnananne ai loro bambini appena
nati. I bambini amano cantare e sono in grado di farlo in maniera del tutto naturale, senza lezioni di
musica. Gli adolescenti si identificano in maniera spesso forte con alcuni gruppi musicali. Ognuno di
noi è capaci di riconoscere decine o centinaia di diversi brani musicali in una frazione di secondo. Molti
sono anche in grado di cantarli da cima a fondo, mentre il numero di poesie che conosciamo a
memoria, nonostante gli sforzi degli insegnanti elementari, resta assai esiguo. La musica poi
accompagna molti momenti importanti delle nostre vite, dal matrimonio al funerale, segna delle epoche
e contiene lezioni di vita: può raccontare la storia di un popolo; ha il potere di sincronizzare il
movimento di migliaia di persone. Questi esempi mostrano chiaramente come la musica sia quindi non
solo un’attività umana estremamente diffusa, ma anche di grande importanza, e questo la rende in sé un
oggetto di ricerca importante e appassionante.
Al di là dell’interesse in sé, lo studio della psicologia della musica è affascinante rispetto allo studio della
psicologia umana in generale. La comprensione musicale, infatti, richiede un cospicuo numero di
capacità cognitive, quali il mantenimento dell’attenzione, la memorizzazione, l’analisi della struttura, la
creazione e via dicendo. Quindi, il fatto che la musica sia onnipresente nelle culture umane a tutte le età
e che richieda diverse capacità cognitive rende il suo studio particolarmente utile, in quanto ci permette
di valutare il funzionamento della mente da un punto di vista nuovo e diverso. Infatti, se la psicologia
studia il funzionamento della mente grazie all’osservazione del comportamento umano, il suo oggetto di
studio – la mente appunto – è talmente complesso che la sua comprensione necessita di approcci
diversificati. Quando camminando per le strade della vostra città vi imbattete in una scultura e vi
fermate a guardarla, potrete solo avere una visione parziale. Una comprensione più completa
necessiterà che voi le giriate intorno. Ora provate a immaginare che il cervello assomigli un po’ a questa
scultura, solo che invece di avere tre dimensioni ne ha qualche milione. A questo punto diventa chiaro
perché sia importante avere diversi punti di vista, e la musica è uno di questi.
Lo studio di come il cervello elabori l’informazione musicale o di come la pratica musicale influenzi il
funzionamento cerebrale diventa importante anche rispetto a possibili applicazioni in ambito
terapeutico. In effetti, se dovessimo mostrare che la comprensione della musica utilizza le stesse
funzioni e aree cerebrali necessarie per compiti non musicali, quali ad esempio la comprensione del
linguaggio, questo creerebbe la possibilità di recuperare delle funzioni linguistiche deficitarie attraverso
una riabilitazione musicale mirata. I benefici della musica potrebbero non limitarsi a problemi
linguistici, ma estendersi anche a tutta una serie di meccanicismi cognitivi o abilità quali la
coordinazione motoria, la memorizzazione, l’attenzione e via dicendo.
Infine, lo studio della psicologia della musica può avere ripercussioni in ambito pedagogico. In effetti,
se potessimo un giorno capire meglio come il cervello analizza l’informazione musicale e come viene
programmata la risposta motoria necessaria all’esecuzione, potremmo individuare i punti di maggiore
difficoltà e adattare di conseguenza i metodi d’insegnamento. Ad esempio, una serie di studi recenti ha
messo in luce che quando osserviamo una persona fare un movimento con la mano, i nostri neuroni
delle aree cerebrali che controllano la mano rispondono, come se il movimento fosse eseguito da noi.
Questo comportamento di imitazione automatica dei neuroni, in assenza di un movimento reale di chi
osserva, acquista subito un interesse per la pedagogia musicale, in quanto ci insegna fino a che punto sia
importante avere un docente che mostri all’alunno come fare. Benché la ricerca nell’ambito della
psicologia della musica sia relativamente recente rispetto ad altri ambiti quali la psicolinguistica o la
percezione visiva, sarebbe comunque impensabile esporne qui un resoconto completo. Ci limiteremo
quindi a trattare alcuni argomenti attingendo principalmente alla ricerca degli ultimi 15-20 anni in
psicologia cognitiva e neuroscienze.
1. Sviluppo della competenza musicale
1.1 Sviluppo delle abilità musicali: natura e cultura
Vi sono opinioni diverse sul modo in cui si sviluppa la competenza musicale. Da un lato, vi è l’idea
diffusa che la comprensione della musica necessiti di una particolare istruzione e pratica. I sostenitori
di questo assunto sono tutti coloro che dichiarano di non capire nulla di musica perché “non sanno
suonare uno strumento”. Dall’altro lato, alcuni ricercatori sostengono invece che la percezione della
musica non necessiti di un particolare apprendimento, non più di quanto richiedano la percezione
visiva, il linguaggio o la memoria. Vedremo che la realtà dipende dalla definizione di comprensione
musicale. In un certo senso entrambi i punti di vista sono corretti. La maggior parte delle persone che
non hanno una formazione musicale sono in grado di apprezzare la musica, di cantare una melodia, di
riconoscere una buona esecuzione, di individuare eventuali errori, tutte competenze che sono il risultato
di un apprendimento implicito, ossia del semplice ascolto della musica stessa. Dall’altra parte, per poter
leggere e suonare uno strumento, è necessaria una specifica educazione musicale che ci porta ad
acquisire nuove conoscenze e a formalizzarle.
In termini più generali, ritroviamo questa discussione a livello delle diverse società. Infatti, da un lato
l’abilità di percepire e di elaborare l’informazione musicale è una capacità universale comune a tutte le
culture, dall’altro, tutti i popoli hanno sviluppato una propria forma di cultura musicale. Se per un verso
la musica sembra avere ovunque una funzione di coesione, è in grado di suscitare emozioni ed è
utilizzata per scopi sia personali che sociali, per l’altro la complessità delle strutture musicali, il loro
utilizzo, gli strumenti musicali sono certamente peculiari di ciascun gruppo sociale o area geografica. In
termini più specifici, l’ascolto della musica della propria cultura fornisce all’ascoltatore un bagaglio di
conoscenze implicite sulle caratteristiche musicali. Queste conoscenze servono a facilitare
l’elaborazione degli stimoli musicali in modo appropriato e conforme alla cultura specifica. Le modalità
attraverso le quali queste conoscenze vengono applicate, e i processi stessi di apprendimento, non sono
sempre consapevoli da parte dell’individuo e si parla perciò di apprendimento e di conoscenze impliciti.
La presenza di processi di apprendimento implicito e di un utilizzo non consapevole di conoscenze e di
regole non è peraltro una peculiarità della musica, ma è comune a tutte le aree cognitive. È sufficiente
pensare alla lingua italiana e al fatto che noi molto raramente siamo consapevoli delle regole
grammaticali che usiamo o dei meccanismi che regolano la comprensione di una frase appena ascoltata.
Inoltre, l’ascolto di un brano musicale richiede l’elaborazione di un’enorme quantità di informazioni in
tempi molto veloci e in modo sostanzialmente automatico. Questo processo è equiparabile a quello che
avviene nell’ascolto di un discorso pronunciato in una lingua a noi conosciuta. Tale automatismo nel
processo di elaborazione viene spesso interpretato come il risultato di meccanismi cerebrali innati.
Questi meccanismi innati hanno però ovviamente bisogno anche di un sostegno ambientale, ovvero di
un allenamento percettivo o apprendimento musicale che viene ottenuto attraverso l’esposizione a
stimoli musicali tipici della propria cultura.
Lo studio dello sviluppo delle abilità umane permette di distinguere tra le abilità che sono presenti a
partire dalla prima infanzia e quelle che vengono acquisiste come conseguenza dell’interazione
ambientale e culturale. Pertanto, nel panorama generale dello studio delle diverse funzioni cognitive
dell’uomo, lo sviluppo della competenza musicale riveste un ruolo importante in quanto ci permette di
avere una visione più completa rispetto alla discussione sulla possibilità che alcuni meccanismi psichici
siano effettivamente innati e universali. A questo fine sono stati adattati dei paradigmi sperimentali per
valutare le capacità musicali dei bambini e anche dei neonati.

1.1.1. Come si studiano i neonati


Lo studio dello sviluppo delle capacità di elaborazione musicale nei bambini richiede l’utilizzo di
paradigmi sperimentali particolari che permettono di rilevare la presenza di percezione e di elaborazione
musicale senza l’utilizzo di una mediazione verbale. Un modo per studiare le capacità di percezione
linguistica o musicale in bambini di 6-10 mesi, o anche più piccoli, consiste nella presentazione di una
melodia, o di un breve segmento musicale, attraverso un altoparlante posizionato alla destra o alla
sinistra del piccolo, seduto sulle ginocchia della mamma o del papà. I bambini rivolgono lo sguardo
verso l’altoparlante che ha prodotto un suono e a questo punto viene mostrato un pupazzo o una luce
che lampeggia. L’assenza di una risposta da parte del piccolo o la risposta casuale non danno luogo ad
alcun segnale da parte dello sperimentatore. La misura che viene registrata è il tempo di fissazione del
bambino. Si è infatti potuto stabilire che questi passa più tempo a guardare il giocattolo se la parola che
ha sentito è familiare. Questa procedura permette di mantenere un buon livello di concentrazione da
parte del piccolo per almeno 10-15 minuti ed è un compito facile che può anche essere ripetuto più
volte. Egli dimostra di essere facilmente in grado di discriminare l’uguaglianza o la diversità dei suoni
che vengono presentati, e opportune manipolazioni sperimentali sugli stimoli (cambiamenti di tono,
ritmo, strumento, melodia, ecc.) permettono di avere un quadro sufficientemente preciso sulle
caratteristiche musicali che essi riescono a riconoscere e quindi a elaborare.

1.1.2. L’esperienza prenatale


Questi paradigmi sperimentali permettono, entro certi limiti, di studiare anche l’esperienza prenatale del
neonato. Infatti, è possibile far ascoltare musica al bimbo quando è ancora nel grembo materno e poi
studiarne l’effetto appena nato. In questo modo si è potuto mettere in luce che anche prima della
nascita i bambini sono sensibili alla musica e ai suoni in genere. Questa è, in primo luogo, un’elegante
dimostrazione del funzionamento del sistema percettivo e cognitivo ben prima della nascita. In secondo
luogo, mostra anche come la stimolazione uditiva prenatale possa avere degli effetti sul comportamento
del neonato.
Diverse ricerche hanno mostrato che il feto comincia a rispondere a suoni e rumori a partire dal sesto
mese della gravidanza. I neonati riconoscono innanzitutto la voce della propria madre. Anche in questo
caso è molto semplice collegare quest’abilità alla necessità che il bambino ha di riconoscere
immediatamente la propria madre: al momento della nascita la vista è ancora molto confusa e il
riconoscimento degli stimoli ambientali si deve immediatamente basare sull’udito e, probabilmente,
sull’olfatto. La cosa straordinaria è che le capacità dei neonati sembrano andare ben al di là del
“semplice” riconoscimento di una voce: alcuni studi, infatti, hanno mostrato come una storia letta
ripetutamente dalla madre durante il sesto mese della gravidanza venga preferita dal bambino dopo la
sua nascita rispetto a una storia mai letta. In effetti, la suzione del seno materno durava più a lungo
quando i neonati ascoltavano la storia nota rispetto a quando la madre raccontava una nuova storia.
Inoltre, per i neonati che non avevano invece ascoltato alcuna storia ripetutamente durante la
gravidanza, non si rilevava alcuna preferenza e tutti i racconti venivano percepiti allo stesso modo.
Ancora nell’utero, il futuro nato sembra quindi estremamente sensibile alla struttura acustica del suono,
ossia a quella che i linguisti chiamerebbero prosodia. In effetti non è il senso della storia che viene
ricordato, ma il tono della voce, il suo contorno che sale e scende, la sua intensità, i respiri e le pause.
Per quanto riguarda la musica, benché non ci siano stati molti studi sulla percezione prenatale, i risultati
sembrano mostrare che la musica non solo può essere appresa dal feto, ma può anche essere ricordata
dopo la nascita. Ad esempio è stato mostrato come neonati di una settimana preferiscano la ninnananna
che la mamma ha cantato durante la gravidanza, che peraltro sembra avere un maggior effetto calmante
rispetto ad altre. Peter Hepper (1991) ha sfruttato il fatto che alcune madri avevano guardato una serie
televisiva durante la gravidanza e che quindi il feto aveva “ascoltato” la sigla musicale iniziale e finale
centinaia di volte: i neonati, testati fra 2 e 4 giorni dopo la nascita, mostrarono una diminuzione del
battito cardiaco durante l’ascolto della canzone televisiva. Nessuna variazione fu osservabile durante
l’ascolto di brani musicali sconosciuti. Inoltre questo effetto calmante era presente solo per i neonati le
cui madri avevano guardato la serie televisiva dopo la trentesima settimana di gestazione e non prima.
Questi risultati mostrano come il feto, perlomeno oltre l’ottavo mese, abbia delle capacità di analisi
acustica e di memoria assai più sviluppate, rispetto a quanto si sarebbe potuto immaginare.

1.1.3. L’astrazione musicale


Una sedia rossa o blu, grande o piccola, è sempre una sedia. Se un uomo o una donna pronunciano la
parola “casa”, il suono sarà molto diverso, ma la nostra comprensione sarà sempre la stessa. Una
melodia nota, cantata da un bambino o da un vecchio, avrà sempre la sua identità. Il cervello, una volta
eseguita l’analisi acustica del suono, trasforma la materia sonora in materia musicale astratta. Questo
vuol dire che l’oggetto musicale si libera del suono che lo ha generato e acquista una sua identità
indipendente da esso. Questo ovviamente richiede una capacità di astrazione che, a sua volta, implica
diverse operazioni cognitive. Diventa quindi interessante studiare lo sviluppo di tali operazioni nel
bambino.
Oggi sappiamo che i neonati, così come i soggetti adulti, riescono a riconoscere una melodia
indipendentemente dal fatto che la si canti cominciando su una nota o su un’altra. Infatti, se la melodia
viene appunto trasposta verso l’alto o verso il basso, i neonati continuano a riconoscerla. Questo vuol
dire che i neonati non utilizzano le caratteristiche di superficie, ossia i precisi parametri acustici di ogni
nota, come rappresentazione, bensì le relazioni tra le note. Infatti, quando dopo una trasposizione si
presenta una melodia in una o in un’altra tonalità, la frequenza delle note cambia, ma le relazioni
(intervalli, rapporti di durata) tra loro rimangono invariate. Un altro risultato che va nella stessa
direzione ci viene dagli studi che si sono interessati al riconoscimento di una melodia dopo modifiche
della durata o del tempo. I neonati riescono infatti a riconoscere una sequenza musicale presentata a
due diverse velocità, quando le relazioni temporali interne vengono conservate. La stessa cosa vale
anche per il timbro, nel senso che una melodia viene riconosciuta anche quando viene suonata con uno
strumento diverso da quello utilizzato per il primo ascolto. Questi dati suggeriscono che i neonati si
focalizzino più su aspetti relativi che non assoluti della struttura musicale. Questa è anche un’esperienza
molto frequente per gli adulti che sono in grado di riconoscere un brano musicale indipendentemente
dagli arrangiamenti e dalla versione in cui è stato proposto. Noi siamo in grado di riconoscere le sonate
di Mozart o di Beethoven che sono utilizzate in alcune pubblicità televisive, sebbene la “distanza” dalle
versioni originali sia enorme. Ciò che è importante, però, è che anche il bambino molto piccolo è in
grado di compiere questo tipo di generalizzazioni che, di conseguenza, indicano uno sviluppo già
avanzato del sistema cognitivo utilizzato per la comprensione musicale e un’elevata capacità di
astrazione.

1.1.4. Percezione dell’altezza


L’analisi di una melodia necessita di diversi meccanismi. Anzitutto uno che permetta la codifica
dell’altezza delle note (frequenza) e un altro che consenta la codifica dell’informazione temporale
(durata). La codifica dell’altezza delle note a sua volta può essere scomposta in due aspetti, seppur legati
fra loro: l’elaborazione del contorno e l’elaborazione degli intervalli.
Mentre gli intervalli codificano la precisa distanza fra due note, il contorno melodico è il susseguirsi di
sali e scendi delle note in una melodia. Alcuni psicologi hanno studiato la capacità di riconoscimento
dei bambini per valutare l’importanza delle due dimensioni nell’infanzia. I risultati hanno mostrato
come la capacità di codificare il contorno di una melodia sia particolarmente resistente nei bambini.
Infatti i cambiamenti del contorno sono riconosciuti con maggiore facilità rispetto ai cambiamenti di
intervallo.
I bambini riescono a identificare i cambiamenti nel contorno anche quando due melodie vengono
presentate dopo un silenzio di 15 secondi oppure quando, nella pausa tra la presentazione delle due
melodie, viene inserito un suono per distrarre l’attenzione. Questa capacità è molto importante anche
negli adulti e non sembra dipendere dall’esperienza musicale vera e propria. Pare infatti che la capacità
di elaborazione di un contorno musicale sia sostanzialmente indipendente da fattori formativi e di
esperienza specifica. Il confronto tra musicisti e non musicisti non ha mostrato alcuna differenza, tra
questi due gruppi, nella capacità di elaborare le caratteristiche del contorno; diversamente, le differenze
legate al grado di competenza musicale risultano evidenti in altri aspetti che caratterizzano il
riconoscimento di una melodia come, ad esempio, gli intervalli musicali.
Quando ci s’interessa all’elaborazione degli intervalli musicali, ci si trova subito a confrontarsi con il
sistema tonale. Come la grammatica italiana regola le relazioni fra soggetto e verbo, il sistema tonale
regola le relazioni fra le diverse note, nonostante nel caso della musica le regole siano più di tipo
percettivo. Il sistema tonale è specifico della cultura occidentale. Altre culture hanno altri tipi di sistemi
con relazioni diverse fra le note. Il punto importante qui è capire che alcune note avranno delle
relazioni privilegiate all’interno del sistema tonale, un po’ come il soggetto “noi” e il verbo “siamo”
hanno un legame privilegiato nella nostra grammatica.
Una serie di ricerche ha mostrato che gli adulti sono in grado di ricordare dettagli che riguardano la
struttura intervallare di una melodia. Questa capacità è però legata al tipo di intervalli che vengono
presentati: gli intervalli più comuni del sistema tonale sono meglio codificati e ricordati rispetto ad
intervalli poco frequenti. Il contesto che permette questo processo di elaborazione nei bambini è simile
a quello che facilita l’elaborazione degli intervalli negli adulti, ossia un contesto tonale e delle melodie
semplici. Già a 6-10 mesi, i bambini riescono a rilevare cambiamenti dell’intervallo musicale in melodie
che rispettano le loro convenzioni culturali, ma non riescono a portare a termine questo compito per
melodie estranee e poco familiari. Inoltre, sembra che altre caratteristiche degli intervalli possano essere
rilevate dai piccoli. Ad esempio, l’elaborazione di intervalli consonanti risulta più facile rispetto
all’elaborazione di intervalli dissonanti. Inoltre, l’ascolto della musica che contiene degli intervalli
consonanti influenza l’attenzione e il tono dell’umore: i bambini sono più attenti e mostrano di gradire
maggiormente l’ascolto di musica consonante. Una situazione opposta, con un abbassamento del tono
dell’umore, si ha in associazione all’ascolto di una musica con numerosi intervalli dissonanti. Questi dati
hanno portato a ipotizzare che l’elaborazione degli intervalli consonanti abbia un carattere universale e
innato. Se per il momento non si può ancora dire se questi meccanismi siano innati o meno, quello che
è interessante è comunque notare come il neonato familiarizzi in modo del tutto automatico e veloce
con gli stimoli musicali ambientali. Il nostro cervello sviluppa le proprie competenze sulla base del
livello di familiarità con un determinato gruppo di stimoli. Ciò avviene nei contesti più disparati: siamo
in grado di distinguere con maggiore sensibilità le facce che vediamo con più frequenza (riconosciamo
bene gli occidentali, mentre abbiamo difficoltà a distinguere volti orientali) o anche il contesto urbano
in cui viviamo (l’orientamento in una piccola città americana fatta di villette e vie parallele può essere
molto difficile per un italiano che vive in una piccola città di origine medievale).
In modo analogo, alcune competenze musicali relative alla musica a cui siamo abituati risultano
insufficienti per la discriminazione di melodie in stili a noi sconosciuti: le musiche amazzoniche ci
sembrano tutte molto simili, mentre le popolazioni che le ascoltano abitualmente sono perfettamente in
grado di riconoscerle e individuarne eventuali cambiamenti.

1.1.5. Strutture temporali


La percezione del ritmo risiede per lo più all’interno della gamma temporale che va da 1 a 10 Hz. La
cosa affascinante è che, in questa gamma, la percezione umana crea involontariamente e
immediatamente delle relazioni temporali fra gli eventi. Già a 2 mesi, il neonato è in grado di
individuare piccoli cambiamenti di velocità di presentazione di suoni a intervallo regolare. Eventi molto
lenti vengono percepiti come separati, come ad esempio il suono delle campane che segna le ore.
Eventi molto rapidi vengono invece raggruppati ma in modo diverso e perdono la loro identità per
creare una nuova, come ad esempio un unico suono grave (a 20 Hz) o una vibrazione tattile o il
tremolio di un’immagine.
Ogni specie animale ha i suoi movimenti ritmici caratteristici. Il primo movimento ritmico del neonato
è la suzione. Ogni bambino ha una sua cadenza caratteristica. Verso i 6 mesi appare il dondolamento
del busto, quando il piccolo è seduto. Questo è di solito un fenomeno transitorio, cha a volte permane
fino a 5 anni, talvolta più a lungo come in alcuni casi di deficit mentali e disturbi psicotici.
Successivamente appaiono la lallazione (7 mesi) e la camminata, anch’esse con una cadenza individuale
caratteristica. La lallazione sembra essere il primo ritmo propriamente linguistico. Esiste anche nei
bambini figli di sordomuti a livello delle mani, in quanto è stato dimostrato che questi bambini
cominciano a compiere dei movimenti delle mani che non sono ancora propriamente linguistici, ma che
hanno una loro ritmicità assai precisa.
Se questi ritmi possono essere definiti spontanei, a partire da una certa età il bambino comincia a
mostrare anche ritmi che sono legati a fattori esterni. Già a partire da 1 anno egli può mostrare un
dondolamento indotto dalla musica. Dai 3 anni in poi il bambino è in grado di sincronizzare il
movimento della mano con la musica. Semplice diranno molti, e in effetti è semplice da fare, ma i
meccanismi cognitivi che permettono la buona riuscita sono estremamente complessi. Il punto chiave è
che il segnale per la risposta motoria non è lo stimolo sonoro, ma l’intervallo temporale inter-stimolo
(ottimale per intervalli fra 400 e 800 msec). In altre parole, per battere le mani a tempo bisogna saper
analizzare la serie temporale di suoni, creare una struttura che ci permetta di prevedere il futuro e
anticipare la pianificazione motoria, in modo tale da essere in sincronia con il suono che deve ancora
arrivare. Nei musicisti la precisione può essere incredibilmente alta (2-4 msec), mentre in alcuni casi la
capacità di sincronizzarsi può essere deficitaria, come nel bambino dislessico. Questa capacità di
sincronizzazione sembra cominciare prestissimo, perché è stato mostrato che il ritmo di suzione del
lattante può in alcune precise circostanze essere modificato dall’ascolto della musica.
Un altro fenomeno interessante è quello che è spesso definito “ritmizzazione soggettiva”: i suoni
identici che si susseguano a intervalli uguali vengono comunque percepiti in gruppi. Potete provare a
chiedere a un amico di battere la mano sul tavolo in maniera regolare senza accenti. Dopo pochi cicli
avrete una percezione dei battiti raggruppati in gruppi di due, tre o quattro. Anche se il termine
“soggettiva” è scorretto, visto che ogni ritmo è il risultato di un’attività soggettiva, il fenomeno è
comunque interessante perché sottolinea il carattere percettivo e spontaneo del raggruppamento
ritmico. Interessante è notare come ci siano dei limiti oltre i quali il fenomeno scompare. In particolare
il limite superiore, ossia l’intervallo più lungo, ha un importante significato percettivo: indica il punto in
cui due eventi non sono più percepiti come collegati, ma come eventi indipendenti. Questo è analogo
alla percezione visiva, quale è descritta dalla psicologia della Gestalt, che mostra come una serie di punti
vengano percepiti come un tutto se rispettano la legge della prossimità. In altre parole, se i punti sono
troppo distanti fra loro, vengono percepiti come isolati. In maniera analoga, i suoni che sono troppo
distanziati fra loro verranno percepiti come suoni individuali.
Il cervello sembra quindi avere la tendenza a mettere assieme diversi eventi in gruppi. Questo
funzionamento è di un’importanza capitale poiché permette di mantenere in memoria più elementi
insieme. Infatti i diversi elementi, una volta messi assieme in un gruppo, contano come un’unità di
memoria.
Le regole che permettono il raggruppamento non sono solo di tipo ritmico. In generale potremmo dire
che i fattori che determinano il raggruppamento sono di due tipi, anche se non sempre distinti: quelli
percettivi e quelli della struttura musicale. I primi sono influenzati dalle leggi descritte dalla Gestalt,
quali la prossimità (nel tempo e nell’altezza), la somiglianza (due note di eguale durata saranno più
facilmente raggruppate assieme) e altri principi. Dall’altro lato, la struttura musicale influenza il
raggruppamento in quanto i cambiamenti di armonia, e l’uso di formule ritmiche o melodiche
stereotipate influenzano fortemente il nostro modo di percepire e di mettere assieme gli eventi.
Questo tipo di organizzazione ritmica delle frasi musicali vale negli adulti come nei bambini. Alcuni
studiosi recentemente hanno dimostrato che bambini di 7-9 mesi possono distinguere semplici
configurazioni ritmiche e che inoltre, come gli adulti, le riconoscono quando vengono presentate a
diverse velocità. Questo ancora una volta mostra il livello di astrazione di cui i piccoli sono capaci, in
quanto da un punto di vista percettivo una configurazione ritmica suonata lentamente è estremamente
diversa da una suonata velocemente. Alcuni studiosi hanno presentato a bambini di 4-5 mesi dei
minuetti di Mozart dove erano state inserite delle pause che potevano essere entro o tra le frasi. I
bambini preferivano ascoltare le versioni con le pause inserite tra le frasi. Questo risultato suggerisce
che i bambini siano sensibili agli indizi strutturali dei brani musicali.

1.2 La Musica materna


1.2.1 Il canto materno

In questa sede, mi sembra opportuno soffermarmi sul canto materno, che è la prima esperienza
musicale vera e propria per il neonato. Ninnananne, filastrocche, vere e proprie canzoni sono da
sempre uno dei primi canali di intrattenimento per i bambini, e le mamme utilizzano largamente questi
stimoli, così come i giochi per neonati non mancano di usare semplici melodie per attrarre il bambino o
favorirne il sonno (ad es. i carillon). Ciò avviene in tutte le culture e società e vi è un’ampia
documentazione che mette in luce come il canto materno sia stato diffuso in tutti i periodi storici. Vi
sono alcune filastrocche ancora presenti in società primitive di cui sembra possibile trovare tracce
risalenti a diversi millenni fa.
Il canto materno consiste principalmente in un repertorio di ninnananne e di canzoni finalizzate al
gioco e alla comunicazione delle emozioni (calmare, attivare); per un osservatore ingenuo, le
ninnananne sconosciute, incluse quelle che provengono da culture musicali lontane, mantengono
sempre un qualche carattere di familiarità. Ciò avviene probabilmente perché la loro caratteristica
principale consiste in una estrema regolarità, semplicità e ripetitività della struttura.
La mamma che canta al bambino adotta uno stile particolare, diverso da quello utilizzato in altri
contesti musicali: il canto indirizzato ai bambini è caratterizzato da un registro (tono della voce) più
alto, da un tempo lento e dall’aumento di qualità espressive nella voce. Anche l’età del piccolo influenza
il canto materno: le madri variano il loro modo di cantare a seconda dell’età del bambino. Ad esempio,
quando cantano ai neonati il registro è più alto rispetto a quello usato per cantare a bambini di età
prescolare e l’articolazione delle parole è più pronunciata.
Gli effetti del canto materno sembrano anche andare al di là della presenza della madre, che è
certamente l’elemento di più grande interesse del bambino. Infatti, all’età di 6 mesi i bambini
mantengono l’attenzione più a lungo guardando una videoregistrazione della loro madre che è stata
fatta mentre cantava loro una ninnananna, rispetto alle registrazioni di episodi di un discorso linguistico.
I piccoli rimangono affascinati da questo tipo di canto e mantengono lo sguardo fisso sul monitor. Il
canto materno riesce, inoltre, ad aumentare il livello di attivazione del bambino. Anche usando una
registrazione, i neonati ascoltano per un tempo significativamente più lungo una registrazione di un
canto femminile nello stile materno rispetto a uno cantato in uno stile normale e informale. Infine, i
neonati rimangono più attenti e sono emotivamente più coinvolti nell’ascolto di versioni di canzoni in
un registro alto rispetto ad altre in un registro più basso. Queste preferenze indicano l’importanza delle
caratteristiche vocali del canto e la sua rilevanza anche in condizioni in cui le melodie non sono familiari
e mancano i gesti e i movimenti espressivi che accompagnano spesso il canto materno.
Nonostante vi siano grandi differenze tra canti materni, queste sono piuttosto ridotte a livello
intraindividuale. In un esperimento volto a verificare la ripetitività dei pattern associati al canto
materno, si è visto che quando le madri cantano la stessa canzone per il bambino in due occasioni
separate da una settimana o più, l’altezza tonale differisce di meno di un semitono e la velocità
differisce di non più del 3%, confermando che il comportamento adottato dalle madri nel canto
indirizzato ai bambini è fortemente stabile e basato su consuetudini implicite molto forti. Inoltre, tali
variazioni sono anche minori rispetto a quando viene richiesta la ripetizione di frasi verbali da parte
della madre. Ciò dimostra che il canto ha una certa stabilità nell’insieme generale di comunicazione
madre-bambino e viene associato a specifiche caratteristiche emozionali e comunicative. La ripetizione
frequente di una melodia ai bambini può anche implicare una specie di memoria motoria e può
assomigliare a un rito, sempre messo in atto con lo scopo di facilitare la comunicazione preverbale.

1.2.2. Il significato biologico del canto materno


La predisposizione universale delle madri a cantare ai loro figli e l’impatto di questo canto
sull’attenzione e l’attivazione cognitiva del neonato suggeriscono che il canto materno possa avere
caratteristiche adattive che contribuiscono all’aumento della sopravvivenza neonatale. Come abbiamo
detto, il canto materno è una modalità di comunicazione tra madre e bambino in età preverbale e
sembra che riesca a promuovere relazioni emozionali reciproche e a ridurre la distanza psicologica tra
chi canta e chi ascolta. Certamente il neonato ha un grande interesse per il canto e ne è influenzato. Allo
stesso tempo la madre o il padre hanno nel canto una migliore possibilità di esprimere le proprie
emozioni e affetti, proprio per il fatto che il canto è una forma enfatica, ma socialmente accettata, di
linguaggio. In questo modo il canto materno potrebbe contribuire alla formazione della relazione di
attaccamento tra madre e bambino. Più in generale, il canto materno contribuisce sicuramente al
benessere del piccolo, ad esempio con la riduzione del pianto o l’addormentamento, o con l’aumento
dell’attività motoria e dell’attenzione, a seconda delle situazioni, e ciò è sufficiente perché la madre
tenda a rinforzare questo comportamento. Infine, studi recenti permettono di ipotizzare che il canto
possa aiutare il bambino a imparare la lingua, in quanto sembra facilitare la segmentazione, ossia
l’estrapolazione e il riconoscimento delle parole.
2. Modelli cognitivi di percezione ed elaborazione musicale
2.1. L’esecuzione strumentale

2.1.1. Diventare musicisti esperti


Lo studio della percezione e dell’elaborazione musicale mostra come alcune capacità musicali facciano
parte di una predisposizione innata. Molte ricerche hanno mostrato che anche persone che non hanno
mai studiato uno strumento musicale hanno capacità musicali estremamente sviluppate, proprio come
le persone che non hanno studiato a scuola sanno comunque parlare e capire il linguaggio in maniera
non così diversa da chi ha fatto studi universitari. Ma allora la differenza dove sta? Perché alcuni
diventano musicisti esperti e altri si limitano ad ascoltare e apprezzare la musica?
La risposta sta nel tipo di rapporto che s’instaura fra ogni individuo e la musica. Come abbiamo già
visto, il contatto con la musica può iniziare ben prima della nascita, probabilmente a partire dalla
maturazione del sistema uditivo del feto, nell’ultimo trimestre della gravidanza. Tuttavia, è naturale che
il contatto con la musica più completo e formativo avvenga nei primi anni di vita del bambino. Anche
esperienze che potrebbero apparire superficiali a una prima analisi – il canto e le ninnananne,
coinvolgere i bambini in giochi musicali, l’incoraggiamento a cantare e ballare in presenza di stimoli
musicali – sembrano portare a una facilitazione nel proseguimento di un’educazione musicale. Questo
facilitazione è soprattutto dovuta all’aumento dell’interesse da parte del bambino per la musica. Molti
genitori considerano queste attività come opportunità importanti per l’apprendimento e non è un caso
che l’infanzia del bambino sia circondata da giochi che sempre più cercano di sfruttare un’altra delle
caratteristiche principali dell’ascolto musicale: il piacere che ne deriva.
In seguito all’associazione della musica con esperienze piacevoli, i bambini possono cercare la
stimolazione e l’attività musicale e preferirle rispetto ad altre attività. Sloboda ritiene che la preferenza
particolare del neonato per i suoni musicali non sia innata ma si sviluppi, invece, come risultato delle
esperienze positive del bambino. Queste esperienze influenzano poi fattori di tipo emozionale e
motivazionale che sono alla base della volontà di fruire di una stimolazione e, successivamente, di
un’educazione musicale.
Ciò che è essenziale per imparare a suonare uno strumento è infatti una dimensione ludica della musica,
che può essere trasmessa dai genitori, ma anche scoperta più avanti negli anni, spesso durante la
pubertà. Senza questa dimensione ludica della musica è difficile che un individuo impari a suonare, in
quanto l’esercizio diventerebbe subito noioso e presto abbandonato.
Il caso dell’apprendimento di uno strumento musicale durante o oltre la pubertà è un caso un po’ a
parte, in quanto l’individuo ha già dei mezzi intellettivi per imparare come autodidatta. Invece
l’apprendimento di uno strumento durante l’infanzia necessita anche di un insegnante qualificato. Nel
caso della musica il rapporto bambino-insegnante diviene poi di estrema importanza, in quanto
l’insegnante è quasi sempre uno solo e la lezione quasi sempre individuale. Quindi la responsabilità di
chi insegna è enorme, anche se non sempre gli insegnanti di musica sembrano rendersene conto.
Queste riflessioni ci portano ad aggiungere qualche commento sulla situazione italiana, in quanto non
possiamo esimerci dal fare una breve riflessione sociopedagogica al riguardo. L’Italia è un paese con
una tradizione e una cultura musicale senza eguali. Abbiamo avuto i più grandi liutai del mondo e alcuni
tra i compositori più famosi in ambito cameristico e operistico. Ancora oggi ci sono ottimi musicisti e
direttori d’orchestra italiani di fama internazionale. Tutto ciò dovrebbe suggerire l’importanza della
formazione musicale nelle nostre scuole e la necessità di garantire a tutti un buon livello di formazione
musicale e un’ampia diffusione della musica nella nostra società. Come ben sapete, questo non accade.
Ma cerchiamo soprattutto di capire il perché.
Innanzitutto la scuola. La musica non viene quasi mai considerata tra le materie importanti. Spesso nella
scuola primaria i docenti si ritrovano ad insegnare musica senza sapere assolutamente che cosa fare.
Alle scuole medie al meglio si soffia dentro un piffero suonando Fra’ Martino campanaro per 8 mesi
consecutivi per un’ora alla settimana. Al liceo poi meglio abbandonare completamente la musica,
distrazione troppo pericolosa. La formazione musicale viene quindi lasciata alla famiglia o affidata a
scuole specializzate dette conservatori. Del conservatorio basti dire che il suo nome è assolutamente
appropriato al suo spirito: struttura arcaica, con programmi ministeriali che datano dell’inizio del
ventennio fascista. Ad esempio, poiché jazz e rock non esistevano ancora, sono quasi completamente
ignorati. Gli insegnanti di musica, inoltre, non hanno alcuna formazione in ambito pedagogico. La
maggior parte di essi hanno imparato a suonare lo strumento da giovanissimi e poi si è messa a
insegnare. Fino a pochi anni fa si poteva diventare insegnanti di conservatorio o di educazione musicale
alle scuole medie con il semplice diploma di terza media e il diploma del conservatorio. A riprova
dell’idea che per insegnare violino basta saper suonare Paganini…. E che per suonare bisogna avere
talento….

2.1.2. Pratica e motivazione


La musica non ammette eccezioni al principio per cui “l’esercizio porta al perfezionamento”. Uno
studio ha dimostrato che studenti di violino – stimati dai loro professori come musicisti eccellenti –
hanno accumulato fino all’età di 21 anni circa il doppio di ore di esercitazione (circa 10.000) rispetto ai
musicisti di livello medio (circa 5.000). in un altro studio con 24 pianisti professionisti, si è trovato che
nessuno di essi aveva dimostrato segni di un’abilità eccezionale all’inizio della propria formazione
musicale. L’eccezionalità si è poi venuta a creare gradualmente durante gli anni dello studio formale. Se
infatti la precocità della stimolazione musicale è sicuramente un buon precursore dell’abilità futura, la
padronanza tecnica estremamente precoce non è necessariamente associata al mantenimento di un
livello di eccellenza nella formazione futura. Sloboda ha esteso questa osservazione attraverso lo studio
di giovani musicisti con varie specializzazioni. I dati raccolti hanno dimostrato che la natura del
progressivo miglioramento nella competenza musicale, misurato attraverso scale oggettive, è
essenzialmente in funzione del numero di ore di pratica effettuata da ciascun individuo. La differenza
tra le ore di pratica dei diversi studenti può anche essere estremamente marcata con un effetto
corrispondente nei risultati ottenuti. All’età di 12 anni è stato osservato che alcuni bambini possono
svolgere fino a 120 minuti di esercizio quotidiano, mentre altri si fermano a non più di 15. Non
sorprende che la prestazione dei due gruppi sia diversa, dato che vi è un rapporto di 1 a 8 rispetto al
tempo passato a suonare.
Questi dati confutano quindi la tesi secondo la quale il cosiddetto talento musicale potrebbe portare ad
avere prestazioni musicali eccellenti senza fare fatica. Il talento, qualunque cosa sia, è sicuramente utile,
ma senza fatica ed esercizio non si arriva molto lontano. Fare 10.000 ore di esercizio non è facile per
una persona nella fase dello sviluppo. Per dare un’idea del carico di lavoro richiesto, si devono
accumulare 2 ore di pratica quotidiana per 14 anni. Il giovane musicista inizia, all’età di 6-7 anni, con
15-30 minuti al giorno, per poi aumentare la durata dell’esercizio fino ad arrivare a 4-6 ore quotidiane
verso i 20 anni. È facile capire come per un bambino sia praticamente impossibile mantenere questi
ritmi di esercizio senza l’attivo supporto (e controllo….) dei genitori, e come sia necessario mantenere il
livello di motivazione estremamente alto per continuare l’apprendistato durante l’adolescenza.
La relazione con gli adulti, siano essi genitori o insegnanti, è quindi cruciale per prevedere il
coinvolgimento a lungo termine del bambino nella formazione musicale di alto livello. Un approccio di
caldo e positivo supporto diventa così fattore importante, mentre un approccio troppo critico e
orientato verso il successo sembra meno adatto, soprattutto nelle fasi iniziali dell’apprendimento.
Queste considerazioni sono peraltro dettate anche dal buonsenso e si dovrebbero applicare a tutti gli
ambiti formativi.
Sloboda ha suggerito che anche per il contesto musicale si possano considerare fattori motivazionali
interni ed esterni per mantenere il coinvolgimento musicale da parte dello studente. Il primo tipo di
motivazione, quella interna, si sviluppa attraverso le esperienze piacevoli con la musica (principalmente
di natura estetica o emotiva) e produce un coinvolgimento personale profondo. L’altro tipo di
motivazione è di tipo esterno, legato al successo. La tensione, in questo caso, non viene messa sulla
musica di per sé, ma sul raggiungimento di obiettivi esterni fortemente desiderati (ad esempio
l’approvazione dei genitori, l’identificazione con un modello, la vittoria in una competizione). Gli studi
su come i fattori motivazionali interni ed esterni riescano a influenzare la prestazione di un individuo
sono numerosi e non è il caso di prenderli in questa sede. È solo importante sottolineare come
l’enfatizzazione di motivazioni esterne verso il successo possa inibire le componenti interne e
contemporaneamente trasformare la musica in una fonte d’ansia riducendo gli aspetti di piacere
personale.
Indipendentemente da questi fattori motivazionali, non va dimenticato che non è possibile classificare
la formazione musicale solo in base alla quantità di tempo che uno studente trascorre praticando un
certo strumento. Insieme alla quantità è ovviamente importante la qualità dell’esercizio fatto e quindi i
contenuti e le strategie utilizzate. In particolare è importante gestire bene il passaggio da una pratica
iniziale – principalmente basata sul miglioramento tecnico legato allo strumento – a un miglioramento
successivo focalizzato sull’analisi degli aspetti strutturali più complessi della musica.

2.1.3. Esecuzione e interpretazione


Suonare bene o male uno strumento è il frutto di innumerevoli competenze e solo alcune possono
essere definite specificatamente musicali. Altre competenze possono essere considerate come abilità
tecniche, ad esempio il controllo dell’esecuzione dei movimento delle dita. Queste abilità richiedono
una pratica e un esercizio costante e l’expertise musicale (ovvero la conoscenza diretta delle cose
acquisita nel tempo per mezzo della pratica) rispetto a uno specifico strumento non è certo il prodotto
di un’abilità innata. Certamente alcuni di noi possono essere più o meno predisposti verso un maggiore
controllo motorio fine, che a sua volta è logicamente collegato alla possibilità di diventare, ad esempio,
un buon violinista.
Contemporaneamente, la semplice predisposizione motoria non permetterà di diventare un buon
musicista. In primo luogo serviranno ore e ore di esercizio e in secondo luogo non possiamo trascurare
il fatto che lo studio in maniera puramente tecnica della musica non porta necessariamente ad
apprezzare un brano musicale e nemmeno a essere bravi musicisti. Saper leggere e scrivere velocemente
e senza errori non ci porta certo a essere dei bravi attori o scrittori. Sono prerequisiti necessari ma
niente di più.
L’esecuzione tecnicamente perfetta corrisponde a quella generata in modo meccanico e spesso viene
giudicata, dagli ascoltatori, poco interessante. I fattori che la trasformano da una performance
meccanica a una performance musicalmente interessante sono le piccole fluttuazioni di dinamica, ossia
di tempo/durata, intensità e timbro che, tutte insieme, rendono un’esecuzione più o meno espressiva.
La cosa interessante è che tali fluttuazioni hanno una componente che è comune a tutti i musicisti e
un’altra che permette di distinguerli l’uno dall’altro. Ad esempio, se si chiede a musicisti con livelli
diversi di expertise di eseguire uno stesso brano, si osserva che tutti i musicisti hanno tendenza a
rallentare alla frontiera delle frasi musicali, anche se tale rallentando non è indicato sullo spartito. Tutti i
pianisti, inoltre, avranno tendenza ad anticipare le note della melodia rispetto alle note
dell’accompagnamento anche se sono scritte come simultanee. Questa asincronia controllata permette
di far emergere la melodia dal flusso sonoro complesso. Questi fenomeni, e altri legati a fluttuazioni
espressive, si spiegano con il fatto che una delle funzioni dell’interpretazione è mettere in luce il
contenuto di una data struttura musicale. Nel linguaggio, la prosodia ha una funzione analoga e un
esempio linguistico potrà quindi aiutarvi meglio a capire di cosa stiamo parlando. Leggete ad alta voce
la frase:«Ho preso un ottimo voto in storia». Ora pensate di rispondere alla domanda:«Hai preso un
ottimo voto in storia o in filosofia?». Ripetete la frase precedente come risposta. Ora pensate di
rispondere a un’altra domanda:«Hai preso un ottimo o un pessimo voto in storia?». Ripetete la frase
come risposta. Vedete come a seconda del caso metterete un accento, che comporta anche un
allungamento della sillaba accentuata, sulla /o/ di ottimo o sulla /o/ di storia. Questo accento focale
serve a mettere in luce la parola chiave nella frase. In modo analogo, accenti, allungamenti o respiri
all’interno di un brano musicale servono a metterne in luce il contenuto. Alcuni studi hanno mostrato
come i musicisti non siano in grado di suonare in maniera meccanica. Infatti, anche qualora si chieda di
fare un’esecuzione a metronomo, avranno comunque una tendenza a riprodurre le stesse fluttuazioni
dell’esecuzione naturale, anche se ridotte sul piano quantitativo. Al contrario, se si chiede un’esecuzione
esageratamente espressiva, i musicisti enfatizzeranno le stesse fluttuazioni dell’esecuzione naturale.
Un’altra funzione dell’interpretazione è mettere in luce il contenuto emozionale della musica. Anche in
questo caso, si ritrovano modificazioni espressive simili attraverso musicisti e strumenti diversi, qualora
si voglia esprimere una stessa emozione. Se quindi da un lato la struttura di un brano influenza
fortemente i musicisti, esistono comunque differenze individuali che possono essere più o meno
marcate. L’uso di tali fluttuazioni espressive aumenta dai musicisti novizi agli esperti, è maggiore
durante lo studio di un brano da parte di uno stesso musicista e cambia anche da un’esecuzione all’altra
di un professionista. Queste diversità permettono anche di distinguere i musicisti e, in qualche misura,
ne definiscono anche la qualità. Tutti questi indizi prosodici sono di estrema importanza in un ambito
come la musica, ricco di ambiguità strutturali ed emozionali. Meyer sostiene che le attese dell’uditore,
basate sulla struttura gerarchica della musica, sono essenziali per una reazione emotiva. Quanto meglio
l’uditore potrà percepire la struttura di un brano, quanto più precise saranno le attese e maggiori le
emozioni. Quindi, potremmo vedere l’esecuzione musicale come parte di un sistema comunicativo nel
quale il compositore codifica le idee musicali in forma notazionale impoverita, l’esecutore ricodifica
trasformando la notazione in suono e chi ascolta ricodifica il segnale acustico in pensiero astratto.

2.1.4. Expertise ed esercizio


Quando si valuta l’expertise specifica di un individuo, di fatto vuol dire che si analizza che cosa è
cambiato nel funzionamento cognitivo di un soggetto come conseguenza di una pratica precedente, di
solito lunga e intensa. Specularmente ciò significa andare a identificare le componenti qualitatitive e
quantitative che caratterizzano una competenza in uno specifico dominio di conoscenza. Questo non
vuol dire che il confronto tra musicisti esperti e inesperti possa realmente prevedere un esame analitico
di tutte le differenze, biologiche o ambientali, che hanno portato alla disparità di competenze; tuttavia, è
possibile identificare alcune strategie o processi cognitivi particolari che vengono messi in atto come
conseguenza di una maggiore o minore pratica specifica e, quindi, tentare di generalizzare questi dati
verso principi di funzionamento cognitivo più generale.
Le prime ricerche sull’expertise si sono focalizzate sulle differenze nella capacità di memoria. Studi con
giocatori di scacchi hanno rivelato che i giocatori esperti riescono a ricordare l’immagine di una
scacchiera e a prevedere i movimento successivi in maniera significativamente più facile rispetto ai non
esperti. Il vantaggio degli esperti sparisce nel momento in cui vengono posizionati pezzi in modo
casuale e inverosimile rispetto alle regole del gioco. Il vantaggio è quindi il prodotto delle capacità di
associare alla scacchiera schemi passati, conoscenze personali e altro, che rendono più facile la
memorizzazione. Se impediamo l’utilizzo di schemi personali, come nel caso di scacchiere “assurde”,
anche il vantaggio sparisce indicando chiaramente che non vi sono differenze in una generica e
indifferenziata capacità di memoria. Il principio che sta alla base di questo effetto è quello del
raggruppamento: gli esperti riescono a codificare le informazioni sulla base di schemi predefiniti con
maggiore facilità e ciò determina di fatto una riduzione delle informazioni da memorizzare e quindi il
miglioramento delle prestazioni. L’accumulo di esperienza in uno specifico dominio permette
l’organizzazione delle informazioni sotto forma di configurazioni complesse gerarchicamente
organizzate, sfruttando al massimo le capacità di memoria. Possiamo quindi definire l’esperienza come
il processo cognitivo attraverso il quale la conoscenza si costituisce. Sulla base di queste osservazioni è
stato anche facile concludere come la migliore prestazione degli esperti sia legata all’esercizio e non a un
fattore generale di sviluppo.
Nell’ambito musicale, i ricercatori hanno focalizzato la loro attenzione sulla lettura della musica per
studiare l’acquisizione della competenza musicale. l’ipotesi del raggruppamento è stata confermata
anche in questo ambito: Bean (1938) ha trovato che, mostrando per una breve durata una sequenza
musicale a musicisti professionisti, essi potevano ripetere cinque note, mentre musicisti non
professionisti potevano ripeterne due o tre, i principianti riuscivano a ripeterne soltanto una o due.
Bean ha anche suggerito che queste differenze potrebbero essere collegate allo stile percettivo dei
soggetti: ovvero il processo di raggruppamento potrebbe avvenire già nella fase di percezione degli
stimoli. I musicisti professionisti tendevano a leggere creando configurazioni musicali più complesse,
mentre i principianti leggevano la musica in modo analitico, nota per nota.
Sempre nello stesso periodo, Weaver (1943) ha dimostrato che i musicisti professionisti riescono a
identificare fino a cinque note dopo un’unica breve presentazione. Ciò indica che i professionisti
riescono a elaborare gruppi di note invece di unità singole; anche Wolf (1976), attraverso una serie di
interviste a musicisti professionisti, ha collegato le capacità di lettura a prima vista con l’abilità di
riconoscere e organizzare la musica in configurazioni familiari. Al contrario, i musicisti che utilizzavano
una strategia analitica avevano anche una scarsa capacità di lettura a prima vista, anche nei casi in cui la
loro abilità di memoria fosse superiore rispetto a quelli più esperti nella lettura.
Gruson (1988) ha studiato i processi cognitivi legati all’acquisizione delle competenze musicali
attraverso l’osservazione delle fasi di esercizio di studenti di pianoforte di diverso livello. Lo studio si è
focalizzato sulle strategie di esercizio e sul loro cambiamento associato all’aumento di esperienza. I
risultati mostrano come l’aumento di esperienza e delle competenze musicali modifichi in modo
significativo il comportamento di soggetti negli esercizi al pianoforte. Lo sviluppo delle competenze
musicali porta a un aumento del numero di ripetizioni, all’utilizzo di strategie di verbalizzazione,
all’indipendenza tra le due mani e alla capacità di proseguire l’esercizio per periodi più lunghi. I soggetti
più esperti sono in grado di rappresentarsi mentalmente il proprio comportamento nell’esercizio più
vario e complesso. In altri termini, un determinato brano viene associato contemporaneamente sia alla
sequenza di movimenti necessari per eseguirlo, sia a particolari aspetti dello spartito, sia alle variazioni
di tempo e dinamica che si sono verificate nell’intero brano. Questi cambiamenti modificano
notevolmente la capacità di interpretare un brano, dando origine alle fluttuazioni di cui abbiamo parlato
in precedenza. In generale, questi studi indicano che, con l’aumento del livello dell’expertise, il pianista
è in grado di mettere in atto e variare una grande quantità di strategie, che diventano via via più
complesse, astratte e flessibili.
La lettura musicale può essere vista come un continuo passaggio da un processo controllato a uno
automatico, dove le unità d’informazione musicale aumentano progressivamente. Lo studente si
focalizza inizialmente sull’associazione di note individuali scritte sullo spartito con la posizione della
mano sullo strumento, attraverso un processo controllato. Con la pratica, le associazioni fra le note e la
mano diventano automatiche e l’attenzione può essere focalizzata su pattern musicali più complessi
come gli accordi, le battute e, infine, le frasi musicali. In questo modo le unità più complesse possono
essere eseguite in modo automatico con un singolo sguardo allo spartito.
Anche per quanto riguarda la correzione degli errori si notano differenze in base al livello di esperienza.
Il principiante tende a percepire un brano come una serie di note indipendenti non strutturate fra loro:
quando viene commesso un errore, tende a ripetere la singola nota o la battuta che contiene l’errore. Il
musicista esperto, al contrario, affronta il brano musicale dall’alto verso il basso attraverso una
decomposizione in configurazioni organizzate in modo gerarchico, con sezioni indipendenti ma legate
tra loro. Per correggere un errore, il musicista ripeterà l’intera unità strutturale o un’intera sezione
invece che una componente isolata come una nota.

2.2 La musica e le capacità non musicali


La musica rende più intelligenti? Forse alcuni avranno sentito dire qualcosa a riguardo. La gente in
generale ama avere soluzioni facili a problemi difficili. Purtroppo, spesso tali soluzioni si rivelano
inefficaci. Negli USA, l’idea che l’ascolto di musica classica possa rendere più intelligenti ha avuto un
enorme successo, e alcuni Stati hanno un programma particolare per i neonati, che ricevono in regalo
un CD con musiche di Mozart. L’”effettoMozart” (così come si chiama) ha insomma spopolato ed è
divenuto una vera fonte di affari (nuove terapie, vendite di CD, giochi, libri, ecc.). Il fenomeno è poi
dilagato arrivando anche in Italia, dove vengono ora proposte terapie fantasiose con spiegazioni
pseudoscientifiche. Prima di descrivere l’effetto Mozart più in dettaglio è necessario fare alcune
riflessioni in termini più generali.
In quali casi un beneficio intellettivo in seguito a un’esposizione passiva alla musica diventa
interessante? Innanzitutto, tale beneficio dev’essere sistematico e credibile. Infine, ci dev’essere una
teoria solida e trasparente che permetta di spiegare il fenomeno. Questi criteri vanno al di là dell’effetto
della musica. Sono criteri di tipo metodologico e si applicano ogniqualvolta ci si interessi a possibili
benefici generici di un’attività.
Riprendiamo l’ultimo punto, sull’importanza di avere una teoria esplicativa. Se ad esempio si dovesse
mostrare che ascoltare la musica aiuta a risolvere un problema di matematica più velocemente, si
dev’essere in grado di poter rispondere alla domanda: che cosa si è imparato? Che cosa nella musica
facilita la soluzione del problema di matematica? Se non siamo in grado di rispondere a questa
domanda, il gioco della scienza diventa di colpo poco interessante e credibile. Affronteremo il problema
suddividendo il fenomeno in sottocategorie. Prima ci occuperemo di un possibile effetto dell’ascolto
passivo, poi ci interesseremo al possibile effetto della pratica musicale. Un altro criterio importante sarà
la distinzione fra effetti temporanei di breve durata ed effetti persistenti a lunga durata. Da un punto di
vista psicologico e neurofisiologico, questa distinzione è molto importante: infatti, a seconda che un
possibile effetto della musica duri un secondo (ad es. dopo l’ascolto di un suono), 10 minuti (ad es
dopo l’ascolto di un brano) o sia stabile (ad es. dopo 10 anni di pratica assidua), tale effetto riflette
fenomeni assai diversi.
2.2.1. Effetti dell’ascolto: esiste l’effetto Mozart?
Il grande interesse attorno ai possibili benefici dell’ascolto di musica è nato a seguito della
pubblicazione di una ricerca che mostrava delle abilità visuo-spaziali superiori per i partecipanti che
avevano ascoltato una sonata di Mozart prima dei test, rispetto a un gruppo che aveva atteso in silenzio
o ascoltato istruzioni di rilassamento. Nonostante l’effetto fosse di una durata assai limitata (10-15
minuti), fosse circoscritto a un numero molto limitato di “test d’intelligenza” e fosse stato studiato su
giovani studenti universitari, questi risultati hanno dato vita all’effetto Mozart e al suo successo sopra
descritto.
Anni dopo, incuriositi dal successo commerciale, alcuni ricercatori hanno intrapreso degli studi per
capire meglio l’effetto Mozart e fornire una spiegazione plausibile: infatti la spiegazione data all’inizio si
basava su un modello neurofisiologico assai nebuloso. Altri ricercatori replicarono nel 1999 lo studio
iniziale aggiungendo altri due gruppi sperimentali: un gruppo che ascoltava la musica di Schubert e un
gruppo che ascoltava un racconto. Rispetto al gruppo che sedeva in silenzio, i due gruppi che
ascoltavano Mozart o Schubert mostrarono una prestazione migliore nei compiti visuo-spaziali
(“effetto Schubert”?). La cosa interessante è che non venne evidenziata alcuna differenza fra i gruppi
che ascoltavano musica e quello che ascoltava il racconto. Inoltre si trovò un’interazione fra prestazione
e preferenze: ossia, i soggetti che preferivano Mozart avevano una migliore prestazione dopo l’ascolto
di Mozart, mentre quelli che preferivano il racconto avevano una prestazione migliore dopo l’ascolto
della storia (“effetto Stephen King”). Un altro gruppo di ricercatori, in una meta-analisi di 20 studi
sull’effetto Mozart (intitolata Preludio o Requiem per l’effetto Mozart?), mostrò come l’effetto fosse
visibile unicamente su un compito visuo-spaziale, non fosse significativo e fosse più piccolo della
variazione media intraindividuale nei test d’intelligenza. Il fatto che l’effetto fosse sensibile alla
preferenza portò uno degli studiosi a ipotizzare che l’effetto Mozart non fosse null’altro che un effetto
legato all’umore e a uno stato generale di attivazione. In effetti, pensandoci un po’, il fatto di aspettare
in silenzio per 15 minuti prima di svolgere i test d’intelligenza non è una fonte di motivazione
eccezionale. Inoltre mostrò anche che, se l’aspetto emotivo e “attivante” della musica di Mozart veniva
modificato, ad esempio suonando più lentamente o in modalità minore, l’effetto Mozart variava di
conseguenza. Inoltre, ragazzini di 11 anni ebbero una migliore prestazione dopo aver ascoltato un
gruppo pop e bambini di 5 anni dopo aver ascoltato canzoni per bambini che dopo aver ascoltato
Mozart. In altre parole, l’ascolto della musica può aumentare la prestazione in una serie di compiti
cognitivi, ma tale effetto è mediato dallo stato di attivazione e dall’umore. Ascoltare Mozart non ha
quindi un’unica e speciale conseguenza per abilità visuo-spaziali. La musica ha invece una capacità di
cambiare l’umore e lo stato di attivazione e questo influisce sulla prestazione in compiti cognitivi, non
solo per le competenze visuo-spaziali.

2.2.2 Le lezioni di musica


Quando ci si interessa ai possibili effetti delle lezioni di musica in ambiti non musicali, si trova un
cospicuo numero di ricerche che mostrano un vantaggio generalizzato, suggerendo l’importanza di
favorire un’educazione musicale. Purtroppo, la quasi totalità di queste ricerche presenta problemi
metodologici a livello del compito di controllo o a livello della comparabilità dei gruppi sperimentali.
Alcuni studi si sono interessati alle possibili correlazioni fra abilità musicale e altri tipi di abilità non
musicali. Le correlazioni positive trovate in questi studi implicano che il miglioramento dell’abilità
musicale, attraverso lezioni formali di musica, sia accompagnato da benefici non musicali. In tali
tipologie di studi, tuttavia, non è possibile controllare se la correlazione sia legata a sua volta ad una
terza variabile sconosciuta. Alcuni studiosi hanno mostrato che, in un gruppo di bambini di 10 anni,
diverse misure di abilità musicale correlano positivamente con le prove generalmente utilizzate per
misurare l’intelligenza. Questo ci suggerisce che l’abilità musicale dipenda da un livello generico
d’intelligenza, ma non spiega la causa di tali correlazioni. Altri studi hanno mostrato correlazioni più
specifiche. Ad esempio, la capacità di lettura e la consapevolezza fonetica sembrano essere associate
positivamente con la capacità di discriminazione dell’altezza, ma non con l’abilità di discriminazione del
timbro.
Gli studi che hanno usato il confronto fra due o più gruppi sperimentali permettono di andare un po’
oltre la semplice correlazione, ma solo a patto che i gruppi siano identici sotto tutti gli aspetti. Per
quanto i problemi metodologici rendano impossibile una chiara interpretazione dei dati, diversi studi
suggeriscono un effetto positivo delle lezioni di musica in ambiti non musicali, dalla memoria verbale,
alle abilità matematiche, alla lettura.
L’unico studio che merita di essere considerato in questo settore per il rigore sperimentale con cui sono
state condotte le ricerche è quello di Schellenberg (2004). In questa ricerca una serie di test
d’intelligenza è stata somministrata a 144 bambini di 6 anni, che hanno poi seguito per 36 mesi lezioni
di piano, canto, teatro o nulla di extrascolastico. Alla fine di questo periodo i test sono stati
somministrati nuovamente. Ovviamente tutti i gruppi hanno avuto risultati migliori, poiché i bambini
nel frattempo erano maturati. I gruppi che avevano seguito musica hanno però mostrato un
miglioramento maggiore rispetto agli altri gruppi. Ci sono diverse spiegazioni possibili. La più semplice
è che le attività di musica, essendo più simili ad attività scolastiche rispetto al teatro, favoriscono i
bambini nei test d’intelligenza, che sono test scolastici. Un’altra possibilità è che le lezioni di musica
sviluppino un certo numero di abilità quali l’attenzione selettiva, la concentrazione, la memorizzazione,
ecc. Una terza possibilità è che la musica promuova uno sviluppo intellettivo grazie alla sua natura
astratta. Imparare a pensare in maniera astratta lavorando sulle forme e sulle strutture musicali potrebbe
facilitare lo sviluppo intellettivo in maniera generica.
In conclusione, la musica rende più intelligenti? La risposta è nell’insieme affermativa. L’ascolto e la
pratica musicale possono portare a benefici a breve e lungo termine. I benefici a breve termine sono
legati alla capacità della musica di modificare lo stato attentivo e motivazionale, né più né meno
dell’ascolto di un racconto interessante o del guardare un bel film. I meccanismi sottostanti i benefici
intellettivi delle lezioni di musica sono meno chiari e necessitano di ulteriori ricerche, prima di poter
concludere che ci sia qualcosa di speciale nella musica. Senza dubbio il fatto di seguire delle attività
extra-accademiche aiuta lo sviluppo intellettivo. La musica è certamente un’attività ludica, che richiede
lo sviluppo di diverse abilità (attenzione, concentrazione, sincronizzazione, motricità, lettura della note)
e che stimola inoltre l’interazione con altre persone nel rispetto di un certo numero di regole astratte
(andare a tempo, accompagnare, ecc.). L’ascolto e la pratica della musica non sono però una soluzione
facile al problema dell’intelligenza. Se gli effetti dell’ascolto sono molto limitati e scompaiono dopo 10
minuti, la pratica musicale è tutt’altro che facile, e quei pochi punti di Quoziente Intellettivo costano
sforzi considerevoli, che potranno fra l’altro essere ottenuti facendo altri tipi di attività.

2.3. Pratica musicale e plasticità cerebrale


2.3.1. La plasticità cerebrale
Per lungo tempo si è sostenuto che il cervello è geneticamente definito e che dopo la nascita i
cambiamenti possibili sono pochissimi o addirittura inesistenti. La nostra cultura è impregnata fino al
midollo di questo concetto e la musica non fa eccezione. Basti pensare all’idea diffusa che non si possa
imparare uno strumento musicale se non si comincia fin da piccoli a esercitarsi. Inoltre si spinge spesso
il concetto ancora oltre, sostenendo che se non si è bravi da piccoli in una certa attività (musica,
matematica, scrittura o altro) non c’è speranza di divenire bravi da grandi. Oggi possiamo dire con una
certa sicurezza che questo non è vero. Basta guardarsi attorno. Ci sono innumerevoli esempi di
personaggi famosi che hanno cominciato tardi la loro professione (anche musicisti), e ci sono anche
esempi di soggetti che da bambini non erano particolarmente dotati ma che hanno poi ottenuto
riconoscimenti a livello mondiale. Ci sono addirittura alcune culture (ad es. certi zingari della Romania)
nelle quali ai bambini viene vietato di suonare uno strumento musicale fino all’adolescenza. Come è
possibile tutto questo?
La spiegazione delle neuroscienze è che il cervello gode di un’importante plasticità. Come nelle arti
plastiche si forgia e si modifica la materia, così al giorno d’oggi si considera il cervello sia una struttura
che possa modificarsi nel tempo. Questo non vuol dire negare l’esistenza di una predisposizione
genetica, che è talvolta l’unica spiegazione a fenomeni di genio come Mozart. In effetti alla nascita
esistono connessioni neuronali che sono predeterminate geneticamente. Tali connessioni sembrano
essere particolarmente plastiche nelle prime fasi dello sviluppo infantile, ma possono essere
sostanzialmente modificate anche durante l’età adulta attraverso l’esperienza. Possiamo immaginare due
tipologie di modificazione cerebrale: a) una certa popolazione di neuroni particolarmente sollecitata, ad
esempio dalla pratica musicale intensiva, recluta i neuroni adiacenti per avere man forte; b) un’altra
popolazione di neuroni particolarmente sollecitata si riorganizza in modo tale da essere più efficiente.
In questo modo abbiamo due tipologie di modificazioni cerebrali, che nel linguaggio delle neuroscienze
chiameremo rispettivamente “strutturale (o morfologica)” e “funzionale”.
Come studiare la plasticità cerebrale umana? Ci sono almeno tre grandi approcci. Nel primo si studia lo
sviluppo del bambino e si seguono i cambiamenti cerebrali legati all’età e all’esperienza (approccio
evolutivo). Nel secondo si mettono a confronto i funzionamenti cerebrali di due popolazioni che siano
diverse sotto un aspetto, ad esempio musicisti e non musicisti. Nel terzo si studia come il cervello si
riorganizzi in seguito a un evento patogeno, che può andare dalla cecità fino al danno cerebrale (ad es.
ictus, trauma). Nei tre approcci si possono studiare le modificazioni del comportamento. Ad esempio,
un ricercatore interessato alla plasticità della corteccia uditiva potrebbe studiare l’evoluzione della
percezione del timbro con l’età, valutare se i musicisti abbiano una percezione più accurata del timbro
rispetto a non musicisti e se i pazienti con una determinata lesione cerebrale riescano a recuperare (con
il tempo e la riabilitazione) la capacità di discriminare due timbri diversi (ammesso che l’abbiano persa
in seguito alla lesione). Se negli studi comportamentali si avanza l’ipotesi che le modificazioni del
comportamento siano il risultato della plasticità cerebrale, l’avvento delle tecniche di neuroimmagine ha
permesso negli ultimi decenni di studiare anche la plasticità cerebrale affettiva. Ad esempio, per tanti
anni si è saputo che le persone cieche hanno meccanismi compensatori che migliorano la loro abilità
uditiva, ma solo recentemente è stato possibile dimostrare che ciò è collegato a una maggiore densità
della corteccia uditiva. Inoltre, mentre la percezione spaziale dei suoni (da dove viene?) sembra essere
elaborata nelle aree parietali, nelle persone cieche entrano in gioco anche le aree visive. Questo
potrebbe forse spiegare la superiorità comportamentale dei non vedenti nei compiti di identificazione
spaziale delle fonti sonore.
Nel seguito di questa lezione sulla plasticità, si riporteranno solo studi che mettono a confronto i
musicisti e i non musicisti. Vi accorgerete che la maggior parte degli studi che vi descriverò si interessa
alle modificazioni delle aree sensoriali della corteccia cerebrale, ossia la corteccia uditiva e la corteccia
senso-motoria. Il focalizzarsi su queste aree è motivato dal fatto che queste zone sono ben delimitate
nello spazio, assai specializzate e in una certa misura autosufficienti. Spieghiamoci meglio. Se ci
interessiamo ad esempio agli effetti della pratica musicale sulla percezione della frequenza delle note
(altezza), possiamo fare l’ipotesi che la corteccia uditiva sarà modificata in un certo modo (strutturale o
funzionale). D’altro canto, se volessimo interessarci agli effetti della pratica musicale sull’attribuzione di
senso alla musica, non sapremmo in quale struttura cerebrale cercare. Non solo, il senso della musica
necessita di un’ampia rete di aree cerebrali diverse, ma potrebbero anche esserci altri fattori, non legati
alla pratica musicale, che potrebbero intervenire e rendere l’interpretazione dei risultati difficile o
impossibile. Infine, non bisogna dimenticare che se la pratica musicale è privilegio dei musicisti,
l’ascolto musicale è invece privilegio della popolazione mondiale. Questo rende la ricerca problematica,
in quanto non esiste un “non uditore” musicale. I non musicisti ascoltano altrettanta musica che i
musicisti e di conseguenza il loro cervello si modifica. Ci sono diversi studi che hanno mostrato come,
dal punto di vista comportamentale, non ci siano grandi differenze fra musicisti e non rispetto a
compiti di memorizzazione di sequenze musicali, rispetto alla comprensione del contenuto emotivo,
rispetto all’identificazione delle strutture musicali e via dicendo. In altre parole i non musicisti imparano
implicitamente un’enormità di cose sulla musica, così come imparano a parlare ascoltando. Quindi, lo
studio della plasticità cerebrale dei musicisti è spesso diretto ad alcune funzioni specifiche che si
sviluppano in particolar modo in seguito alla pratica intensiva.

(Piccola parentesi sulle origini fisiologico-neurologiche)


L’oggetto più complesso, meraviglioso e misterioso dell’universo conosciuto è un pugno di carne
gelatinosa che mediamente non raggiunge i 1500 grammi, ma pullula di una vita straordinaria: cento
miliardi di cellule, ognuna delle quali sviluppa una media di diecimila connessioni con le sue vicine.
Queste cellule uniche e fantastiche, i neuroni, dal terzo al sesto mese di gravidanza crescono al ritmo di
250.000 al minuto. Qualche settimana prima della nascita la loro moltiplicazione si blocca e comincia
quello che sarà il compito ininterrotto del cervello: creare connessioni tra una cellula e l’altra. Come
scolpire una statua a partire da un blocco di marmo, spiegano i neurofisiologi, c’è una ridondanza
iniziale di materiale, dalla quale si crea la forma per eliminazione. Le cellule che falliscono le connessioni
vengono eliminate. Al momento del parto saranno dimezzate rispetto al loro picco e il numero è fissato
per sempre, dato che quando muoiono non vengono sostituite da nuove generazioni, come accade per
la pelle. La loro morìa nel corso della vita è impressionante: a partire dai 30-40 anni, spariscono al ritmo
di centomila al giorno. Eppure le nostre facoltà mentali non declinano, anzi, lo scorrere del tempo
spesso le migliora. Simili a veterani di mille battaglie, queste cellule invecchiano, perdono pezzi per
strada eppure continuano a vincere. Com’è possibile? Questa è una delle tante domande in cui ci si
imbatte riflettendo sul cervello, l’organo della funzione più alta prodotta dall’evoluzione, il mistero più
impenetrabile sul quale si interroga da sempre l’umanità.
Il cervello è suddiviso in centinaia di aree, ognuna delle quali governa una specifica funzione. Quando
pensiamo, parliamo, cantiamo, ricordiamo o ci muoviamo, queste aree si attivano in maniera trasversale,
dando gli ordini che ci permettono di agire. Oggi si può individuare nel cervello l’area che corrisponde
alle varie azioni.
Antonio Damasco, neurobiologo americano che ha studiato oltre duemila casi clinici di lesioni cerebrali
sostiene che il cervello è ben più oltre della somma delle sue parti:«La mente ha la sua sede nei processi
cerebrali, ma essi esistono perché il cervello interagisce con il corpo; e questo con l’ambiente dà forma
al cervello. Non tutto è scritto nei geni, innato. Sono le emozioni e l’esperienza a dare forma al
cervello».
Il cervello non è un organo definito alla nascita. Esso è una potenzialità che si realizza giorno dopo
giorno, nell’interazione con il mondo esterno. Il motore di tutto sono i neuroni.
Fino a poco più di un secolo fa si riteneva che il cervello, a differenza di tutti gli altri tessuti del corpo
umano, non fosse costituito da cellule separate, bensì da una rete continua di materiale cellulare. Fu
solo l’applicazione del metodo inventata da Camillo Golgi che permise la descrizione dei neuroni, cioè
le cellule nervose come unità distinte. È grazie a questo scienziato che noi oggi sappiamo che il cervello
umano è costituito da circa cento miliardi di neuroni, morfologicamente indipendenti ma
funzionalmente interconnessi.
È proprio nella struttura e nel funzionamento delle connessioni tra neuroni che risiede il segreto del suo
funzionamento. I neuroni, infatti, possono essere visti come cellule non molto differenti dagli altri tipi
cellulari per quanto riguarda i meccanismi alla base del loro funzionamento, ma che, rispetto a questi,
hanno enormemente sviluppato e affinato la capacità di comunicare tra loro e con gli organi periferici.
Possiamo infatti pensare a un neurone come a una cellula specializzata nel ricevere, processare e
ritrasmettere informazioni. Queste informazioni potranno dar luogo a fenomeni diversi a seconda del
neurone interessato, quali per esempio la contrazione di un muscolo, l’accelerazione del battito cardiaco
o la generazione di un ricordo o di un’emozione.
Se si osserva l’organizzazione e la forma dei neuroni, appare evidente la loro grande eterogeneità. In
base a queste caratteristiche possiamo annoverare più di mille tipi di neuroni diversi. Ma poiché per il
funzionamento di un neurone non sono importanti solo la sua forma e le sue proprietà intrinseche, ma
anche le connessioni che esso forma con gli altri neuroni del cervello, è possibile forse dire che non
esistono due neuroni uguali tra loro. In ogni caso anche volendosi limitare alla descrizione della
morfologia dei neuroni, essa risulta alquanto complessa. Anche se tra i vari tipi di neuroni esistono
differenze, essi sono per lo più accomunati dalla presenza di un corpo cellulare (detto anche soma)
dove è localizzato il nucleo, e da un prolungamento, chiamato assone, che serve a trasmettere le
informazioni mentre tutti gli altri, chiamati dendriti, servono invece a riceverle.
Questa asimmetria può essere spinta a livelli estremi. Si pensi, per esempio, ai motoneuroni, il cui corpo
cellulare risiede nel midollo spinale e i cui assoni si spingono sino ad innervare la punta del piede! Si
tratta di neuroni che a fronte di un corpo cellulare con un diametro nell’ordine del centinaio di
millesimi di millimetro, possiedano un assone lungo circa un metro.
La presenza di prolungamenti lunghi e ramificati fa sì che i neuroni possieda una superficie molto estesa
rispetto al volume complessivo e questa caratteristica facilita lo stabilirsi di contatti numerosi e
complessi. Questa morfologia assai articolata pone però il problema della trasmissione dei segnali non
solo tra un neurone e l’altro, ma anche all’interno del singolo neurone.
Le strutture neuronali deputate alla trasmissione delle informazioni sono le sinapsi.
All’estremità del neurone più lontana dal corpo cellulare, l’assone si rigonfia e dà origine al bottone
terminale. All’interno di questo bottone si trovano sacche specializzate chiamate vescicole che
immagazzinano le molecole dei neurotrasmettitori. È qui che il segnale elettrochimico che viaggia lungo
l’assone è convertito in un segnale chimico che può essere trasmesso dal neurone alle cellule con cui si
connette. Il bottone terminale di un neurone, l’area recettoriale della cellula successiva (che può essere
un altro neurone, un muscolo o una ghiandola) e, lo spazio fra essi, formano una sinapsi: la
comunicazione nelle sinapsi viene garantita dai neurotrasmettitori.
Le vescicole rilasciano i neurotrasmettitori, i messaggeri chimici in grado di attraversare lo spazio
sinaptico e “agganciare” il recettore appropriato posto sul bottone del neurone successivo.
Il numero delle sinapsi per ogni neurone può essere altissimo: in genere è compreso tra mille e
diecimila, ma talvolta arriva fino a centinaia di migliaia.

2.3.2. La plasticità corticale nel training musicale

La rappresentazione somatosensoriale
L’indagine della corteccia somatosensoriale fornisce un esempio straordinario per lo studio della
plasticità neuronale nei musicisti professionisti. La corteccia cerebrale del sistema somatosensoriale
presenta un’organizzazione topografica dei neuroni. Questo vuol dire che ogni parte del corpo è
mappata su un’area precisa della corteccia.
Elbert e colleghi nel 1995 hanno messo a confronto la rappresentazione corticale della corteccia
somatosensoriale di due gruppi di soggetti: un gruppo di musicisti che suonavano strumenti ad arco con
esperienza musicale media di 12 anni e un gruppo di controllo senza alcuna informazione musicale.
Utilizzando una breve stimolazione che consisteva in una lieve pressione delle dita (pollici e mignoli) di
entrambe le mani, è stato osservato un aumento della rappresentazione corticale delle dita della mano
sinistra nel gruppo dei musicisti. Bisogna ricordare che le dita della mano sinistra, in questi musicisti,
sono utilizzate in modo intensivo e preciso per cambiare l’altezza delle note, mentre le dita della mano
destra sostengono l’arco. Non a caso, le rappresentazioni corticali ottenute dalla stimolazione della
mano destra non differivano tra il gruppo di musicisti e il gruppo di controllo. Inoltre, l’aumento della
rappresentazione corticale somatosensoriale della mano sinistra, nei musicisti, correlava con l’età
d’inizio degli studi musicali. Infatti la rappresentazione corticale delle dita della mano sinistra era
maggiore nei soggetti che avevano cominciato a suonare lo strumento da giovanissimi. Se da un lato
questo farebbe pensare a una maggiore plasticità corticale nell’infanzia, non bisogna dimenticare che i
musicisti che avevano iniziato prima avevano anche, di conseguenza, più anni di esperienza.

La rappresentazione uditiva
In maniera analoga alla corteccia somatosensoriale, anche la corteccia uditiva ha un’organizzazione
interna, detta tonotopica, che rispetta la dimensione dell’altezza (frequenza). Pantev e collaboratori
hanno messo a confronto due gruppi di musicisti con l’orecchio assoluto e con l’orecchio relativo e un
gruppo di controllo composto da soggetti senza esperienza musicale strumentale. I partecipanti dei
diversi gruppi ascoltavano una sequenza di note suonate al pianoforte o con un sintetizzare (suoni puri
sinusoidali). La risposta della corteccia cerebrale nelle aree uditive dei due gruppi di musicisti era
maggiore per le note suonate con il pianoforte rispetto ai suoni puri. Diversamente, nel gruppo di
controllo non c’era nessuna differenza tra le note suonate al pianoforte e i suoni puri. Questi risultati
possono essere interpretati come un aumento della rappresentazione della corteccia uditiva, necessaria
all’elaborazione fine dei suoni musicali, nei soggetti musicisti. Esattamente come nel caso della
rappresentazione somatosensoriale, l’aumento della rappresentazione corticale sembra correlare con
l’età d’inizio della pratica strumentale. Questo risultato di un’aumentata rappresentazione dei suoni
musicali nei musicisti è in accordo con l’osservazione che le aree uditive primarie della corteccia
temporale sinistra sono più estese nei musicisti rispetto ai non musicisti.
Nel grande dibattito fra natura e cultura, qualcuno potrebbe dire che in fondo coloro che hanno una
predisposizione genetica diventano musicisti e che non vi è alcun effetto dell’apprendimento, ma tutto è
già programmato fin dall’inizio. Per quanto questa visione sembri assurda, i dati esposti fino a ora non
permettono con certezza di negare questa interpretazione. Infatti, poiché gli studi sono stati fatti su
adulti, esiste la possibilità teorica che le differenze fossero presenti già prima della pratica strumentale.
Uno studio di Pantev e collaboratori del 2001 è particolarmente interessante al riguardo. Questi
ricercatori hanno infatti dimostrato come le rappresentazioni corticali uditive per suoni con timbro
diverso (tromba e violino) non solo siano più ampie in violinisti e trombettisti rispetto alle
rappresentazioni di suoni sinusoidali, ma dipendano anche dallo strumento suonato. I violinisti hanno
rappresentazioni più ampie per i suoni di violino rispetto ai suoni di tromba, viceversa per i
trombettisti. Questo effetto di specificità per il timbro può essere predetto solamente da una plasticità
dipendente dall’esperienza e non da un quadro teorico genetico.
Nell’insieme, gli studi qui presentati ci mostrano come il cervello dei musicisti (e non solo) sia plastico.
Se da un lato potrebbe esserci con l’aumento dell’età una diminuzione della plasticità nelle strutture
della corteccia uditiva per la percezione e discriminazione uditiva, la plasticità in ogni caso persiste
anche in età avanzata poiché è visibile anche in musicisti che hanno cominciato tardi lo studio dello
strumento. Infine, per quanto i fattori genetici giochino di certo la loro parte, il cervello può essere
plasmato dall’esperienza nella sua organizzazione strutturale e funzionale.

2.3.3. Effetti collaterali della plasticità cerebrale


Il fatto che il cervello mantenga la capacità di modificare la propria struttura nell’arco di tutta la vita può
talvolta avere effetti collaterali poco adattivi. Immaginate uno scenario fantascientifico nel quale un
musicista suonasse 24 ore al giorno fin dall’età di 2 anni. Se non ci fosse limite alla plasticità corticale,
dopo 20 anni il cervello intero diventerebbe corteccia uditiva e somatosensoriale! Per fortuna, la natura
ha previsto dei limiti alla plasticità e lo scenario sopra descritto non è fisiologicamente plausibile.
Ciononostante esistono disturbi dovuti all’eccessiva stimolazione cerebrale. Nei musicisti, questo
prende la forma di un disturbo nel controllo delle dita delle mani, la distonia focale, che comporta
un’incapacità di coordinare le mani, che spesso viene erroneamente diagnosticata come problemi
muscolari o tendinei. In realtà, l’utilizzo intenso e continuativo delle dita e la plasticità cerebrale portano
a una disorganizzazione delle rappresentazioni corticali a livello della corteccia somatosensoriale.
Questo avviene sopratto nei musicisti che suonano in modo virtuosistico e spingono il sistema nervoso
al limite e oltre. In effetti, di rado avviene in musicisti come contrabbassisti, tubistio trombonisti, che
non hanno un repertorio particolarmente virtuoso. Invece si riscontra questo fenomeno in violinisti
(mano sinistra), pianisti, sassofonisti (mano destra o sinistra) e chitarristi in quanto sono questi fra gli
strumenti che necessitano più virtuosismo. Al seguito di questa disorganizzazione della corteccia
somatosensoriale si perde il controllo fine delle dita, in quanto si assiste a un accavallamento delle
rappresentazioni delle diverse dita. In altre parole, è un po’ come un falso contatto nel citofono che fa
suonare due campanelli al posto di uno solo. Ad esempio, quando il musicista vuole muovere il dito
indice, se la rappresentazione di tale dito si accavalla con quella del dito medio, si metteranno entrambi
in azione in modo automatico. Questo costringerà il musicista a mettere in atto una serie di meccanismi
di compensazione che sono la causa di crampi e dei dolori che costringono spesso a interrompere
temporaneamente la professione. In effetti, se il musicista riesce a farsi fare la diagnosi corretta, l’unico
modo per guarire è interrompere l’attività strumentale professionale per un certo periodo e seguire una
riabilitazione comportamentale fatta di appositi esercizi atti a ricreare la corretta riorganizzazione
funzionale della corteccia somatosensoriale. Infatti, il cervello rimane plastico e nulla impedisce di
“rimodellarlo” e ricreare un’organizzazione della corteccia senza accavallamenti delle rappresentazioni
delle dita.

2.4. Musica e linguaggio


Musica e linguaggio sono universali, nel senso che sono presenti in tutte le culture umane. Fatta
eccezione per certe forme rudimentali che si possono riscontrare in alcune specie animali, musica e
linguaggio pervengono solo alla specie umana. Se la presenza del linguaggio in tutte le culture umane
sembrerà ai più assai ovvia, la presenza della musica lo è certamente meno. Una delle teorie più
interessanti a questo riguardo ipotizza che entrambi assicurino la coesione del gruppo sociale e, perciò,
abbiano un ruolo di estrema importanza in tutte le società umane. John Blacking si spinge fino a
definire la musica «suono che si organizza in configurazioni socialmente accettate». Certamente
nell’analisi di una tale teoria non bisogna pensare alla musica come all’ultimo CD regalato dal
quotidiano preferito e ascoltato mentre si è in coda al casello autostradale. Piuttosto, bisogna fare un
salto nel tempo o nello spazio e pensare alle culture nelle quali il pensiero magico è ancora presente e il
legame fra musica, canto, danza e rituali non si è perso.
Quando alla funzione filogenetica si passa agli elementi strutturali necessari a musica e linguaggio, la
similarità è più tangibile. Sia la musica che il linguaggio sono fenomeni complessi che difficilmente
possono essere studiati nell’insieme e si vede spesso la tendenza a scomporli in fattori più elementari.
Ad esempio, la musica può essere descritta da un punto di vista acustico, ritmico, melodico o armonico.
Ognuno di questi aspetti probabilmente necessita di operazioni mentali diverse. In effetti, è poco
probabile che la percezione di strutture ritmiche si basi sulle stesse operazioni della percezione
armonica (attenzione, questo non vuol dire che i due fenomeni non si influenzino reciprocamente!).
In maniera simile, all’interno del linguaggio sono stati descritti diversi livelli di elaborazione. Il livello
fonetico-fonologico (fonemi e prosodia); il livello morfosintattico (combinazione dei fonemi in
morfemi e dei morfemi in parole); il livello sintattico (regole che definiscono le relazioni fra parole); il
livello lessicale-semantico (accesso al significato).
Se da un lato è senza dubbio interessante confrontare i diversi livelli di elaborazione linguistica e
musicale, dall’altro bisogna essere cauti e confrontare il confrontabile, ossia serve avere un quadro
teorico di riferimento che ci permetta di interpretare le operazioni musicali e linguistiche stiamo
mettendo a confronto. In effetti, se tutti i raffronti sono possibili da un punto di vista sperimentale,
non tutti hanno un senso da un punto di vista teorico. Ad esempio fare un confronto delle regole
dell’armonia (ad es. cadenza perfetta) con le regole della sintassi linguistica (ad es. concordanza
soggetto-verbo) non sembra avere molto senso. Diversamente, confrontare il modo in cui tali regole
sono applicate a suoni e parole, e il modo in cui la struttura risultante (melodia, frase) viene mantenuta
viva a livello della memoria operativa ha un interesse teorico rilevante.

2.4.1. Livello acustico e fonetico-fonologico


I suoni, siano essi musicali o linguistici, si caratterizzano per la loro altezza, durata, intensità e timbro.
L’uso di questi parametri è ovvio in musica, ma è essenziale anche nel linguaggio. Ecco un esempio.
Pronunciate: “Stai bene?” come se faceste una domanda a un amico. Ora invece, rispondete a un’amica
che vi chiede come la trovate: ”Stai bene”. Se ripetete le due frasi e vi ascoltate con attenzione potrete
accorgervi che nella prima frase la voce sale di altezza verso la fine (be/ne), mentre nella seconda
scende (be/ne). Ora incontrate un caro amico che non vedere da tempo: “Oh come stai bene!”. Questa
volta avrete allungato il /be/ di bene, per far risaltare il fatto che lo trovate in forma e non invecchiato.
E per finire, ora siete piuttosto innervositi con qualcuno che non vi vuole ascoltare: “Stai bene a
sentire!”. Il colore (timbro) della vostra voce si è inasprito e forse avrete anche parlato più forte.
La cosa affascinante è che spesso musica e linguaggio fanno un uso simile di questi parametri. Ad
esempio, quando ci si interessa al contenuto emotivo di una frase parlata o musicale, una frase triste
sarà pronunciata piuttosto lentamente e questo vale anche per una melodia triste. Alcuni studiosi nel
2003 hanno passato in rassegna più di cento studi sulla relazione fra parametri acustici ed emozione
trasmessa, nel linguaggio e in musica. Si sono resi conto che il tempo, l’intensità (volume), la variazione
d’intensità, l’altezza, le variazioni di altezza e diversi altri parametri hanno lo stesso effetto
sull’espressività di una frase linguistica o musicale. Gli autori concludono che i musicisti comunicano
emozioni usando un codice acustico che deriva da programmi neurali innati per l’espressione di
emozioni vocali. In questo modo la musica potrebbe essere considerata come una forma di linguaggio
più elevato che trasforma i sentimenti in un paesaggio udibile.
A livello fonetico, due fenomeni interessanti sono stati descritti sia per la musica che per il linguaggio: la
percezione categorica e la restaurazione fonetica. In musica, piccole modifiche di un intervallo non
sono percepite come stonate. Eppure, il violinista non mette le dita esattamente allo stesso posto ogni
volta che suona una certa nota. Questo margine di errore è appunto dovuto alla percezione categorica,
la quale sembra favorire un riconoscimento e una comprensione migliore e più semplice. Certo le
categorie non sono innate, ma sono legate all’esperienza. Ad esempio, nel caso del nostro violinista, un
errore di un quinto di tono non sarà colto da un uditore naif, ma sarà percepito da un musicista
professionista. Nel linguaggio è la stessa cosa. Se un giorno vi dovesse capitare di dover imparare l’hindi
o il nepalese, vi accorgerete della vostra impossibilità (almeno all’inizio) di distinguere dei fonemi. In
una recente serie di studi, è stato inoltre dimostrato come, entro certi limiti, le modifiche percettive
indotte dallo studio della musica determinino analoghe modifiche percettive nella percezione del
linguaggio. Inoltre, tali cambiamenti sembrano accompagnati da modificazioni neuro-fisiologiche
nell’adulto e nel bambino e sono sensibili anche a un apprendimento musicale di breve durata.
Certo non bisogna dimenticare che nel confronto tra fonemi e note di una scala musicale esistono
anche importanti differenze. Ad esempio, se da un lato la variabilità interculturale del numero di
intervalli in un’ottava è relativamente piccolo, il numero di fonemi ca da 11 in Polinesia fino a 141 nei
Boscimani, e a una trentina in italiano.
2.4.2. Livello sintattico-strutturale
Tutte le lingue hanno una struttura sintattica. Verbi, soggetti e oggetti sono sempre presenti, anche se in
ordine diverso. Questo ha portato a pensare che la sintassi linguistica sia universale e innata. Non
discuteremo qui di questa teoria che, nonostante un certo numero di argomenti a favore, è ancora lungi
dall’essere accettata.
Per analogia al linguaggio, si è spesso parlato di sintassi musicale o grammatica musicale. benché tale
analogia non sorprenda ormai più nessuno, è ancora da chiarire fino a che punto vada al di là di una
semplice metafora. Quello che possiamo dire sicuramente è che la musica è soggetta a un certo numero
di leggi universali della percezione che ne influenzano fortemente la struttura. Ad esempio, appena
ascoltiamo più note che si susseguono, tenderemo a raggrupparle e percepirle come un gruppo di note e
non come tante note che si susseguono. Alcuni studiosi negli anni ’80 sono stati i primi a mostrare
come i musicisti percepiscano e memorizzino delle sequenze musicali per gruppi. Diversi gruppi di note
costituiscono le frasi musicali, con precise frontiere, proprio come nel linguaggio una parola (soggetto)
si lega a un’altra (verbo) e ancora a un’altra (oggetto) per formare una frase. È importante notare come
molte delle regole che creano le strutture musicali assomigli alle regole descritte dalla psicologia della
Gestalt per la percezione visiva. Allo stesso tempo, alcuni sistemi di analisi linguistica sembrano
adattarsi piuttosto bene all’analisi delle strutture musicali. Un modello proposto di recente ci sembra
particolarmente promettente: Patel nel 2003 ipotizza che il processo d’integrazione di strutture
linguistiche e musicali sia simile. L’idea di fondo è che il cervello operi sulle distanze astratte fra gli
elementi. Più grande è la distanza, più è difficile operare. Più lontano è il soggetto dal verbo, più diventa
complicato seguire il discorso. In maniera analoga in musica si hanno distanze tonali. Quindi le
operazioni comuni che il cervello compirebbe sarebbero legate al mantenimento o al recupero
dell’informazione in funzione delle distanze linguistiche o musicali. Secondo l’autore, queste operazioni
avrebbero sede nell’area di Broca e permetterebbero di predire la presenza di deficit musicali nei
pazienti con un’afasia di Broca.
Nonostante la somiglianza fra musica e linguaggio a livello sintattico, è importante notare che esistono
anche in questo caso differenze importanti. Ad esempio, le regole della grammatica musicale sono
estremamente più flessibili e ambigue rispetto alle regole linguistiche, che permettono poco margine di
libertà. È possibile che la funzione comunicativa del linguaggio favorisca una stabilità sintattica
maggiore. D’altro canto, l’ambiguità in musica è un elemento estetico fondamentale. La trasgressione
della regola è fonte di tensione che si risolve una volta che si rientra nella tonalità o nella metrica.
Infine, non bisogna dimenticare che molte delle regole musicali riguardano la dimensione verticale,
ossia della simultaneità dei suoni. Queste regole sono completamente assenti nel linguaggio che ancora
una volta, per ottimizzare la chiarezza del messaggio, non permette di parlare tutti assieme e produrre
senso.

2.4.3. Senso, significato e attesa


Se il significato delle parole è compreso in relazione a uno spazio extralinguistico (ad es. “Passami il sale
che è sulla tavola”; dove “sale” e “tavola” sono reali), la musica è il più delle volte considerata come
autoreferenziale. Questo non vuol dire che la musica non abbia un senso, ma semplicemente che non
esistono, come invece nel linguaggio, regole arbitrarie che associano un significato ai suoni. Un accordo
di do maggiore non vuol dire nulla di più che un accordo di do maggiore. Pierre Schaeffer (1966), nel
suo trattato sugli oggetti musicali, propone un’analisi semiologia che classifica i suoni in diverse
categorie semantiche a seconda del timbro. In effetti, si assocerà facilmente qualcosa di sgradevole a un
suono stridente, qualcosa in movimento a un suono cangiante (non statico), qualcosa di grosso a un
suono grave, qualcosa di minuto a un suono acuto e via dicendo. Da una serie di studi in corso, sembra
in effetti che un suono possa essere associato a un insieme di significati, e che tale associazione abbia
luogo in maniera automatica nelle prime centinaia di millisecondi nella corteccia temporale associativa.
Il problema è che quando da un semplice suono si passa a una serie di suoni strutturati (la musica), le
cose diventano più complesse.
Un modo per risolvere il problema potrebbe essere di considerare il senso della musica come qualcosa
che va al di là di ogni struttura referente e al di là delle possibilità del linguaggio. Da un lato non è
sempre vero. Ad esempio, se ascoltiamo la Marcia Radetsky ci potrebbero venire in mente Capodanno
e la Filarmonica di Vienna. La Marcia di Mendelsshon ci porta subito al matrimonio, quel walzer di
Strauss ci evoca la parola Danubio e il colore blu e via dicendo. Inoltre certe musiche sono più
pompose e regali, altre più cinguettanti, altre piatte come il mare, altre violente come la guerra. Da un
lato quando andiamo ad ascoltare una sinfonia di Haydn che non abbiamo mai sentito prima, o il
nuovo disco di un bravo musicista, siamo nel regno dell’ineffabile: dire che ci ricorda l’aristocrazia
asburgica esprimerebbe un’associazione vaga più che il suo senso profondo. Non possiamo raccontare
a qualcuno la musica di un concerto (possiamo al meglio risuonarla, se ne siamo in grado). Ma allora, se
ci liberiamo dal linguaggio come descrittore di senso, qual è il senso della musica?
Leonard Meyer (1956) scrive che la musica significa se stessa. Ogni elemento musicale ha un senso in
quanto genera aspettative rispetto ad altri eventi. A volte queste aspettative sono talmente forti che
sentiamo un impulso a continuare una frase (citare un detto). Infatti, come una sequenza di note ci
porta ad aspettare che una nota precisa segua, così una certa frase ci porta ad aspettare una parola
piuttosto che un’altra.
Nella sua teoria, Meyer sostiene l’alta predicibilità rispetto agli affetti o alle emozioni: in altre parole,
Meyer cerca di spiegare le emozioni in musica con le tensioni legate all’attesa di una certa nota/accordo.
Purtroppo, a questo riguardo, la teoria non regge. Infatti, nel caso di un ascolto ripetuto di uno stesso
brano, la teoria prevede una riduzione della sorpresa e della tensione e quindi una riduzione
dell’emozione. Tutti coloro che hanno un certo numero di dischi preferiti sanno che, al contrario, un
ascolto ripetuto ci porta ad amare ancora di più una certa musica. Questo aspetto della ripetitività è una
peculiarità interessante della musica. La si trova nell’atto dell’ascolto ripetuto come nella struttura stessa
di brani musicali, spesso ripetitivi a non finire. La troviamo anche quando una melodia ci rimane in
testa e non riusciamo a liberarcene e ci sentiamo quasi costretti a cantarla in maniera compulsata.
In quanto ineffabile, resta quindi l’aspetto della musica più difficilmente studiabile da un punto di vista
sperimentale.

2.5. La memoria musicale


La memoria è un’abilità centrale nei nostri processi cognitivi che riguarda il mantenimento
dell’informazione nel tempo. È la capacità di elaborare, conservare e recuperare l’informazione. Con il
termine memoria si fa riferimento ad abilità molto differenti, come, ad esempio, il mantenimento
dell’informazione sensoriale, il ricordo del significato delle parole, il patrimonio di conoscenze, i nostri
ricordi personali e la programmazione di azioni future.
La musica è una capacità cognitiva complessa, composta da una varietà di componenti distinte che
vengono percepite ed elaborate dalla nostra mente attraverso un insieme di processi cognitivi. Fino a
oggi non è stato ancora proposto nessun modello specifico che descriva il processo di memorizzazione
dell’informazione musicale. Il processo della memoria della musica assomiglia probabilmente al modo
in cui percepiamo ed elaboriamo tutte le informazioni. Più in generale possiamo anche notare che, se da
un lato le ricerche sui processi cognitivi associati alla musica sono abbastanza limitate numericamente,
dall’altro si sono concentrate in alcuni settori specifici (ad es. musica e linguaggi), lasciandone altri a uno
stadio abbastanza arretrato. La memoria è uno di questi casi e si vedrà chiaramente come non vi sia un
parallelismo tra i progressi ottenuti nelle scienze psicologiche in questo settore e l’associazione con gli
stimoli musicali.
Un modello classico di memoria per stimoli uditivi permette di capire alcuni aspetti che caratterizzano il
processo di memorizzazione dell’informazione musicale ed è suddiviso in tre processi centrali: un
processo percettivo che corrisponde alla memoria eroica, un processo di elaborazione a breve termine e
un processo di immagazzinamento e di memorizzazione a lungo termine. Questa distinzione riprende
l’evidenza che la memoria è composta da molti sistemi – interconnessi – ma con meccanismi di
funzionamento diverso, che hanno in comune la caratteristica di mantenere l’informazione nel tempo.
Le differenze sono una conseguenza della varietà nelle caratteristiche degli stimoli che devono essere
ricordati, la loro quantità, il livello della consapevolezza per il ricordo e della durata del ricordo, che può
variare da una frazione di secondo fino ad arrivare a una vita intera.
Il modello che viene più frequentemente citato per descrivere la percezione e la memorizzazione di
stimoli uditivi è diviso in tre fasi distinte ed è naturalmente collegato al modello generale di memoria
proposta da Atkinson e Shiffrin nel 1968. La prima fase viene chiamata memoria eroica, la seconda
memoria a breve termine e la terza memoria a lungo termine. Ognuna di queste fasi avviene in un
momento diverso e riflette un livello diverso di analisi e di esperienza musicale. La prima fase
corrisponde al livello della continuità degli eventi, la seconda all’analisi della melodia e del ritmo, mentre
nella terza fase avvengono le analisi delle forme musicali. Tra queste tre fasi esistono numerosi
meccanismi di controllo (feedback) che permettono il passaggio continuo dell’informazione tra fasi
precedenti e successive per una migliore elaborazione.
La prima fase corrisponde alla memoria eroica e consiste in un’elaborazione precoce dell’informazione.
In questa fase l’informazione sonora viene percepita nell’orecchio medio che codifica e converte i suoni
in una serie di impulsi nervosi che rappresentano le frequenze e l’intensità della vibrazione acustica.
L’informazione rimane nella memoria eroica per meno di un secondo. Le varie teorie della memoria
sostengono che l’informazione in questa fase non venga categorizzata in nessun modo, ma piuttosto
rappresenti una serie di dati sensoriali. Questo breve intervallo nella memoria eroica permette
l’estrazione di una varietà di caratteristiche sonore attraverso due processi: il primo processo è
l’estrazione delle caratteristiche, dove vengono estratte le caratteristiche acustiche dell’input come
l’altezza, il timbro, la durata e l’intensità attraverso un gruppo di neuroni specializzati; il secondo
processo è quello della congiunzione percettiva, dove le caratteristiche acustiche vengono collegate tra
loro creando un evento uditivo singolo che possiede una sua coerenza interna. Se prendiamo come
esempio l’ascolto di una singola nota musicale, nella prima fase del processo, l’estrazione percettiva,
vengono estratte e codificate dal nostro orecchio le caratteristiche acustiche quali l’altezza, la durata,
l’intensità e il timbro; nella seconda fase, la congiunzione percettiva, tali caratteristiche vengono
collegate insieme per permettere la percezione di un evento singolo che è quello del suono musicale.
L’informazione musicale è costituita da una sequenza di note musicali che hanno un carattere continuo.
Attraverso il meccanismo di raggruppamento è possibile segmentare l’informazione in entrata, in unità
dotate di significato e costituite da più elementi. La codifica degli elementi e la suddivisione in categorie
distinte riducono notevolmente la quantità di informazioni in entrata. Questo potrebbe avvenire a più
livelli: al livello di singole note musicali, di elementi ritmici e melodici, di frasi o brani musicali e così
via. Ognuno di questi livelli corrisponde a una fase diversa nel processo di memorizzazione. Questo
processo è chiamato “categorizzazione percettiva” e permette di ridurre la quantità di informazioni
sensoriali continue a un numero più limitato di categorie.
In seguito le informazioni musicali vengono elaborate nella memoria a breve termine. Secondo il
modello tradizionale, le informazioni possono essere trattenute in questa fase di elaborazione per tempi
abbastanza brevi (3-5 secondi) e la capacità del sistema è molto limitata (7 +o- 2 elementi). La quantità
delle informazioni che vengono trattate in questa porzione del sistema viene però mediata dal processo
di raggruppamento che permette l’unione di più elementi a un livello superiore riducendo così la
quantità complessiva di materiale. Nel caso di stimoli musicali, il raggruppamento nella memoria a
breve termine avviene a un livello ritmico e melodico. Attraverso il processo di categorizzazione
percettiva si creano categorie o gruppi melodici e ritmici. Le unità dei gruppi melodici vengono definite
sulla base delle caratteristiche del cambiamento nella distanza tra i toni (intervalli), dalla direzione della
melodia (contorno), o da entrambi, mentre le unità dei gruppi ritmici vengono definite dal
cambiamento nella durata degli eventi musicali e nel carattere degli accenti. I gruppi melodici e ritmici
sono costituiti, in genere, da pochi elementi che vengono raggruppati attraverso principi di prossimità,
similarità e continuità nel tempo. Questa descrizione dei processi di memoria a breve termine è quella
che soffre maggiormente della mancanza di studi recenti in questo settore e della scarsa attenzione dei
ricercatori nel cercare di legare i dati sperimentali presenti nel più ampio settore delle ricerche sulla
memoria con i modelli specifici legati alla memorizzazione musicale. è da molti anni infatti che si è
visto che il modello di memoria a breve termine, seppur esplicativo su un piano generale, non
rispecchia fedelmente i processi di memoria utilizzati in un processo di percezione e di elaborazione di
stimoli esterni. Perché questo? In primo luogo, perché diventa impossibile stabilire con certezza la
durata della permanenza dell’informazione in questo sistema: 3-5 secondi è una durata molto breve, ma
tutti noi abbiamo esperienza che un mantenimento temporaneo delle informazioni può durare per un
tempo sostanzialmente più lungo. Se ci viene chiesto di mantenere in memoria un numero di telefono
che dobbiamo chiamare dopo qualche ora, noi probabilmente riusciremo a farlo, ma poi
dimenticheremo completamente il numero dopo la telefonata; potrebbero essere passate alcune ore ma
certo stiamo ancora parlando di memoria temporanea. In alcuni casi questa memoria temporanea può
anche durare alcuni giorni senza che poi vi sia necessariamente un mantenimento a lungo termine.
Come mai avviene questo? Probabilmente perchè la nostra memoria a breve termine funziona in stretta
associazione con le caratteristiche del compito che noi stiamo portando a termine: riusciamo a tenere a
mente eventi o informazioni per tutto il tempo in cui ci sono utili per poi dimenticarli subito dopo.
Sulla base di queste osservazioni, si è ormai affermato il modello di memoria a breve termine in cui il
sistema di memoria viene concepito come un insieme di aspetti di memorizzazione e di elaborazione
degli stimoli (sistema chiamato memoria di lavoro). Questo sistema di memoria di lavoro ha anche
permesso di chiarire alcuni meccanismi di funzionamento in maniera molto più sofisticata rispetto al
modello iniziale di memoria a breve termine di Atkinson e Shiffrin, ed è possibile ipotizzare che in
molti casi questi meccanismi si applichino anche all’informazione musicale.
L’elaborazione e l’integrazione di questi stimoli elaborati dalla memoria a breve termine/memoria di
lavoro avvengono sia nel caso di una memorizzazione di stimoli nuovi, sia nel caso assai più frequente
di un riconoscimento di informazioni già esistenti. La frequenza con cui si presenta questo meccanismo
di riconoscimento è tale da impedire nella maggior parte dei casi, che esso venga svolto in modo
consapevole. Quando camminiamo per la strada riconosciamo continuamente ciò che vediamo, una
macchina, un palazzo, una certa via e così discorrendo. Sono invece molto più rari i casi in cui
dobbiamo effettivamente memorizzare informazioni nuove e ciò di fatto non è solo funzione del
tempo durante il quale le informazioni sono state trattenute nella memoria a breve termine (noi
manteniamo in memoria un numero di telefono per interi giorni e poi lo dimentichiamo
completamente, mentre una singola informazione – per noi in qualche modo interessante – viene
mantenuta per tutta la vita senza alcuno sforzo apparente). Questi dati suggeriscono che i meccanismi
legati alla memorizzazione a lungo termine vera e propria siano collegati alla rilevanza che noi diamo
alle informazioni da ricordare, al tipo di elaborazione e trasformazione che compiamo su questi stimoli,
alla valenza emotiva che queste informazioni hanno per noi.
Nel caso di un riconoscimento, ovvero di un confronto tra lo stimolo esterno e le informazioni che
abbiamo già in memoria, il legame con la memoria a lungo termine è di fatto inconsapevole. Nel caso
della musica, possiamo ipotizzare che, dopo i processi di categorizzazione e di raggruppamento in base
alla loro similarità e prossimità temporale, questi eventi attivino eventi simili che sono immagazzinati
nella memoria a lungo termine (conoscenze concettuali o semantiche). La combinazione di queste
conoscenze con lo stimolo percettivo crea la nostra esperienza.
Il riconoscimento è quindi un processo automatico di attivazione delle informazioni che sono
contenute nella memoria a lungo termine e contemporaneamente associate con lo stimolo percepito.
Quest’associazione determina a sua volta una piccola modificazione del contenuto della memoria a
lungo termine, che è continuamente riorganizzato sulla base dei nuovi stimoli. Il processo di
raggruppamento e riorganizzazione della memoria a lungo termine avviene a un livello di configurazioni
musicali coerenti. Questo livello divide il brano musicale in sezioni contenenti più frasi musicali che a
loro volta fanno parte di una suddivisione del brano in strutture più complesse come, ad esempio, il
ritornello, la coda, il primo tempo, il secondo tempo, ecc.
In conclusione, possiamo dire che tutti i processi di memoria contribuiscono a creare l’esperienza
musicale. La memoria eroica e il processo di elaborazione precoce offrono un’esperienza immediata e
consapevole della musica e segmentano l’input sonoro in unità più maneggiabili. La memoria a breve
termine o memoria di lavoro stabilisce le continuità e discontinuità dei segmenti musicali con quelli
immediatamente precedenti. La memoria a lungo termine offre il contesto di riferimento che
contribuisce a creare un significato attraverso il collegamento con un magazzino di conoscenza e di
esperienze precedenti.
3. Musica ed emozioni

3.1. Le emozioni: alcune definizioni


Nella psicologia contemporanea le emozioni sono considerate come un processo complesso di
modificazioni che includono modificazioni fisiologiche, nei processi cognitivi e nelle reazioni
comportamentali, in risposta a una situazione che è percepita dal soggetto come importante per il
mantenimento del proprio equilibrio e del proprio benessere.
Le risposte emozionali possono essere di diverso tipo:
• Fisiologiche (alterazioni della frequenza cardiaca e respiratoria, della pressione sanguigna, della
conduttività elettrica della pelle, ecc.)
• Motorie strumentali (attaccare, fuggire, gridare, ecc.)
• Motorie espressive (alterazioni della mimica facciale, dei gesti, della voce, ecc.)
• Risposte che riflettono aspetti più intimi e pervasivi dell’esperienza soggettiva (modificazioni
dell’umore, delle rappresentazioni e dei significati interni).
In genere si distinguono le emozioni primarie dalle emozioni complesse. In questo modo si cerca di
distinguere fra le emozioni che hanno un ruolo importante dal punto di vista evoluzionistico per la
sopravvivenza della specie e che sarebbero in un certo senso innate (ad es. la paura), e quelle che sono
invece il risultato dell’esperienza (ad es. la malinconia).
La maggior parte degli studi sulle emozioni si è focalizzata sul riconoscimento dell’emozione. Questo è
essenzialmente dovuto al fatto che nelle situazioni di laboratorio diventa difficile indurre emozioni reali,
mentre lo studio del riconoscimento è semplice e può essere ben controllato sul piano sperimentale.
Inoltre, questi studi hanno il più delle volte utilizzato stimoli visivi statici, ossia disegni o fotografie. In
questo contesto non sorprende che l’aspetto adattivo delle emozioni coincida con il riconoscimento
dell’emozione. In effetti, se vedo la persona davanti a me guardare dietro le mie spalle con
un’espressione di terrore, la mia reazione sarà girarmi pronto alla fuga, e in questo senso il
riconoscimento dell’emozione ha certamente un valore adattivo.
Questa breve parentesi è importante quando si voglia studiare il legame fra musica ed emozioni, poiché
bisogna essere consci del fatto che la teoria delle emozioni è essenzialmente una teoria del
riconoscimento di stimoli visivi. A maggior ragione lo studio della musica e del suo legame con le
emozioni diventa interessante in quanto può arricchire il quadro teorico sulle emozioni in generale. Ad
esempio, sarebbe importante sapere se le emozioni indotte dalla musica siano le stesse che possono
essere indotte da altri stimoli o situazioni. Come vengono comunicate queste emozioni all’uditore? E
che ruolo ha il musicista? In che modo l’ascolto della musica modifica le risposte fisiologiche del nostro
organismo? Quali sono le reti neurali che elaborano il contenuto emozionale della musica? Sono
condivise con la modalità visiva? E possiamo dire che il valore adattivo della musica risieda nella sua
capacità di comunicare le emozioni?
In questo capitolo cercheremo di fornire alcuni indizi per rispondere a queste domande.

3.2. Le emozioni nella musica


Lo studio delle emozioni nella psicologia sperimentale e nelle neuroscienze è forse uno dei temi più
difficili. La ragione principale è che tale studio non si presta al rigore e alla rigidità del laboratorio. Un
altro motivo è l’importanza del contesto sociale, assente in laboratorio: questo significa eliminare tutta
la parte d’interazione fra l’ascoltatore e il musicista, che permette appunto la creazione dell’oggetto
musicale completo. Ascoltare un disco è certamente fonte di emozioni, ma andare a un concerto è
certamente un’esperienza di gran lunga più forte. Infine, non prenderemo neppure in considerazione il
problema dell’estetica, che è per l’appunto una disciplina a parte, dalla quale non si può però
prescindere quando si vuole affrontare in maniera completa un discorso sulle emozioni in musica. Il
critico musicale, come il musicista professionista è fortemente influenzato da una scuola di pensiero che
vuole che un certo brano sia eseguito in un certo stile. Cambiando scuola, si cambia stile. Talvolta
l’importanza data alla prassi esecutiva diventa talmente grande che tutto il resto passa in secondo piano.
In altre parole, può accadere che gran parte dell’attenzione dell’ascoltatore venga diretta verso la prassi
esecutiva piuttosto che verso l’oggetto sonoro e musicale. questo ci porta al punto conclusivo di questo
capitolo, che è la soggettività dell’ascolto. Se sul piano percettivo potremmo affermare, entro certi
limiti, che vi è una grande somiglianza nel modo in cui diversi individui percepiscono una data musica,
sul piano emotivo un’affermazione del genere diventa difficile. Vediamo come diversi individui siano
d’accordo nell’attribuire precise emozioni a dei brani musicali, ma questo non ci dice un granché
rispetto alla loro risposta emozionale a un ascolto preciso. La storia individuale, con le relative
esperienze e cultura, e lo stato emotivo di un preciso momento (ieri ero triste, oggi sono allegro)
rendono estremamente difficile lo studio delle emozioni in musica, benché questo rimanga comunque
uno dei temi più affascinanti della psicologia della musica.

3.2.1. Dimensioni delle emozioni in musica

È difficile classificare le emozioni. Se si mostrano 200 fotografie e si chiede di raggrupparle secondo un


criterio emozionale si ottiene una distribuzione che può essere spiegata in gran parte con due
dimensioni: la valenza (positiva o negativa) e l’intensità (bassa o alta). Le emozioni positive vengono
associate a un comportamento di avvicinamento, mentre le emozioni negative vengono associate a un
comportamento di ritiro. Dopo aver selezionato un gran numero di brani con diverse connotazioni
emozionali, li hanno fatti ascoltare ad alcuni soggetti chiedendo di metterli insieme per affinità emotiva.
I risultato mostrano che la maggior parte degli individui utilizzano un sistema di raggruppamento
basato proprio sulle due dimensioni.
Altre ricerche hanno mostrato che l’identificazione della connotazione emozionale di un brano avviene
in tempi brevissimi, inferiori al secondo. Come vedremo di seguito, nel considerare la relazione fra
musica ed emozioni è necessario adottare un approccio che tenga conto dell’evoluzione temporale della
musica, cosa che comporta modifiche continue nello stato emotivo di chi ascolta. Le conclusioni di
questi studi non implicano che il brano ci trasmetta tutte le emozioni in meno di un secondo, ma
semplicemente che la connotazione emozionale di un brano musicale è spesso presente fin dal principio
del brano, è percepita in maniera simile da diversi individui e ha luogo senza sforzo e in modo
automatico. A questo punto diventa interessante chiedersi come l’emozione sia trasmessa in musica.

3.2.2. Dalla musica all’emozione

Sono diversi gli aspetti della musica che ci portano a sentire un’emozione. Cominciamo dalla struttura
del brano musicale. Esiste infatti una relazione fra l’intensità e la qualità delle emozioni provate e la
struttura del brano musicale. Questa relazione permette di spiegare come un brano che all’inizio ci dà
una sensazione di calma divenga poi gioioso, per finire con un tono malinconico.
Fra i diversi fattori strutturali che giocano un ruolo nell’espressione dell’emozione in musica, il tempo
sembra avere un ruolo privilegiato. Non a caso alcune delle indicazioni usate dai compositori per
segnalare a che tempo una determinata opera debba essere eseguita hanno una connotazione
emozionale (ad es. allegro, vivace). Il tempo veloce fa variare considerevolmente la dimensione
dell’intensità emozionale, definibile anche come una sorta di attivazione generalizzata: un tempo veloce
favorisce un aumento dello stato di eccitabilità. Anche il modo ha un ruolo importante, e questo era
noto fin dall’antichità. I Greci infatti utilizzavano diversi modi e ognuno prendeva il nome da un
popolo (ad es. lidio, dorico, frigio) e a seconda del popolo prendeva una connotazione caratteriale ben
definita. Nel sistema tonale occidentale i modi maggiore o minore, ai quali bambini di 7 anni sono già
sensibili, hanno un’importante influenza sulla dimensione della valenza, con il modo maggiore a
connotazione positiva e il minore negativa. Non si interpretino queste considerazioni come condizioni
necessarie alla realizzazione di un’emozione. Ad esempio, il “silenzio” dei militari, pur essendo in modo
maggiore, risulta triste. Un altro fattore importante sembra essere il timbro degli strumenti, che è
ovviamente legato al registro (acuto-medio-grave) nel quale essi suonano. Il tempo di attacco e la
struttura degli armonici possono in effetti rendere un suono più o meno gradevole. Anche la
complessità armonica e ritmica di un brano gioca un ruolo importante. Non a caso musiche troppo
dissonanti o con ritmi non regolari hanno una connotazione negativa e sgradevole.
A questo punto ci si potrebbe chiedere se queste proprietà strutturali della musica siano a d essa
specifiche oppure possano essere riscontrate anche in altri ambiti. Se per alcune di esse, come la
complessità armonica, ci sembra difficile trovare delle analogie, per altre la similarità è elevata. Ad
esempio il tempo musicale potrebbe tradursi nella percezione del movimento nel mondo visivo: e non a
caso, il movimento rapido è spesso sinonimo di vitalità e gioia. Quindi una musica veloce e sonora
condividerebbe le caratteristiche di eventi con alto livello di energia e di conseguenza suggerirebbe
emozioni ad alto livello emozionale. Anche le proprietà del timbro sembrano non essere specifiche
della musica. Infatti, una serie di studi ha mostrato che la connotazione emozionale del timbro in
musica ha un suo equivalente nella voce umana. In altre parole, gli stessi parametri modificati su un
suono musicale o sulla voce inducono cambiamenti nella connotazione emotiva molto simili.
La musica si sviluppa nel piano temporale. Questo la rende particolarmente imprevedibile, in quanto
non vi è modo di sapere a un dato istante quello che accadrà l’istante successivo. La curiosità, il bisogno
di scoprire delle regole o forse la paura dell’imprevedibile ci portano a generare delle attese. Quindi, in
realtà, a ogni istante si crea un’attesa per l’istante successivo. Ogni attesa è più o meno probabile ed è
legata a diversi livelli di analisi e a tutti gli eventi che hanno già avuto luogo, e rispetto a questi
trasgredisce o conferma la regola. Il modello non è certo dei più semplici e non tenteremo qui una sua
definizione più precisa. Il punto importante ci sembra l’ipotesi che l’attesa sia fortemente legata
all’emozione in musica, e che essa sia il frutto di un’elaborazione non cosciente. Infatti, se
l’elaborazione dell’attesa fosse un processo cosciente, si potrebbe difficilmente spiegare il fatto che
proviamo tutti emozioni in seguito all’ascolto ripetuto di un brano, in quanto dopo il terzo ascolto non
ci sarebbe più imprevedibilità. Anzi, spesso i brani che ci danno più emozione sono quelli che
conosciamo meglio.
Se fino a ora abbiamo soprattutto parlato delle emozioni come proprietà intrinseche alla musica, quindi
in un certo senso indipendenti dalla nostra coscienza e storia personale, una parte importante
dell’emozione in musica è invece influenzata dall’esterno, ossia dall’esperienza e dalla conoscenza. Una
certa musica si può legare a un evento importante nella nostra vita, come l’incontro con una persona
cara. Un’altra musica può essere stata per un certo tempo la nostra musica preferita, ascoltata e
riascoltata. Altre volte l’associazione sarà fatta con un film o anche con una pubblicità. Infine, la musica
viene sovente associata a ideali diversi e utilizzata spesso proprio affinché si crei un legame emozionale
forte tra chi ascolta e l’ideale che si vuole mettere in risalto. Basti pensare all’uso strumentale della
musica di Wagner durante la Seconda Guerra Mondiale da parte del regime nazista, ma anche ai canti
partigiani o ai diversi inni nazionali.
A questo punto ci si potrebbe chiedere perché la musica abbia un così alto impatto emotivo. La
psicologia della musica non ha ancora una risposta chiara a questa domanda. Sul piano teorico
potremmo dire che forse la grande forza della musica sta nella sua quasi totale assenza di significato
denotativo. Come si è già spiegato sul rapporto musica e linguaggio, la musica non ha un referente
semantico preciso. Non vi è alcuna relazione definita fra un brano musicale e la realtà non musicale.
Allo stesso tempo, una delle caratteristiche dell’uomo è cercare sempre di attribuire un senso alle cose.
Quando si ascolta la musica, è quindi possibile che il senso che si presta più facilmente a legarsi a essa
sia un senso emozionale. La musica è in questo senso un oggetto rappresentazionale aperto, ossia un
contenitore di rappresentazioni non definite. Se la musica contenitore è definita nelle sue caratteristiche
strutturali-musicali, il contenuto è lungi dall’essere determinato dalla struttura. Chi ascolta, quindi, ha la
possibilità di “riempire” il contenitore musica con le emozioni del momento, e queste si fissano in
quanto diventano parte del senso di quella determinata musica.

3.2.3. Risposte fisiologiche a stimoli musicali

Su un piano diverso, ma non inconciliabile con quanto appena detto, una risposta al perché la musica
abbia un così alto impatto emotivo potrebbe venirci dagli studi sugli effetti fisiologici dell’ascolto della
musica. La risposta emotiva ha effetti su tutto il corpo: la tensione muscolare, la frequenza respiratoria e
cardiaca, la sudorazione, l’attività gastrica, la produzione di ormoni e via dicendo. Diversi studi si sono
interessati all’effetto della musica sul sistema nervoso autonomo (per il controllo fisiologico delle
funzioni appena citate). Se i dati non sono sempre concordanti, la cosa certa è che la maggior parte di
questi studi hanno messo in evidenza che l’ascolto della musica ha un effetto su diverse funzioni del
sistema nervoso.
Forse l’indice più studiato è stato il battito cardiaco. Diversi studi hanno mostrato come la frequenza
cardiaca possa essere modificata dall’ascolto musicale. Musiche rapide e gioiose avranno tendenza ad
aumentare la frequenza cardiaca, mentre musiche tristi o lente avranno la tendenza a ridurla. Effetti
simili si ottengono sul ritmo respiratorio. Anche la tensione muscolare, di solito misurata a livello dei
muscoli zigomatico e corrugatore dell’occhio, è modulata dalla dimensione dell’intensità emozionale
musicale. Diversamente, l’attività gastrica aumenta con melodie calme e diminuisce con melodie
stressanti e agitate (ossia poco digeribili….). Un nuovo filone di ricerche sembra mostrare la sensibilità
della risposta elettrodermale (sudorazione della pelle) non solo rispetto all’intensità emozionale, ma
anche rispetto a quella della valenza. Infine, studi recenti hanno messo in luce un effetto importante
della musica nella riduzione della secrezione del cortisolo, un ormone legato fra le altre cose allo stress.
Questi studi mostrano quanto la musica sia un canale importante nelle modificazioni del
funzionamento del sistema nervoso autonomo. Tali modificazioni influiscono in modo importante sul
nostro modo di sentire le emozioni. Infatti, il cervello elabora le informazioni periferiche del sistema
nervoso e interpreta i diversi cambiamenti alimentando in tal modo il circuito emozionale. Quindi, se la
musica è un canale preferenziale nella modifica del funzionamento del sistema nervoso, questo la mette
in una condizione di privilegio per quanto riguarda l’induzione delle emozioni.

3.2.4. Specializzazione cerebrale?

Un’altra risposta al perché la musica abbia un così alto impatto emotivo potrebbe venirci dagli studi sul
funzionamento cerebrale. Infatti, se si dimostrasse che ci sono circuiti specializzati nell’elaborazione
delle emozioni musicali, questo potrebbe in parte spiegare il loro statuto privilegiato. Purtroppo per il
momento non ci sono dati sufficientemente solidi per poter trarre delle conclusioni. Alcuni studi hanno
mostrato una specializzazione dell’emisfero destro per l’elaborazione delle emozioni musicali. Altri
hanno mostrato una specializzazione emisferica con una preferenza della corteccia frontale sinistra per
l’elaborazione di brani musicali gioiosi e allegri e della corteccia frontale destra per l’elaborazione di
brani musicali tristi e inquietanti. Altri studi hanno mostrato che le reti neurali per l’elaborazione delle
emozioni di stimoli visivi e musicali sono simili e coinvolgono in particolar modo le strutture
paralimbiche e orbitofrontali.

3.2.5. Aspetti evolutivi delle emozioni musicali

Infine, un’ultima risposta al perché la musica abbia un così alto impatto emotivo viene dalle teorie
evoluzionistiche. Esistono tre spiegazioni principali sul valore evolutivo della musica e Darwin stesso
ha proposto che la musica abbia un ruolo importante nell’attrazione del partner. Al di là del fatto che
spesso le pop star diventano anche dei sex symbol, questa teoria non ha avuto grande seguito. La teoria
più comunemente accettata sostiene che la musica aiuti a promuovere la coesione del gruppo. Non è
questo il luogo per descrivere tale teoria e si rimandano gli interessati ai manuali di etnomusicologia.
Infine la terza teoria, sulla quale ci si soffermerà un po’ più a lungo, ipotizza un ruolo adattivo della
musica rispetto alla relazione fra mamma e neonato. Come abbiamo già visto in un precedente capitolo
diverse ricerche hanno mostrato come la musica giochi un ruolo importante nella comunicazione delle
emozioni tra bambino e la persona che si occupa di lui e nella regolazione dello stato emotivo del
piccolo. Non a caso tali persone parlano ai neonati in una maniera enfatica, cha fa ampio uso della
prosodia e assomiglia in un certo senso al canto. Non solo, quindi, sembra che i neonati apprezzino il
carattere enfatico del canto, ma questo permette certamente agli adulti di meglio trasmettere le proprie
emozioni e di controllare in parte il livello di intensità emotiva del neonato. In altre parole, grazie alle
proprietà musicali sopra descritte si può cantare una ninnananna per calmare o una canzone per
risvegliare l’attenzione. Questo suggerisce che la musica viene utilizzata in un contesto di espressione e
regolazione emozionale, e che il canto e il linguaggio diretto ai neonati abbiano una funzione adattiva di
sviluppo. La musica contribuirebbe in tal modo all’apprendimento dell’interazione sociale e
dell’autoregolazione prima che il bambino sia in grado di capire il linguaggio verbale.

3.2.6. Psicologia della musica e musicoterapia

A questo punto può essere interessante offrire alcuni spunti sul modo in cui gli studi di psicologia e
neuroscienze della musica fin qui descritti possano avere un impatto sulla musicoterapia, nuova
disciplina emergente che riscuote sempre più successo, non solo in Italia ma anche all’estero. L’apporto
è di due tipi diversi. In primo luogo gli studi presentati testimoniano a favore di una possibile efficacia
della musicoterapica. In secondo luogo attraverso tali studi si comincia a intravedere il modo di
migliorare le tecniche di musicoterapia esistenti su basi scientifiche solide.

Premesse per la musicoterapia

Gli studi descritti mostrano chiaramente come la musica sia una funzione complessa che coinvolge e
stimola ampie reti neurali. Essa è inoltre accessibile a tutti, almeno in quanto fruitori, e comprensibile
anche ai bambini piccoli senza alcuno sforzo. Inoltre, la pratica della musica sembra poter modificare
entro certi limiti le connessioni cerebrali e migliorare anche alcune capacità non musicali. Infatti, se
alcune funzioni necessarie alla comprensione e produzione della musica sono in parte specifiche, altre
sembrano essere condivise con altre funzioni, ad esempio con il linguaggio. Inoltre, lo studio della
musica permette di sviluppare la memoria, l’attenzione, la capacità d’interazione, la coordinazione
motoria e altre funzioni che sono comuni a numerose attività umane. Infine, la musica è un canale
privilegiato nel veicolare le emozioni, in maniera efficace e semplice al tempo stesso. Queste ci
sembrano buone ragioni per pensare che la musica possa essere utilizzata in ambito terapeutico in
diversi casi: disturbo di apprendimento, disturbi attentivi, riabilitazione in alcuni tipi di deficit uditivi
centrali, disturbi del comportamento sociale e alcune forme di patologia psichica.

Migliorare le tecniche di musicoterapia

Possiamo anche andare oltre quest’affermazione dicendo che gli studi di psicologia e neuroscienze della
musica offrono suggerimenti su come orientare la terapia. Ad esempio, è probabile che le terapie che
utilizzano l’ascolto passivo della musica siano poco efficaci, con effetti limitati nel tempo e associati ad
ambiti non musicali. O ancora, le terapie che utilizzano la musica in ambito riabilitativo possono rifarsi
agli studi sul confronto fra musica e linguaggio che mostrano quali siano gli aspetti comuni e, quindi,
potenzialmente trasferibili dalla musica al linguaggio. Oltre a indicare possibili corsie preferenziali, la
psicologia in generale e la psicologia della musica in particolare illustrano anche diverse metodologie per
convalidare alcune ipotesi. Queste metodologie potranno in alcuni casi essere utilizzate per verificare
l’efficacia o meno di una terapia. Questo potrebbe anche portare a un’auspicata collaborazione
dell’ambito della ricerca con l’ambito clinico musicoterapico, mettendo da parte orgoglio e pregiudizi di
entrambi, a grande vantaggio del paziente e della scienza.
Infine, si spera di avere in parte sfatato alcuni miti intorno alla musica, quali la sua capacità di rendere
più intelligenti o di “potenziare” l’emisfero destro. Tutte le terapie che si basano su queste ipotesi, che
si sono rivelate false, necessitano di una totale revisione teorica. Questo non vuol dire però che non
possano esistere forme di musicoterapia che si basino principalmente sulle sue proprietà emotive,
ignorando gli altri aspetti più cognitivi. Infatti, l’umore e la motivazione del paziente sono
indubbiamente dei punti chiave per un benessere generale.
4. Musica e cervello: le neuroscienze cognitive della musica

4.1. Le basi cerebrali della musica


Le neuroscienze cognitive permettono di studiare l’architettura anatomo-funzionale dei processi mentali
(cognitivi). Utilizzando dei protocolli sperimentali adatti, è possibile valicare dei modelli neurocognitivi.
In questo capitolo descriveremo l’approccio neuropsicologico e alcuni risultati di studi che usano le
nuove tecnologie di neuroimmagine.

4.1.1. La dominanza emisferica nella musica


Molti avranno sentito parlare della dicotomia emisferica destra-sinistra che vede la musica elaborata
nell’emisfero destro e il linguaggio in quello sinistro. Qui di seguito vedremo come tale suddivisione
non sia invece affatto netta. Prima dell’avvento delle tecniche di neuroimmagine, che ci permettono di
misurare un’attività cerebrale, le conoscenze rispetto alla lateralizzazione e alla localizzazione delle
funzioni cerebrali erano legate allo studio dei pazienti cerebrolesi. L’unica altra tecnica assai diffusa e
che permette lo studio di soggetti normali è la tecnica dell’ascolto dicotico. In questa tecnica, due stimoli
diversi, ad esempio due note o due sillabe, vengono presentati simultaneamente alle due orecchie. In
seguito si chiede al soggetto di ripetere quello che ha sentito e si valuta se il soggetto riporta in maniera
sistematica le sillabe o note udite in un orecchio. Nella maggior parte dei casi, quando si usano le sillabe,
il soggetto riporterà le sillabe presentate a destra. La spiegazione che viene data di questa
lateralizzazione è che la via crociata, ossia quella che va dall’orecchio destro all’emisfero sinistro, sia
prioritaria rispetto a quella orecchio destro-emisfero destro. Quest’ultima sarebbe addirittura bloccata
per un breve periodo a favore della via crociata. Quindi, gli stimoli uditivi che producono un vantaggio
all’orecchio destro (ad es. sillabe) indicano una superiorità dell’emisfero sinistro nella loro elaborazione,
e viceversa gli stimoli che producono un vantaggio dell’orecchio sinistro indicano una superiorità
dell’emisfero destro.
I primi studi condotti con la tecnica di ascolto dicotico con stimoli musicali hanno dimostrato una
dominanza dell’emisfero destro per il riconoscimento delle melodie. Sono stati questi studi a diffondere
l’idea che il linguaggio fosse lateralizzato a sinistra e la musica a destra. Tuttavia, gli studi successivi
hanno mostrato che se gli stimoli usati erano sillabe cantate, la preferenza passava dall’orecchio destro a
quello sinistro. Altri studi si sono interessati alla percezione dell’altezza e del timbro, con dati che vanno
nella direzione di una preferenza dell’orecchio sinistro (emisfero destro), ma i dati non concordano
sempre fra loro e senza dubbio l’ipotesi di una dicotomia linguaggio a sinistra e musica a destra si è
rivelata troppo semplicistica.
Un fattore importante nel determinare la specializzazione emisferica sembra essere il livello di
conoscenza musicale dei soggetti. Alcuni studiosi negli anni ’70 hanno dimostrato che, in un compito
che richiede l’identificazione di una sequenza di due note, i soggetti senza una specifica competenza
musicale presentano una superiorità dell’emisfero destro, mentre i soggetti con training musicale una
superiorità dell’emisfero sinistro. Gli autori hanno considerato questo risultato come una conseguenza
della strategia adottata. In particolare, soggetti senza training musicale ascolterebbero la musica in modo
globale, mentre soggetti musicisti l’ascolterebbero in modo analitico. La dicotomia analitico/globale
corrisponde alle diverse modalità di elaborazione dei due emisferi: l’emisfero sinistro è analitico, mentre
l’emisfero destro elabora l’informazione in modo più globale. In altre parole, questo sembra voler
indicare che l’attenzione ha un ruolo determinante nei risultati di questi studi. In effetti, l’uso di una
strategia o di un’altra si riduce alla focalizzazione dell’attenzione a un aspetto piuttosto che a un altro
dello stimolo musicale, e questo porta all’uso di una rete cerebrale piuttosto che all’altra.

4.1.2. Modulare o non modulare?


Il termine “musica” non rappresenta una semplice struttura acustica, ma è un’esperienza soggettiva
complessa, basata su un insieme di capacità mentali e che necessita di diverse funzioni percettive e
cognitive. Queste funzioni possono in alcuni casi influenzarsi a vicenda o in altri casi possono essere
indipendenti. Per la comprensione del funzionamento della mente e del cervello, la conoscenza
dell’indipendenza o interazione di due funzioni cognitive è primordiale. Non a caso una delle teorie più
importanti nell’ambito delle scienze cognitive è la teoria della modularità, che ipotizza la possibilità che
il cervello sia in parte organizzato in moduli separati e specializzati. La teoria della modularità, grazie
alla sua semplicità nella visione dell’organizzazione cerebrale, ha avuto una popolarità incredibile
nell’ambito delle neuroscienze, e lo studio della musica non fa eccezione.
Una prova del fatto che la musica possa avere una rappresentazione funzionale e anatomica specifica
può essere suggerita dall’esistenza di casi di un danno o di un risparmio selettivo di questa capacità.
Nell’età evolutiva il fenomeno dell’idiot savant è un esempio di caso dove un disturbo cerebrale
congenito può lasciare l’individuo con un livello più o meno grave di ritardo mentale risparmiando la
capacità musicale. Nei soggetti adulti una lesione cerebrale acquisita può danneggiare o risparmiare
selettivamente le capacità musicali. Queste osservazioni permettono di isolare la capacità di
elaborazione cognitiva della musica rispetto alle capacità cognitive sia dal punto di vista funzionale che
da quello neuroanatomico.
I primi dati a favore della modularità o specializzazione cerebrale per la musica vengono dagli studi sui
pazienti cerebrolesi. Un caso famoso è quello del compositore russo Vissarion Shebalin, che fu vittima
di un’emorragia nell’emisfero cerebrale sinistro. Questo gli costò una paralisi temporanea del lato destro
del corpo e un disturbo linguistico grave (afasia) che gli impedì di parlare e di capire fino alla fine dei
suoi giorni. Nonostante queste difficoltà, Shebalin continuò a lavorare come compositore e come
insegnante di musica. A dispetto della grave afasia, riuscì non solo a finire le composizioni già iniziate,
ma scrisse ancora 14 corali, 2 sonate, 2 quartetti per archi, una sinfonia e diversi altri brani. Secondo
Shostakovich, grande compositore russo dello stesso periodo di Shebalin, le nuove composizioni di
quest’ultimo non differivano significativamente, nel loro livello, dalle composizioni scritte prima della
sua malattia. L’autopsia post mortem di Shebalin rivelò un danno rilevante nel lobo temporale e nel
lobo parietale nell’emisfero sinistro, lesione che genera il più delle volte un disturbo afasico. Il caso di
Shebalin è quindi un caso di afasia senza amusia, ossia di disturbo linguistico senza disturbo musicale.
Un altro caso famoso è quello di una paziente descritto da alcuni studiosi. All’età di 28 anni dovette
subire degli interventi chirurgici a causa della rottura di un aneurisma dell’arteria cerebrale media
nell’emisfero destro. In seguito all’intervento, la paziente rimase con due lesioni cerebrali estese
comprendenti la corteccia uditiva bilaterale e le aree frontali dell’emisfero destro. Nonostante queste
lesioni la paziente mostrò un funzionamento intellettivo, linguistico e di memoria indenne. Non solo,
ma poté continuare a scrivere poesie. Il solo handicap importante sembrava essere la sua incapacità a
riconoscere della musica che le era stata familiare prima della lesione. La paziente, inoltre, non poté più
cantare in modo intonato, né fu più in grado di imparare brani musicali, cosa che aveva l’abitudine di
fare prima dell’intervento. È un caso esemplare di amusia senza afasia.
Ci troviamo di fronte a quella che viene chiamata in gergo “doppia dissociazione”: ciò sembrerebbe
indicare che esista una specializzazione cerebrale e funzionale per la musica e una per il linguaggio.
Purtroppo, le cose non sono così semplici.
Al di là del fatto che alcune delle descrizioni dei casi (soprattutto quelle datate) sono di tipo aneddotico,
i test musicali utilizzati sono spesso poco sensibili, improvvisati o addirittura non somministrati. Ad
esempio, nel caso di Shebalin, sappiamo che fu in grado di comporre, ma non sappiamo se fosse in
grado di percepire la musica o di suonare come prima dell’incidente vascolare. Inoltre, un musicista del
suo calibro avrebbe dovuto essere studiato con test musicali estremamente sensibili e complessi, mentre
fu per lo più studiato da neurologi che di musica non sapevano nulla. Quindi potrebbe benissimo essere
che Shebalin in realtà ebbe anche un disturbo nella percezione o nella produzione esatta di
configurazioni ritmiche, senza che i neurologi se ne fossero accorti. In fondo Beethoven continuò a
comporre nonostante fosse completamente sordo!
Un altro problema nell’interpretazione di questi deficit in un quadro modulare è il considerare la musica
come un tutto inscindibile. Come si è già detto più volte non è possibile considerare le funzioni
cognitive complesse come moduli, ma diventa necessario scomporle in funzioni di base. A questo
punto si pone un problema teorico importante: quali sono queste funzioni di base? Di che cosa
necessita la musica? Come per gli studi sul linguaggio il quadro teorico è stato quello della linguistica, il
quadro teorico che è stato utilizzato per operare la suddivisione della musica in sottocomponenti è stato
quello musicologico. Benché questo quadro di riferimento possa essere corretto, nulla ci dice che abbia
una realtà fisiologica. In effetti, concetti come armonia, melodia, metrica, ritmo, che sono concetti
musicologici, potrebbero non avere nessun correlato biologico preciso. In altre parole, nessuno ci
assicura che esista un modulo nel cervello che si occupi di analisi armonica. Fino a ora i tentativi di
andare oltre questo quadro di riferimento sono stati pochi, e solo negli ultimi anni si comincia a vedere
il modo d’interpretare la musica in un quadro percettivo cognitivo che permetta di decomporla in
operazioni cognitive fondamentali che vadano oltre il quadro musicologico. Se ci si è dilungati su
questo punto teorico è perché esso ha un’importanza fondamentale. Infatti se la teoria di partenza non
è corretta e biologicamente valida, l’interpretazione dei dati perde completamente di senso.
L’approccio modularista è stato comunque applicato allo studio della musica utilizzando le componenti
musicali descritte dalla musicologia, e questo ha portato a un frazionamento delle diverse funzioni
musicali. In alcuni casi i deficit sono particolarmente interessanti. Ad esempio Peretz descrive il caso di
un paziente che non era più in grado di elaborare i suoni in un quadro tonale. Tale paziente non poteva
più giudicare se la nota più prevedibile di una melodia, ossia l’ultima nota, fosse coerente (tonica)
oppure no (sopratonica) con il contesto. E questo nonostante fosse in grado di elaborare il contorno
melodico e la grandezza degli intervalli musicali. Inoltre non aveva alcun disturbo di elaborazione della
dimensione temporale (ritmo). Nel quadro teorico sopra descritto, questo disturbo può essere
interpretato come l’esistenza di un modulo specifico all’elaborazione della tonalità in musica. A questo
punto è interessante notare che, una volta che si entra dentro il sistema musicale per frazionarlo, il
problema della modularità delle funzioni complesse sopra descritto si traduce al livello delle
sottocomponenti individuate. Ossia, se l’interesse dello studio su Shebalin era valutare se musica e
linguaggio fossero modulari (indipendenti), ora la stessa domanda si pone a livello delle diverse
sottocomponenti musicali.
Gli studi condotti con pazienti cerebrolesi hanno una forte propensione a confermare l’ipotesi della
specificità della facoltà musicale e della sua struttura gerarchica e modulare. È necessario tuttavia
chiarire la natura delle funzioni ipotizzate e delineare il livello della loro autonomia.

4.1.3. Ancora neuropsicologia della musica


Ogni giorno, a casa, per la strada o al lavoro ci capita di sentire della musica, così per caso. Nel giro di
una frazione di secondo siamo in grado di dire se conosciamo il brano oppure no. Inoltre siamo capaci
di canticchiare il brano e talvolta anche di recuperare informazioni a esso legate, come il titolo, l’autore,
lo stile e via dicendo. Se poi il brano è una canzone, non solo riusciamo a cantare la melodia, ma anche
a cantarla con le parole del testo preciso. Nonostante tutto questo avvenga spesso con un’estrema
facilità e in parte automaticità, i meccanismi cerebrali alla base di tutte queste operazioni non sono
affatto evidenti.
In un modello per il riconoscimento della musica l’input viene analizzato da due sistemi paralleli che
vengono considerati indipendenti. I due sistemi elaborano in maniera separata le informazioni
necessarie a effettuare un’analisi melodica (variazione dell’altezza dei suoni) e una temporale (variazione
della durata dei suoni). Il sistema di analisi melodica ha tre sottocomponenti che sono fra loro
indipendenti e che hanno la funzioni di specificare il contenuto della melodia. L’analisi del contorno si
occuperebbe di elaborare la direzione dei suoni (sale o scende). L’analisi degli intervalli servirebbe a
specificare il tipo d’intervallo fra due note (in termini di distanza). L’analisi della tonalità sarebbe
necessaria a creare legami fra i diversi intervalli. Il sistema di analisi temporale ha due sottocomponenti,
una per l’analisi degli aspetti metrici e una per gli aspetti ritmici. In modo semplificato, la via della
melodia potrebbe rappresentare il “che cosa”, mentre la via temporale potrebbe rappresentare il
“quando” occorrono gli eventi nell’input musicale. Entrambe le vie mandano il loro output a un lessico,
magazzino a lungo termine,che racchiude le rappresentazioni delle proprietà astratte della musica. In
effetti, se il lessico avesse le melodie reali (la singola esecuzione di un determinato brano), sarebbe
difficile riconoscere melodie uguali, l’una suonata da un’orchestra e l’altra fischiettata da un passante, in
quanto il segnale, ossia il suono in esse contenute, è estremamente diverso. Ciò che non cambia sono
invece le proprietà astratte che il nostro cervello estrae, ad esempio la relazione delle durate delle note o
degli intervalli.
Facciamo un esperimento: chiedete a due amici di pensare a Fra’ Martino campanaro senza cantarlo.
Chiedete che si tappino le orecchie con le mani e che comincino a cantare a bassa voce a un vostro
segnale senza guardarsi. Nella maggior parte dei casi il risultato sarà cacofonico. Infatti il tempo, ossia la
velocità della pulsazione, sarà diverso, così come anche la nota di partenza e quindi tutte le successive
saranno diverse. Che cosa è successo? Ognuno dei due amici ha recuperato dal lessico le strutture
astratte corrispondenti al brano. Queste strutture sono appunto astratte, nel senso che non vi è
codificata una forma esatta del brano, ma le relazioni fra i diversi elementi.
Ritorniamo ora al modello di cui sopra. Il recupero di un’entrata nel lessico musicale può dar luogo
anche al recupero di informazioni che sono state immagazzinate in altri sistemi come, ad esempio, le
parole dei testi di una canzone oppure il titolo del brano (identificazione). Inoltre, il recupero di un
particolare brano dal lessico può evocare una sensazione di familiarità, ma anche emozioni forti legate a
quel preciso brano.
Una serie di studi su pazienti cerebrolesi suggerisce che le strutture melodiche e temporali vengano
elaborate separatamente e in maniera indipendente. Queste conclusioni si basano ancora una volta su
casi di doppia dissociazione nei quali l’organizzazione ritmica della melodia può essere risparmiata
quando la melodia è deficitaria e viceversa. Inoltre, all’interno delle sottocomponenti melodiche e
temporali, altri studi suggeriscono che l’analisi dell’intervallo, del contorno melodico e della tonalità
siano separate e indipendenti, e che questo sia il caso anche per l’analisi metrica e ritmica della
sottocomponente temporale. Se quindi, da un lato, la maggior parte degli studi in neuropsicologia ha
una forte tendenza a decomporre la musica in diversi moduli più piccoli, per lo più specifici e
indipendenti fra loro, gli studi comportamentali, di elettrofisiologia e di neuroimmagine mostrano
spesso come queste stesse funzioni, necessarie all’analisi musicale, non siano fra loro indipendenti e
talvolta non siano affatto specifiche alla musica. Ad esempio, diversi studi hanno mostrato che l’analisi
melodica e quella temporale non sono indipendenti. Altri studi hanno evidenziato che l’analisi del
contorno melodico e del contorno prosodico potrebbero essere in realtà un tutt’uno (quindi non
specifico).
Al momento sarebbe prematuro formulare conclusioni certe riguardo alla questione della modularità
della musica. La modularità può sussistere ad alcuni livelli di elaborazione ed essere assente ad altri
livelli. Funzioni come l’analisi tonale si prestano bene come candidati della modularità in quanto la
tonalità è un fenomeno puramente musicale. Se da un lato potrebbe quindi essere specifica della
musica, da un altro sembra difficile immaginare come una tale analisi tonale potrebbe avvenire in modo
indipendente dall’analisi degli intervalli. Potrebbe quindi esserci un quadro più elastico con un modulo
specifico alla tonalità, ma senza indipendenza dall’elaborazione degli intervalli. Infine non bisogna
dimenticare che, se nelle prime tappe dell’elaborazione dell’informazione l’indipendenza fra due tipi di
elaborazioni diverse è possibile, nelle tappe successive che portano al riconoscimento di un brano tutte
queste informazioni vengono messe assieme, e il risultato della loro interazione è appunto il percetto
globale che possiamo avere quando ascoltiamo una qualsiasi sinfonia.

4.3. Musica e aree cerebrali


In questa sezione sulla localizzazione delle funzioni musicali non si daranno indicazioni univoche, del
tipo tale area cerebrale sottende a tale funzione musicale. Nonostante l’ambito delle neuroscienze
applicate allo studio della musica sia in piena esplosione, i risultati attuali non permettono di fare un
punto chiaro sulla situazione. Ci limiteremo quindi a mostrare quali insegnamenti si possono trarre
dallo studio della musica con le tecniche di neuroimmagine.
Quando ci s’interessa alla cartografia funzionale della musica, o di un’altra attività umana, è necessario
tenere conto di due elementi. Primo, la musica non è un monolite. Secondo, il cervello non è fatto da
un insieme di piccoli moduli della misura di un fagiolo che agiscono l’uno in maniera indipendente
dall’altro.
Il primo punto dovrebbe ormai essere chiaro a tutti. Chiedersi quale parte del cervello elabori la musica
non vuol dire nulla. Anche il semplice canticchiare Fra’ Martino Campano necessita di una quantità
impressionante di diverse funzioni cognitive (avere l’informazione da qualche parte della memoria,
accedere all’informazione corretta che è di tipo astratto, programmare i movimenti della bocca e delle
corde vocali necessari alla produzione, ascoltare e analizzare il suono prodotto e correggersi in tempo
reale). Allo stesso tempo questo punto ci mostra ancora una volta come lo studio della musica non sia
fine a se stesso, ma sia interessante in quanto permette di studiare funzioni cognitive complesse.
Il secondo punto è la logica dell’impresa. Nell’impresa c’è il direttore che si occupa dei rapporti con
l’esterno, la segretaria del direttore che scrive le lettere, l’amministratore che tiene i conti, l’ingegnere
specializzato in tubi, quello specializzato in circuiti elettrici e via dicendo. Ognuno ha il suo ruolo
definito e l’informazione circola poco e lentamente. Il cervello (per fortuna) non funziona così.
L’informazione può essere elaborata da un’area assai precisa, ma anche in modo simultaneo da diverse
aree spazialmente distribuite e circola da un’area all’altra in un flusso continuo.
Se mettiamo i due punti descritti insieme questo vuol dire che, a seconda della funzione che ci interessa,
possiamo fare l’ipotesi che essa sia svolta da un’area precisa o che necessiti dell’azione di un network
distribuito. Ad esempio, una serie di studi che s’interessavano all’elaborazione dell’altezza ha messo in
evidenza come la corteccia uditiva destra sia più specializzata della sinistra nell’analisi precisa
dell’informazione frequenziale (altezza), mentre la corteccia sinistra sia più specializzata nell’analisi
dell’informazione temporale, necessaria ad esempio per la distinzione di due fonemi. In questo caso
abbiamo un indice di una possibile specializzazione emisferica a livello della corteccia uditiva, ma
attenzione a non interpretare questo come “la corteccia uditiva destra analizza l’informazione
frequenziale e la sinistra l’informazione temporale”, poiché è una specializzazione relativa. Ad esempio,
se valutiamo che nella destra italiana ci siano più idee liberiste che nella sinistra, non vuol dire che tali
idee siano assenti nella sinistra.
Quando ci s’interessa alle funzioni cognitive più complesse, c’è una tendenza generale a una
diminuzione della preferenza emisferica. Il caso dell’analisi armonica è un buon esempio. Diversi studi
hanno infatti mostrato che l’elaborazione sintattica musicale richiede l’intervento di strutture simili a
quelle che operano per l’analisi sintattica linguistica. Queste strutture, che coincidono con l’area di
Broca, sono solo leggermente più attive a destra che a sinistra per la musica. Inoltre queste strutture
fanno parte di un più ampio network cerebrale che sottende l’analisi sintattica in generale. Questo è
quindi un bell’esempio di una quasi totale assenza di preferenza emisferica per la musica, di una
sovrapposizione delle aree cerebrali per l’elaborazione musicale e linguistica e di un network distribuito
attraverso diverse regioni cerebrali.
Per finire, complichiamo ancora di più le cose. Nel 1974, Bever e Chiarello mostrarono che l’influenza
dell’apprendimento intensivo a livello professionale aveva un effetto sulla lateralizzazione emisferica
dell’elaborazione musicale. I non musicisti mostravano una preferenza destra, mentre i musicisti
professionisti mostravano una preferenza sinistra. In seguito, altri studi confermarono questi dati.
Come spiegare questa modificazione? Pensare che la pratica intensiva faccia migrare una funzione da un
lato all’altro del cervello sembra poco credibile. Invece, una spiegazione in termini di strategie e livelli di
analisi può rendere conto di un tale cambiamento. Infatti un musicista professionista non avrà la stessa
attitudine di un uditore naif durante l’ascolto di un brano musicale. L’uditore naif si lascerà andare a una
percezione d’insieme, alle emozioni che la musica evoca e via dicendo. Il professionista potrà fare lo
stesso, ma in più potrà ogni tanto focalizzarsi sull’analisi di un dettaglio come un suono poco netto o
una modulazione particolarmente interessante. In altre parole, il professionista potrà mettere in atto una
strategia di tipo analitico. Questo è interessante poiché mostra come le strutture cerebrali che erano
state considerate come i centri dell’elaborazione di una data funzione musicale sembrino riflettere
piuttosto il modo in cui l’uditore ascolta e analizza.