Sei sulla pagina 1di 10

Luigi Ceccarelli

La scrittura musicale

Spesso nel parlare comune si tende a identificare la scrittura musicale con la musica
stessa. Non andrebbe mai dimenticato invece che la scrittura musicale non è “la
musica”, ma soltanto un metodo di memorizzazione per il musicista. Essa è solo una
mappa, a volte anche molto parziale, della creazione musicale e “la mappa non è il
territorio”. Non esiste musica se non c’è un generatore di suono che produce vibrazioni
dell’aria - strumento meccanico o macchina digitale che sia -. E soprattutto occorre che
questa vibrazione venga percepita da una mente umana: il suono non è un’entità fisica
ma una sensazione percettiva, e senza un ascoltatore la musica non esiste.

Fino al 1877, anno in cui Thomas Alva Edison brevettò il fonografo, l’unico modo di
memorizzare la musica era quello di scriverla.
I musicisti occidentali usano il sistema neumatico per la scrittura musicale da circa un
millennio e si può dire che questo sia stato, oltre alla pura comunicazione orale, il
metodo universalmente più usato per tramandare la musica da una generazione all’altra.
La scrittura musicale, oltre a trasmettere le informazioni principali da un musicista
all’altro per l’esecuzione di un brano, si è dimostrata per i compositori anche una
potentissima arma di speculazione intellettuale e un prezioso strumento per
l’organizzazione dei suoni: è per questo che ha avuto un ruolo fondamentale nello
sviluppo della musica occidentale, ed è principalmente merito della scrittura se nella
cultura occidentale sono state sviluppate una gran quantità di forme musicali che non
hanno uguali per complessità e per varietà nelle altre culture.
Ma la scrittura musicale è stata anche fortemente condizionante per la creazione
musicale stessa, dato che, lungi dall’essere un fedele strumento di registrazione, come
tutti i sistemi che trasformano la natura del messaggio impone una sua precisa e
limitante logica, per cui se alcune soluzioni compositive sono facilmente traducibili
sulla carta, altre sono più difficoltose o addirittura impossibili da scrivere.

L’appartenenza del suono all’esclusiva dimensione temporale rende la musica un’arte


astratta e difficile da memorizzare (sappiamo bene quanto per la nostra mente la
dimensione del tempo sia quasi totalmente subita e poco controllabile). Quando invece
si trasforma la musica in messaggio scritto viene operata una conversione dalla
dimensione temporale a quella spaziale e così il tempo diviene segno, un’entità
facilmente misurabile e gestibile. Grazie alle convenzioni cartesiane, qualsiasi durata
può essere visualizzata e compressa in un solo istante con un colpo d’occhio. Così un
musicista può facilmente mettere in relazione singole sezioni di un’opera anche molto
distanti tra loro, può valutare le proporzioni musicali proprio come un architetto farebbe
con il plastico di un progetto. I suoni che costituiscono un’opera e che si succedono nel
tempo sono presenti nella partitura contemporaneamente, osservabili nella loro totalità e
quindi organizzabili. E’ tutto questo che rende possibile la composizione della musica,
perchè il suono, totalmente astratto e sfuggente nella sua dimensione, viene convertito
in oggetto misurabile.

1
La scrittura tradizionale

La notazione neumatica è un esempio significativo di come un sistema di scrittura, per


essere largamente condiviso e restare valido nel tempo, debba essere il risultato di una
stratificazione culturale molto complessa. Nel corso dei mille anni di evoluzione le
aggiunte di nuovi simboli che specificano le sempre nuove modalità di esecuzione
hanno reso la scrittura musicale contraddittoria e illogica, ma questo ha fatto sì che
finora essa sia riuscita a tener conto di tutte le innovazioni del pensiero e della tecnica
restando allo stesso tempo saldamente legata al passato, di cui continua a conservare e a
renderne comprensibile il messaggio. Pur essendo cambiati moltissimo stili e generi, i
presupposti della scrittura musicale sono sempre rimasti gli stessi.

La musica tradizionale è basata sulla pulsazione ritmica, che rende percepibili le


proporzioni temporali e rende possibile la costruzione delle figurazioni ritmiche
consentendo agli strumentisti di mantenersi in stretta relazione temporale tra loro. La
percezione umana distingue molto precisamente le differenze di durata se le si mantiene
in una griglia ritmica con proporzioni semplici, fondamentalmente 1/1, 1/2, 2/3, 3/4,
(compresi i loro inversi e i loro multipli) e al massimo 5/4.
Nella scrittura tradizionale è sempre sottintesa una pulsazione di riferimento, che è il
tempo metronomico di una composizione o di una sua sezione, a sua volta aggregata in
un ritmo (che raggruppa in genere da due a sei pulsazioni), mentre la durata delle
singole note è sempre un multiplo o un sottomultiplo della pulsazione di riferimento.
L’effettiva velocità della pulsazione non è necessariamente fissata ed è descritta a volte
soltanto con termini piuttosto generici come largo, adagio, moderato, allegro, presto.
Soltanto dalla fine dell’800 i compositori hanno iniziato a scrivere esattamente il tempo
della pulsazione. Durante l’esecuzione spesso si varia la velocità del tempo
metronomico con piccoli accelerando e rallentando espressivi, perciò il tempo totale di
una composizione può essere piuttosto variabile e questo dipende anche dalla scelta
dell’interprete.
Data questa relativa semplicità, per scrivere le durate delle note sono necessari perciò
solo pochi simboli, differenziati tra loro dal colore della nota (bianco o nero) o dal
numero dei tagli sulle stanghette della nota. E’ da notare che nella notazione tradizionale
non c’è bisogno di una rappresentazione graficamente proporzionale del tempo. Essa è
stata utilizzata in musica solo occasionalmente e solo dalla metà del XX secolo, quando
il complicarsi delle figurazioni ritmiche o la necessità di creare pattern sonori senza
alcuna pulsazione hanno reso insufficiente la notazione tradizionale. Di fatto il sistema
di notazione neumatico si rivela facile e pratico da utilizzare per uno strumentista, e
finché ci si mantiene in suddivisioni di tempo non troppo complesse ancora oggi questo
metodo funziona alla perfezione.

Nella scrittura delle altezze la notazione musicale era concepita inizialmente per una
scala costituita da sette suoni per ottava a cui, al salire e scendere delle note,
corrispondeva una posizione più alta o più bassa della nota rispetto al rigo musicale. Il
successivo sviluppo delle tonalità e del sistema temperato ha aumentato le altezze
utilizzabili da sette a dodici per ottava ma ha conservato la stessa impostazione, con la
semplice aggiunta dell’alterazione delle nota - i simboli diesis e bemolle - che ne
aggiusta l’effettiva altezza a seconda della sua tonalità.

Per quanto riguarda gli altri parametri musicali come l’intensità, il timbro, e la prassi
esecutiva in genere, la scrittura tradizionale non ha mai creato una notazione altrettanto
complesso, ma si è limitata ad aggiungere indicazioni alfabetiche a margine del rigo

2
musicale. Questo fatto si può spiegare principalmente con la maggior difficoltà
incontrata dai musicisti nell’organizzare questi parametri secondo una scala di valori
che trovassero una precisa misurabilità nella percezione sensoriale.

Nella musica strumentale di oggi la scrittura tradizionale è ancora largamente utilizzata,


e nonostante una grande proliferazione di nuovi simboli aggiuntivi, il suo utilizzo è
pressoché generalizzato al di fuori delle avanguardie, dove invece la necessità di
ampliare la gamma delle possibilità melodiche, ritmiche e timbriche degli strumenti,
unita all’avvento della tecnologia digitale, ha reso da tempo obsoleto il sistema
neumatico che è oramai impossibile espandere ulteriormente.

La nuova scrittura

Il grande rinnovamento culturale dell’inizio Novevento ha segnato una svolta


importante anche per il linguaggio musicale che, benchè tradizionalmente più
conservatore di quello delle arti visive, ha anch’esso subito l’influenza iconoclasta delle
avanguardie artistiche. Il linguaggio tonale in quel periodo era arrivato oramai alla sua
completa saturazione e non era certo più un supporto accettabile per nuove idee
espressive, quindi, anche se inizialmente in modo più graduale che in altre arti, i
musicisti più innovatori hanno abbandonato definitivamente il sistema tonale e posto le
basi per una radicale rivoluzione, che in mezzo secolo avrebbe trasformato
completamente il linguaggio musicale della cultura nobile e borghese europea in una
sintesi multiculturale e multietnica. A partire dall’inizio del ‘900 la musica si è anche
progressivamente integrata con le altre arti fino ad arrivare alla multimedialità di oggi,
in cui suoni e immagini utilizzano gli strumenti digitali come supporto tecnico comune
e, anche se non sempre con risultati di vera integrazione, confluiscono in in cui suono e
immagine fanno parte di un unico linguaggio artistico e tecnico.

A parte la dodecafonia della scuola di Vienna, che pur restando nei canoni della scrittura
tradizionale è sicuramente stata la concezione che ha segnato il punto di non ritorno
rispetto alla musica tonale, forse in quegli anni il movimento che ha operato la rottura
più clamorosa con il passato in ambito musicale, è stato il futurismo italiano.
Movimento teorizzatore dei tutti i linguaggi artistici nella loro globalità, il Futurismo ha
dedicato ampio spazio alla ricerca di una nuova sensibilità musicale, non solo in
rapporto alla musica in sé, ma nella relazione tra musica e nuova estetica che
caratterizzava l’inizio dell’era contemporanea. Il compositore Giacomo Balilla Pradella
nel “manifesto dei musicisti futuristi” del 1911, rigetta completamente il mondo
musicale dell’epoca ormai imborghesito: “Portare nella musica tutti i nuovi
atteggiamenti della natura, sempre diversamente domata dall’uomo per virtù delle
incessanti scoperte scientifiche. Dare l’anima musicale delle folle, dei grandi cantieri
industriali, dei treni, dei transatlantici, delle corazzate, delle automobili, degli
aeroplani. Aggiungere ai grandi motivi centrali del poema musicale il dominio della
macchina e il regno vittorioso dell’elettricità”1.
L’importanza del Futurismo sta soprattutto nell’aver assegnato per la prima volta al
rumore la dignità di elemento espressivo e di averlo inserito nella musica al pari di un
suono armonico. Balilla Pradella ha scritto intorno al 1910 musiche per l’orchestra di
1
Balilla Pratella, La musica futurista, manifest tecnico (29 marzo 1911) in “Marinetti e
il futurismo” Oscar Mondadori p. 58
3
“Intonarumori” ideati e costruiti da Luigi Russolo, autore anche del manifesto “L’arte
dei rumori, nuova voluttà acustica” (1916). Gli “Intonarumori” erano una serie di
generatori meccanici (gorgogliatore, strofinatore, ecc..), ognuno dei quali produceva un
suono con timbro variabile, ma completamente indeterminato dal punto di vista
melodico. Balilla Pratella ha scritto anche partiture per strumenti tradizionali e
intonarumori per i quali ha inventato specifici segni di notazione. L’effetto
dell’introduzione in musica del concetto di rumore si può paragonare come importanza
all’introduzione dello zero in matematica perchè costringerà i musicisti a rivedere
completamente i concetti che stanno alla base della musica e del suo sistema di scrittura.

Le avanguardie artistiche del primo Novecento segnano anche l’inizio dell’integrazione


tra i vari linguaggi, ed è significativo, per esempio, che le teorie pittoriche di Kandinsky
e Klee siano state molto influenzate dalla musica. Oltre ad utilizzare i segni della
musica tradizionale nei loro dipinti - soprattutto Klee - questi pittori hanno stabilito una
corrispondenza tra segno astratto e suono molto diversa da quella della scrittura
musicale tradizionale, ma molto più vicina al suono dal punto di vista fenomenologico e
percettivo.
In direzione inversa alcuni musicisti hanno scritto partiture chiaramente ispirate alla
pittura, dove i segni musicali si combinano con vari tratti pittorici: i simboli inventati da
Klee e Kandinsky saranno una fonte di ispirazione per molti compositori che negli anni
successivi li adotteranno come vera e propria scrittura musicale, specialmente per
composizioni che descrivono strutture puramente formali, lasciando poi ampia libertà
all’esecutore nella scelta dei parametri sonori.

Per tutta la seconda metà del Novecento la ricerca dei musicisti è caratterizzata dal
tentativo di formalizzare le nuove idee musicali, e la conseguenza di questo è la nascita
di nuove forme di grafia. A volte il riferimento alla scrittura tradizionale è molto chiaro,
ma spesso molti simboli grafici vengono personalizzati ed estremizzati secondo le
specifiche esigenze di rappresentazione di una precisa idea compositiva. Altre volte la
scrittura tradizionale non è di nessun aiuto per rappresentare un’idea musicale, e allora il
compositore deve inventarsi una notazione totalmente nuova per fissare il suo progetto
sulla carta. Quest’ultimo caso impone però di avere insieme alla partitura una legenda
che contenga tutte le spiegazioni per una corretta interpretazione, pena la sua
incomprensibilità. Tra i numerosi esempi disponibili ve ne sono alcuni in cui la partitura
non è l’indicazione dei suoni che l’esecutore deve produrre, ma è una serie di istruzioni
e di regole attraverso le quali l’esecutore deve ricavare la propria personale
composizione.
Per avere un panorama significativo di queste partiture gli esempi che si dovrebbero
citare sono tantissimi. Quelli rappresentati dalle immagini in queste pagine sono solo
alcuni esempi tra i più significativi.
Naturalmente una nuova musica richiede anche nuovi strumenti, ed è per questo che a
partire dall’inizio del secolo scorso il perfezionamento e l’invenzione di nuovi strumenti
musicali, a dire il vero mai interrotti nel corso della storia, subisce un nuovo e
formidabile impulso, grazie anche agli sviluppi della tecnologia elettromeccanica in un
primo tempo, ed elettronica poi. Molti di questi strumenti, come per esempio le “ondes
martenot” o il “theremin”, offrono nuove possibilità espressive al musicista, e quindi la
scrittura musicale tradizionale comincia a diventare obsoleta.
Ma è soprattutto nel rapporto con la musica extracolta e con la musica delle culture
degli altri continenti che la scrittura musicale si è rivelata un sistema con grandi lacune.
Alcune musiche orientali, basate su scale non temperate pongono ai musicologi europei
un insuperabile problema di notazione, e i ritmi della musica africana sono troppo

4
complessi per essere scritti sul pentagramma. E poi la musica Jazz dei negli americani
trova nella notazione soltanto un supporto di base, perchè l’improvvisazione che è il suo
momento più creativo si sviluppa in figurazioni spesso impossibili da scrivere.
Spesso i compositori occidentali si avvicinano a queste musiche e ne sono fortemente
influenzati - si pensi per esempio a Debussy che elogia la musica dei gamelang
dell’isola di Bali come la più straordinaria che egli abbia mai sentito - e iniziano non
solo a inventare nuovi simboli per nuove sonorità, ma a richiedere agli strumentisti di
partecipare all’esecuzione anche creativamente, scrivendo indicazioni parziali o
fornendo solo l’impianto della struttura musicale e lasciando all’interprete una ampia
libertà di interpretazione. Gli anni 50-70 segnano il culmine dello sviluppo di queste
nuove modalità che partono dalla scrittura musicale tradizionale.
Purtroppo per quel che riguarda le orchestre e le formazioni cameristiche istituzionali
questi tentativi di innovazione hanno incontrato molta resistenza ed oggi quasi tutti i
compositori che vogliono cimentarsi nella scrittura orchestrale sono tornati ad una
grafia ed a convenzioni più tradizionali.

La musica elettronica

Questi elementi sono poi composti in modo sperimentale


mediante una costruzione diretta che tende a realizzare una
volontà di composizione senza l’aiuto, divenuto impossibile, di
una notazione musicale tradizionale
(Pierre Shaeffer, 1950).

E’ soprattutto con la nascita della musica elettronica e della musica concreta (creata cioè
partendo da suoni pre-registrati elaborati elettronicamente), avvenuta all’inizio degli
anni ’50, che la musica e la scrittura musicale rompono definitivamente i legami con il
passato creando un’estetica ed una tecnica totalmente nuova, non più necessariamente
legata all’esecuzione manuale da parte di un’interprete.
La musica elettronica nasce degli studi di produzione di alcune reti radiofoniche
europee, che allestiscono laboratori attrezzati per la sperimentazione di nuove forme di
creazione e produzione musicale. In questi laboratori, come lo studio della WDR di
Colonia, l’INA di Parigi e lo Studio di Fonologia della RAI di Milano, vengono invitati
diversi compositori d’avanguardia, da Pierre Shaeffer a Karlheinz Stockhauen, da
Luciano Berio a Luigi Nono e Bruno Maderna, da John Cage a Herbert Heimert e Pierre
Henry per realizzare opere che utilizzino le nuove invenzioni tecnologiche. Queste
opere sono interamente prodotte in laboratorio, con il supporto di tecnici del suono, e il
risultato finale è registrato su nastro magnetico, riproducibile da qualsiasi magnetofono
collegato ad un sistema di amplificazione o ad una stazione di trasmissione radiofonica,
senza la necessità della partecipazione di un interprete. La possibilità degli strumenti
elettronici di generare suoni sintetici e di registrare e modificare i suoni pre-registrati
dall’ambiente apre una prospettiva vastissima alla creazione musicale.
Fin dalla nascita della scrittura musicale, cioè fino al punto più lontano a cui la nostra
conoscenza può arrivare, il parametro musicale più importante è stato la melodia. Di
fatto le prime forme di scrittura sono esclusivamente notazione di melodie e la
preminenza della melodia come parametro di riferimento è sempre stata indiscussa, dato
che essa è effettivamente per la percezione umana il parametro più riconoscibile e
significativo. Ma già dalla fine del XIX secolo la sempre maggior conoscenza delle
leggi fisiche che governano il suono ha reso consapevoli i musicisti che in realtà è il

5
timbro il parametro fondamentale del suono da cui tutti gli altri sono derivati. E’ altresì
vero che lo sviluppo continuo dell’orchestra, che a partire dal XVII secolo si è evoluta
ed ingrandita sempre più in senso timbrico, è la dimostrazione dell’importanza che il
timbro ha sempre avuto nella musica, ma si può dire che soltanto da Debussy i musicisti
cominciano a scrivere composizioni in cui l’idea musicale non parte da una linea
melodica, ma da aggregati timbrici e dalla loro variazione. E’ proprio da questo
passaggio, dalla melodia al timbro, che si può dire inizi il cammino verso la musica
elettronica, perché il compositore può ora lavorare all’interno del timbro del suono
modificandolo a piacimento senza dover sottostare ai limiti fisici degli strumenti
meccanici, che pur offrendo vastissime possibilità espressive sono limitati dalle loro
stesse caratteristiche e dai limiti fisiologici dell’esecutore. Il suono diventa un’entità
completamente astratta, modificabile a piacere in tutti i suoi parametri fondamentali.
Inoltre, la capacità degli strumenti elettronici di registrare qualsiasi suono, di elaborarlo
e di mixarlo con qualsiasi altro fa sì che ogni fonte sonora possa diventare l’oggetto una
composizione.
Tutto ciò rappresenta la realizzazione del nuovo concetto di musica teorizzato nei primi
del Novecento, soprattutto dai futuristi ma anche da musicisti come Busoni e Varèse,
che finalmente trova il supporto tecnico ideale per la sua realizzazione. Ovviamente
questo porta ad un cambiamento radicale nel modo di comporre la musica e allo stesso
tempo un completo ripensamento del ruolo e della funzione della partitura.
Le prime partiture elettroniche, pur ricalcando concettualmente la funzione della
partitura tradizionale, cioè quella di un progetto che solo in un secondo momento deve
essere realizzato dal punto di vista sonoro, abbandonano completamente la scrittura
tradizionale, adottano una grafia più vicina alla rappresentazione scientifica del suono
utilizzando principalmente diagrammi cartesiani spazio-temporali. Tra gli esempi di
partitura più significativi sono da citare lo Studio II di Stockhausen e Incontri di fasce
sonore di Franco Evangelisti. Si possono trovare però molte partiture, alcune delle quali
realizzate in seguito, che sono rappresentazioni schematiche degli eventi sonori e
servono più che altro da guida all’ascolto. E’ il caso per esempio delle prime partiture
elettroniche di Ligeti o di “Visage” di Berio.
Più che un semplice problema di grafia, il vero cambiamento portato dalla tecnologia
elettronica è nel superamento della scrittura musicale come tramite fondamentale per la
comunicazione e per l’organizzazione della musica. Con gli strumenti elettronici la
musica può essere creata dal compositore lavorando direttamente sul suono senza
bisogno di avere una orchestra a portata di mano, ma più semplicemente programmando
una macchina. Il processo di produzione musicale non è più costituito, come nella
musica colta occidentale, dai due momenti separati, quello della composizione che
avviene sulla carta, o tutt’al più con l’aiuto del pianoforte, e quello dell’esecuzione.
Senza qualcuno che deve riprodurre la musica, la partitura perde la funzione di
comunicazione tra compositore ed interprete e rimane esclusivamente uno strumento
personale del compositore non necessariamente decodificabile da altri. Per questa
ragione le partiture musicali elettroniche sono spesso difficilmente decifrabili o sono
incomplete, restando solo schemi e appunti parziali.

Un compositore oggi può scrivere direttamente sulla consolle del computer le istruzioni
per la produzione del suono e ascoltare immediatamente il risultato ottenuto. Per questo
la scrittura tradizionale, concepita per l’esecuzione manuale di strumenti meccanici, è
oggi del tutto inadatta. Il suono può essere pensato a partire dalle sue proprietà fisiche
primarie, dall’andamento dinamico e frequenziale delle singole componenti armoniche,
che in un singolo suono possono essere anche un numero infinito, o viceversa possono
essere la scomposizione e la ri-sintesi di un suono molto complesso. Per questo la

6
quantità di dati da decidere e memorizzare in una composizione elettronica di oggi è
notevolmente superiore a quella dei dati di una partitura tradizionale, e richiede una
organizzazione su molteplici livelli temporali.

La scrittura tradizionale contiene tutto sommato una informazione molto parziale di


quello che sarà il risultato finale del brano musicale perchè la maggior parte delle
istruzioni fanno già parte del bagaglio culturale dell’esecutore, che ha imparato in molti
anni di studio una prassi che non si può trasmettere con la scrittura tradizionale. Gli
strumenti elettronici invece sono programmabili per generare e controllare ogni
infinitesimo particolare del suono, e spetta al compositore stabilire quanto egli voglia
andare a fondo nella creazione della sua opera: se progettare assolutamente tutto, da
ogni singolo timbro al numero delle sorgenti sonore necessarie alla diffusione, oppure se
affidarsi a quello che altri hanno pre-programmato per lui (come succede nella musica
leggera e nella musica amatoriale).

Se gli anni tra il 1950 e il 1980 si possono considerare il periodo pionieristico della
musica elettronica, con il progredire della tecnologia gli strumenti elettronici analogici,
piuttosto imprecisi, sono stati via via sostituiti da apparecchiature digitali. E’ del 1957
la prima composizione che usa l’elaboratore per programmare un brano musicale:
ILLIAC suite per quartetto d’archi di Lejaren Hiller, realizzata negli Stati Uniti presso
la Illinois University. In quel caso, compito dell’elaboratore era semplicemente quello di
stabilire una sequenza di note, poi tradotte in notazione tradizionale. Ma con il tempo, la
sempre maggior capacità e velocità dei computer nel memorizzare dati e sequenze
temporali (come lo sono i suoni) e nel riprodurle a piacere ha fatto sì che da semplici
sequenze numeriche corrispondenti a note, si passasse rapidamente alla memorizzazione
e all’elaborazione delle sequenze numeriche ben più grandi che rappresentano l’intera
informazione sonora. Le macchine digitali di oggi, con la loro possibilità di farci
ascoltare all’istante qualsiasi suono registrato e rielaborato, sono lo strumento più
utilizzato per la realizzazione della musica. I computer ci permettono di ristabilire il
rapporto diretto tra pensiero creativo e suono, cosa impossibile nella musica tradizionale
per un compositore che non sia anche esecutore di se stesso. Questa possibilità era
andata completamente persa nella musica occidentale con il complicarsi delle strutture
musicali che rendono necessaria la partecipazione e la sincronizzazione di più
strumentisti. Il compositore può creare al computer strutture molto complesse
ascoltando immediatamente il suono risultante e variandone a piacimento le
caratteristiche.

La funzione della partitura ora non è più quella di indicare una azione manuale ad un
esecutore, ma è quella di visualizzare il suono, dalle sue componenti essenziali alla sua
struttura generale. Le componenti del suono visualizzabili sono molto complesse e
precise, e sono la raffigurazione stessa dell’andamento della vibrazione dell’aria. Ma
quando un computer visualizza un suono in questo modo significa che ha tutti i dati
necessari anche per riprodurlo attraverso un altoparlante. Di qui la totale corrispondenza
tra partitura scritta e musica.
Per questa sua valenza fenomenologica, la rappresentazione del suono ha assunto
completamente la formalizzazione della rappresentazione scientifica, basata sulle
coordinate cartesiane, come una variazione dell’intensità in funzione del tempo, oppure,
in modo più complesso ma più esaustivo, come la variazione dell’ampiezza delle
singole componenti frequenziali nel tempo (spettrogramma). Essendo la maggior parte
dei suoni fenomeni molto variabili nel tempo (e proprio questa estrema variabilità è una
delle caratteristiche determinanti della buona qualità della musica), ne consegue che la

7
rappresentazione del suono è un’immagine che varia istante per istante nel tempo con
leggi molto complesse da prevedere. Soltanto da pochi anni con l’aumentare della
velocità di calcolo delle macchine digitali, è possibile averne una visualizzazione in
tempo reale.
Se si considera che un suono può essere costituito da infinite componenti frequenziali
elementari e che per ogni componente possiamo avere il dato di ampiezza ogni
nanosecondo, ci si rende conto di quale mole di dati sia richiesta per una composizione
musicale.
Per questo oggi è necessario per il musicista lavorare anche su diversi livelli temporali,
ognuno dei quali gli permette di controllare un diverso aspetto della creazione sonora.
Karlheinz Stockhausen, già negli anni ’60 teorizza una divisione dei domini temporali
della musica secondo quattro livelli, ognuno dei quali si riferisce ad un diverso
parametro dell’organizzazione musicale: a) nella scala che va dai 5 ai 50 nanosecondi si
controlla il campionamento, vale a dire i singoli byte, come dati unitari di ampiezza che
costituiscono un suono digitale. b) da 50 nanosecondi a 30 millisecondi si trovano le
frequenza dello spettro udibile, che determinano l’altezza e il timbro del suono c)
l’ambito che va dai 30 millisecondi agli 8 secondi è quello in cui possiamo percepire e
comporre i ritmi d) e infine da 8 secondi a 30 minuti circa abbiamo l’ambito della
forma, in cui vengono organizzati i rapporti temporali tra insiemi sonori complessi.
Questo modo di pensare la musica ha spostato la competenza tecnica dei musicisti dalla
dimensione del suono strumentale a quella del suono digitale, e alcuni di essi
compongono musica utilizzando direttamente i linguaggi di programmazione. In questo
caso la partitura corrisponde alle istruzioni scritte nel linguaggio specifico del software
come per esempio gli oramai storici Music V, Music 360, e l’ancora attuale CSound.
Questa tendenza si è accentuata ancor più con la creazione di linguaggi “a oggetti”
creati specificamente per i musicisti come per esempio Max/Msp.

Musica dal vivo e nuove tecnologie

Naturalmente la musica di oggi non sempre esclude l’esecuzione, anzi, quasi mai.
L’esecuzione dal vivo è una parte fondamentale della comunicazione musicale, perché
la componente visiva è una parte essenziale della percezione, e questo vale anche per la
musica. Vedere un esecutore suonare il suo strumento è un contributo molto importante
per l’intelligibilità della musica, perché l’azione fisica di chi sta producendo il suono ci
aiuta a comprenderne meglio le caratteristiche. Ma anche l’ambientazione del concerto,
in tutte quelle componenti che apparentemente non hanno a che fare direttamente con la
musica, dà un orientamento estetico preciso. E forse solo con la musica elettronica, che
per la prima volta ha cercato di fare a meno dell’esecuzione dal vivo, con la sua
difficoltà a rendere il suono espressivo, ci si è veramente accorti di quanto la
componente interpretativa umana sia un contributo importante alla vitalità e
all’emozionalità della musica.
Negli anni ’60 la divisione tra musica prodotta con mezzi elettronici e musica
strumentale era piuttosto rigida, e non solo perché il problema pratico dell’interazione
tra le due tecnologie era per quei tempi molto difficile da risolvere, ma soprattutto
perché la scelta, da parte dei musicisti, di utilizzare strumenti tradizionali o elettronici
era lo specchio di una formazione culturale e tecnica molto diversa e prima ancora di
poetiche completamente diverse. Con il passare degli anni la tecnologia digitale è
diventata molto versatile e si è integrata sempre più con gli strumenti tradizionali
sviluppando oltre a strumenti completamente nuovi anche strumenti ibridi che allargano
notevolmente le possibilità espressive, e la formazione dei musicisti si è orientata

8
sempre più a favore dell’uso dei mezzi tecnologici tanto che oggi praticamente tutti i
nuovi generi musicali, anche se in modo molto diversificato, fanno uso della tecnologia
digitale.
Per quel che riguarda la scrittura è sempre più frequente incontrare partiture miste, per
strumenti tradizionali e strumenti elettronici, dove convivono in simbiosi i due sistemi
di notazione. Il sistema tradizionale è ancora quello che gli strumentisti preferiscono,
perché più vicino alla loro pratica esecutiva, mentre chi usa strumenti elettronici
preferisce un sistema più tecnico-scientifico anche per l’esecuzione dal vivo. Un diverso
discorso vale per le cosidette tastiere elettroniche che sono da considerare in genere
strumenti tradizionali, in quanto la loro meccanica di esecuzione è identica a quella del
pianoforte. Generalmente queste tastiere vengono utilizzate nella musica commerciale, e
il loro scopo è quello prevalentemente pratico di mettere a disposizione immediata del
suonatore un’ampia gamma di timbri per un’imitazione, il più delle volte grossolana, dei
suoni tradizionali.
Tra le prime partiture che prevedono la partecipazione di esecutori tradizionali ed
esecutori di apparecchiature elettroniche vanno ricordate opere di Karlheinz
Stockhausen come Microphonie I del 1964 per orchestra e modulatori ad anello e
Mikrophonie II del 1965 per tam- tam amplificato. Queste partiture sono forse le prime
in cui viene concepita una funzione esecutiva nuova per la musica, quella
dell’elaborazione del suono dal vivo. Nel caso di Mikrophonie II per esempio sono
previsti sei esecutori: due di questi fanno suonare un tam-tam percuotendolo con vari
oggetti; altri due esecutori, muniti di un microfono ciascuno, captano il suono dello
strumento variandone continuamente il punto di ripresa e determinandone perciò una
variazione timbrica. Gli ultimi due esecutori operano ancora un’ulteriore variazione
modificando la frequenza di taglio di un filtro che agisce sul segnale captato dai
microfoni. L’ascoltatore percepisce così un risultato sonoro che è prodotto da due catene
di tre esecutori. In questo pezzo ogni esecutore ha la possibilità di operare variazioni di
suono molto profonde, tali che il suono prodotto dal tam-tam viene reso a volte
completamente irriconoscibile.
A partire da queste opere, lo sviluppo della scrittura di partiture musicali in questi ultimi
anni si è enormemente diversificato, così come i generi musicali nella musica di ricerca
sono diventati innumerevoli tanto da non poter essere catalogati. Si possono trovare
tantissime combinazioni di scrittura, che vanno dalla notazione neumatica alle forme
scientifiche di rappresentazione dell’onda sonora alle scritture intuitive e astratte che
definiscono solo parzialmente l’azione dell’esecutore.
L’uso del computer è diventato la prassi anche per la scrittura della musica, e oggi sono
a disposizione di chiunque software per la scrittura della musica tradizionale, che danno
a qualsiasi musicista la possibilità di ottenere un risultato grafico eccellente, al pari di
una stampa tipografica. Questo metodo di scrittura, divenuto nel tempo strumento
veloce e immediato per il compositore, diviene spesso un lungo e impersonale lavoro di
editoria.
Il computer sta contribuendo, nel bene e nel male, a uniformare anche i metodi di
composizione. I vari software commerciali per la composizione della musica sono ormai
standardizzati e seguono più o meno lo stesso tipo di visualizzazione del suono (vedere
le figure…….). La loro applicazione sta dando inoltre un contributo essenziale
all’integrazione tra suono e immagine perché, quando vengono digitalizzati, suono e
immagine possono essere organizzati e trattati da uno stesso software. La
visualizzazione, la strutturazione ed il metodo di editing è molto simile per ambedue, e
questo permette all’artista il loro trattamento con un’unica tecnica. Questo campo di
indagine è in grande espansione per la musica, che sta perdendo sempre più il ruolo di

9
arte a se stante per divenire un tutt’uno con gli altri linguaggi visivi, in quel contenitore,
per ora amorfo e caotico ma estremamente affascinate, che è la multimedialità.

10

Potrebbero piacerti anche