Sei sulla pagina 1di 7

Negli ultimi due secoli lo sviluppo degli strumenti musicali si è orientato verso la ricerca di

estendere le proprietà acustiche di strumenti tradizionali. Il pianoforte in particolare ha grandi


possibilità di ricerca sonora al suo interno, come è possibile già riscontrare nel lavoro di pionieri
come Henry Cowell e George Crumb, che hanno esteso la tecnica pianistica in opere che richiedono
all'esecutore di pizzicare, smorzare o percuotere direttamente con le mani o altri oggetti le corde
dello strumento. John Cage è stato un altro compositore che ha rinnovato il modo con cui un
compositore contemporaneo può ricercare nuove sonorità nel pianoforte: attraverso l’”invenzione”
del pianoforte preparato il suo scopo è cambiare l’estensione dello strumento posizionando i più
disparati oggetti tra le corde per cambiare il timbro e lo spettro armonico. La trasformazione dal
vivo del suono proveniente da una fonte strumentale può essere visto come la continuazione diretta
di questa tradizione.
Nel primo capitolo, presento il concetto di performance con live electronics. Il secondo capitolo è
dedicato a una breve storia dell’evoluzione della performace live nel settore della musica elettronica
e ad un ulteriore approfondimento sulle questioni relative alla pratica della performance prevalenti
nel settore del live electronics, con esempi tratti dal repertorio. Il terzo capitolo si focalizza
sopratutto sulle tecniche di interazione utilizzate nel live electronics e vengono esaminati gli
approcci specifici per l'integrazione della scrittura strumentale per pianoforte con live electronics. I
risultati sono riassunti nelle conclusioni.

1.1 Elettronica "Live"


L’utilizzo dell'elettronica in combinazione con strumenti dal vivo ha permesso due principali vie di
sviluppo della performance live: la possibilità di suonare lo strumento con una traccia audio pre-
registrata, oppure l'elaborazione della fonte strumentale e l'attivazione di suoni live in tempo reale.
Suonare con supporti fissi (con quello che una volta era il nastro, e che oggi è sostituito anche da
tracce audio su CD o disco rigido del computer o su altri supporti quali lettori di mp3 ecc.) richiede
che il musicista esegua la sua parte insieme alla traccia pre-registrata, che può contenere sonorità
acustiche, suono sintetizzato, o campionato e modificato. Questo set-up crea una performance che è
molto diversa da quella della tradizionale musica elettronica dal vivo. Mentre la sincronizzazione
della parte strumentale/acustica/suonata può essere più o meno rigorosa in lavori con supporto fisso,
la parte di nastro rimane sempre la stessa in tutte le esibizioni. È importante notare che l'elettronica
dal vivo dà al compositore e al performer un'opportunità di fuga dalla potenziale rigidità della
stretta sincronizzazione tra parte eseguita e nastro pre-registrato, e di avere sullo stesso piano sia
l’elettronica che le parti strumentali del brano, e tutte queste possono suonare in modo diverso e
variare in ogni singola performance.
I primi usi dell'elettronica live hanno implementato nella tradizione dell’esibizione musicale dal
vivo l’amplificazione e la trasformazione in tempo reale del suono proveniente da fonti acustiche
con apparecchiature analogiche.
L'elaborazione del suono in tempo reale viene oggi eseguita quasi sempre digitalmente attraverso
una patch creata ad hoc con software come Max/MSP, attualmente uno degli ambienti software di
programmazione per computer più popolare per costruire programmi in ambito musicale e non.
In queste patch compositive i compositori hanno anche la possibilità di includere elaborazioni del
suono offline o pre-registrate in studio, oltre a quelle live, così l'esecutore è in grado di
sincronizzare, comunicare e interagire con il computer con un dispositivo hardware esterno come un
controller MIDI, per andare a controllare ulteriormente parametri del suono quali dinamica, altezza,
tempo e timbro.

1.2 Repertorio
Il repertorio scelto per questo progetto è stato selezionato sulla base dei seguenti criteri: al valore
dell’integrazione tra pianoforte ed elettronica; alla tecnologia utilizzata (che deve avere qualità di
fattibilità e portabilità almeno); ai problemi di sincronizzazione relativi al controllo dell’interazione
e dell'elaborazione fra strumento acustico e elaboratore; disponibilità del compositore per
rispondere a quesiti e approfondimenti.
Il primo punto è forse il più complicato dal punto di vista filosofico e richiedeva che il repertorio
fosse giudicato dal punto di vista musicale. La tecnologia ha fatto rapidi progressi negli ultimi anni
e i musicisti sono spesso alla ricerca di nuove ed entusiasmanti sonorità. Le opere scelte per questo
progetto portano l'ascoltatore oltre l'innovazione tecnologica e gli effetti speciali e sono tutte
composizioni musicalmente interessanti.
Mentre molti pezzi soddisfano i requisiti del primo punto e sono elencati nella lista del repertorio
nell'Appendice, molti sono stati scartati a causa dei requisiti tecnologici quasi obsoleti, un grosso
problema nelle performance della musica elettronica oggi. A causa del rapido invecchiamento della
tecnologia, gran parte del repertorio elettronico dal vivo “classico” e persino relativamente recente è
praticamente impossibile da eseguire oggi. Questo problema è particolarmente diffuso nelle opere
che richiedono un hardware esterno, sia commerciale che personalizzato. In molti casi è possibile
riprodurre l’hardware esterno (analogico o digitale che sia) utilizzato in opere meno recenti
attraverso una patch software. Tuttavia, trasferire il repertorio elettronico in formati più convenienti,
trasportabili, reperibili ecc… è un compito problematico e dispendioso in termini di tempo e non è
contemplato in questo mio progetto.
Anche il terzo punto, ovvero quelli che sono i problemi di sincronizzazione, si è dimostrato
prezioso nella selezione del repertorio. Molti dei pezzi che ho preso in considerazione richiedono un
set-up complicato e quindi li ho dovuti scartare per motivi pratici, ma sono elencati nell'appendice.
Infine, la disponibilità dei compositori a rispondere alle domande, tramite comunicazione e-mail o
di persona, e fornire registrazioni o versioni aggiornate delle patch software richieste per le
prestazioni, è stata un'altra importante considerazione per la selezione. Mentre tradizionalmente
l'esecutore è ritenuto responsabile del risultato finale, lavorare sul repertorio recente con
l'elettronica live può spesso richiedere spiegazioni, assistenza o collaborazione da parte del
compositore, oltre al supporto tecnico di un esperto che supervisionerà l'elaborazione e controllerà
la proiezione del suono in tempo reale durante la performance.
Lo schema di discussione per ciascuno dei pezzi è il seguente:
1. Informazioni generali sul brano e sull’autore
2. Manipolazioni del suono tramite dispositivi elettronici (live e non)
3. Modalità di sincronizzazione tra esecutore e computer.

HISTORICAL OVERVIEW // INTRO CAP 1


The Human Presence.
È decisamente importante coinvolgere esecutori umani anche nella performance musicale
elettronica, perché il pubblico dei concerti è abituato all’esecuzione tradizionale di strumenti
acustici e la componente visiva rimane una parte importante dell'esperienza di performance, perché
aumenta la percezione del senso di liveness, e quindi instaura un rapporto di dialogo fra l’esecutore
e il pubblico, che ne osserva con curiosità le movenze.
La varietà e la spontaneità sono due attributi fondamentali per una performance live, da sempre, e i
compositori di musica elettronica si sono posti spesso il problema di come fare esibire l’esecutore
nelle situazioni concertistiche, sopratutto quando l’interazione fra strumento ed esecutore diventa
poco visibile al pubblico (come nel caso di un laptoppista). Performances mobili, potenziali errori,
ed esecuzioni “sensibili” possono aggiungere intensità alla performance dal vivo altrimenti
mancante alla rigidità e impassibilità della riproduzioni di nastri o tracce pre-registrate o al
movimento del mouse…
Il modello di presentazione originale per la musica elettroacustica acusmatica è la riproduzione da
altoparlanti in un contesto acustico senza artisti visibili. La diffusione del suono dal vivo può essere
considerato un elemento di performance in queste situazioni: il compositore o un altro musicista è
quindi incaricato di proiettare il suono attraverso gli altoparlanti nello spazio del concerto tramite un
mixer. Ci sono anche altri modi per incorporare le esecuzioni dal vivo con dispositivi elettronici: il
più logico è coinvolgere altri interpreti umani come ballerini, musicisti o membri del pubblico in
una combinazione di solisti o di “attori” che collaborino alla resa emozionale del suono elettronico,
che sia presentato su supporto fisso, o meglio, in un ambiente interattivo. I concetti tradizionali di
tecnica e virtuosismo possono essere incorporati in queste situazioni introducendo uno strumentista
che si esibisca su uno strumento da concerto esistente, creando uno strumento aumentato, esteso con
dispositivi e tecniche di musica elettronica.
The Art of Performance: una breve storia
Uno dei primi esempi di presentazione di strumenti dal vivo e suono elettronico su nastro insieme
possono essere trovati in Musica su Due Dimensioni per flauto, percussioni e nastro pre-registrato
di Bruno Maderna, composto nel 1952. Questo pezzo ha segnato un importante punto di partenza,
ed è stato seguito da altre importanti opere come Deserts di Edgard Varese, per orchestra e nastro
(1954), Kontakte di Karlheinz Stockhausen, per pianoforte, percussioni e nastro e Transicion II di
Mauricio Kagel, per pianoforte, percussioni e due registratori.
Transicion II è un esempio di ciò che è possiamo chiamare live electronics degli albori, perchè la
manipolazione elettronica viene eseguita in tempo reale. In questo pezzo, il materiale viene
registrato e riprodotto durante la performance. Nella sua forma iniziale, la musica elettronica dal
vivo spesso presentava suoni amplificati di strumenti o oggetti che altrimenti non sarebbero stati
ascoltati in una sala da concerto. Nei primi lavori elettronici dal vivo di John Cage ci sono ottimi
spunti di sperimentazione in questo senso: in Water Music utilizza gli oggetti più impensabili (come
fischietti, acqua, una radio, un mazzo di carte), affiancati a un pianoforte semi preparato, in
Cartridge Music vari oggetti vengono inseriti nei pick-up fonografici usando microfoni a contatto.
Gli anni '60 furono ulteriormente testimoni dello sviluppo di queste nuove tecniche di
sperimentazione, con l’elaborazione elettronica in tempo reale del suono che si affianca
all’amplificazione. Alcuni esempi sono Mikrophonie I di Stockhausen per amplificatore ed tamtam,
Mikrophonie II per dodici cantanti, organo Hammond e ring modulator e Mantra di 75 minuti per
due pianoforti e ring modulator. Quest'ultimo rappresenta un eccellente esempio di integrazione tra
virtuosismo della scrittura strumentale tradizionale pianistica e ricerca del suono aumentato e
dell'elaborazione dal vivo senza interruzioni di continuità.
Contemporaneamente, la combinazione di strumenti con nastro pre-registrato ha continuato ad
espandersi, con il contributo di importanti compositori d'avanguardia tra cui Luciano Berio e Luigi
Nono, la cui ...sofferte onde serene… per pianoforte e nastro rimane una delle opere meglio riuscite
in questo genere. Scritto per il pianista Maurizio Pollini, questo brano utilizza suoni di pianoforte
pre-registrati in combinazione con la performance del pianista, ed è un esempio di sincronizzazione
efficace tra il nastro e lo strumento.
Un esempio di un altro lavoro per pianoforte è quello di Jonathan Harvey, Tombeau de Messiaen. In
questo lavoro, il suono del pianoforte registrato in precedenza è modificato e sintonizzato sulla serie
armonica naturale, e crea scontri timbrici interessanti quando eseguito simultaneamente con un
pianoforte dal vivo sintonizzato su un temperamento equo.
Questo è un esempio di sincronizzazione rigorosa dovuta al fatto che gran parte del materiale per
pianoforte e nastro è in stretto accordo ritmico. Un simile un esempio di sincronizzazione rigorosa
in un lavoro di pianoforte può essere trovato in Chute-Parachute di Michel Gonneville. Entrambi
questi pezzi creano l’illusione che l’elaborazione elettronica sia dal vivo tramite la sincronizzazione
esatta del piano suonato con il suono riprodotto dal nastro e consente ai compositori di sfuggire alla
forzatura del temperamento equabile del pianoforte. Per il pianista, ottenere questi effetti timbrici
richiede molte ore di pratica, perché oltre a imparare le note della parte strumentale deve
familiarizzare con la parte elettronica. È possibile immaginare che lavori simili possano essere
eseguiti tramite un ambiente elettronico live con il supporto del computer che registra in automatico
le azioni del pianista e risponde istantaneamente, semplificando significativamente la
sincronizzazione e introducendo maggiori opportunità per la libertà ritmica ed espressiva.
Con l'avvento del microprocessore a metà degli anni '70, la modifica del suono real time inizia ad
essere eseguita tramite computer o altri dispositivi che hanno possibilità più sofisticate
nell'elaborazione del segnale. Molte innovazioni tecnologiche e artistiche nel campo della computer
music e in particolare nel live electronics, hanno avuto luogo durante gli anni '80. Tod Machover
inventò strumenti aumentati modellati su strumenti tradizionali al MIT nel 1986, scrivendo anche
lavori come Begin Again Again per hypercello (1991), scritto per Yo-Yo Ma. Il compositore scrive:
L'hypercello consente al violoncellista di controllare una vasta gamma di suoni attraverso la
sfumatura delle prestazioni. Tecniche speciali (misura del polso, pressione, sensori di posizione,
analisi ed elaborazione del suono diretto) consentono al computer di misurare, valutare e rispondere
a molti aspetti della esecuzione. Questa risposta è usato in diversi modi in diversi momenti del
pezzo: a volte il suono del violoncellista controlla le trasformazioni elettroniche dirette sul suo
suono; altre volte l'interrelazione è più indiretta e misteriosa. L'intero mondo del suono è concepito
come un estensione del solista {non come dicotomia, ma come nuovo tipo di strumento.
Durante gli anni '80, l'IRCAM (Institut de Recherche et Coordination Acoustique / Musique)
divenne un importante centro di sviluppo della musica elettronica a Parigi. Il sistema informatico
4X sviluppato presso l’IRCAM permetteva una elaborazione del segnale digitale abbastanza
innovativa per l’epoca, in tempo reale, ed è stato utilizzato per creare diverse opere tra cui Repons
di Pierre Boulez per ensemble da camera ed elettronica in cui i suoni strumentali vengono elaborati
e spazializzati in tempo reale e Jupiter per flauto e 4X di Philippe Manoury. Jupiter è stato
implementato anche nel software Max/MSP sviluppato da Miller Puckette e consente al flautista la
possibilità di cambiare tempo durante il pezzo mentre il computer risponde a tempo. Oggi,
Max/MSP in combinazione con il computer ha sostituito sistemi costosi, rimamendo un importante
e diffuso ambiente di programmazione. Un altro software interattivo diffuso e utilizzato fino a
qualche decennio fa in opere elettroacustiche è il Kyma, sviluppato da Carla Scaletti e Kurt Hebel
nel 1990.
Oltre a utilizzare il computer con uno strumento esistente o ad aumentare strumenti con sensori per
trasformarli in iper-strumenti, gli artisti possono interagire e controllare la sintesi del suono del
computer gestualmente utilizzando Digital Musical Instruments (DMI). Questi strumenti sono
costituiti da un’interfaccia di controllo e dal motore di sintesi del suono sul computer, non
necessariamente assomigliano agli strumenti tradizionali, nonostante il fatto che possano richiedere
all'esecutore di usare le sue abilità motorie e/o musicali.

2.3 Prassi di prestazione


In questa fase è importante esaminare le varie preoccupazioni relative alla pratica della performance
che sono presenti nella musica elettronica. Attualmente, è disponibile una notevole quantità di
letteratura sul confronto tra sistemi cosiddetti fissi e interattivi, nonché sui vantaggi e svantaggi di
ciascun modello di performance.
Da questi resoconti risulta chiaro che i sistemi interattivi offrono diversi vantaggi all’esecutore, tra i
quali la garanzia di essere riproducibili variando nel tempo e riducendo i problemi di
sincronizzazione degli eventi musicali acustici ed elettronici fornendo un buon controllo
all’esecutore. Esibirsi con nastro o una traccia pre-registrata è stato spesso criticato come
inesplicativo, insensibile e inflessibile alle fluttuazioni del ritmo di un musicista, per colpa della
necessaria e stretta sincronizzare temporale di eventi sonori segnati al dettaglio anche in
millisecondi. Un esecutore si può sentire impotente, subordinato a un tempo prefissato su un
supporto, può perdere quindi espressività e interpretazione quando suona con il nastro in situazioni
di concerto.
Preoccupazioni simili sono espresse dalla flautista Elizabeth McNutt, che paragona l'esecuzione con
il nastro a lavorare con il peggiore accompagnatore umano immaginabile: sconsiderato,
inesplicabile, insensibile e completamente sordo.
Il clarinettista Gerard F. Errante lamenta che non c'è vera interazione tra l'esecutore dal vivo e la
parte elettronica su supporto fisso. Una soluzione per la sincronizzazione tra esecutore e nastro è
usare le cuffie con una traccia di click per dare all'esecutore il tempo, ma è paragonabile
all'esperienza di esibirsi con un metronomo rigoroso senza lasciare spazio all'addetto per adattarsi
all'acustica della sala.
Nonostante queste preoccupazioni, diversi musicisti hanno espresso opinioni in difesa del supporto
fisso. Mario Davidovsky, il compositore dei Sincronismi, sostiene che è possibile compensare
l'intrinseca inesauribilità del nastro componendo un pezzo in modo tale da consentire la libertà
dell'esecutore in determinati passaggi. Allo stesso tempo, l'esecutore può contare sugli aspetti
ritmici costanti che saranno uguali in ogni spettacolo. Il compositore Marco Stroppa afferma che a
condizione che un pezzo non insista troppo sui suoi limiti, l'associazione tra un esecutore e un
nastro pre-registrato può essere naturale e musicale come quella tra un musicista con altri.
Il pianista Shiau-uen Ding contribuisce al dibattito offrendo le seguenti osservazioni: la musica per
strumento e nastro è stata accusata di essere meccanica, non spontanea e antiquata, molte persone
trascurano la ricca varietà di musicalità inerente alle opere interattive per strumenti e nastri acustici
dal vivo. Con gli strumenti acustici come "elemento vivo", la musica per le performance strumentali
e il nastro possono offrire lo stesso grado di interazione tra l’esecutore e il pubblico, contribuendo
all'emozione della sua performance.
Oltre a questa spaccatura tra le preferenze personali di compositori e interpreti, ci sono ulteriori
complicazioni poste dalle difficoltà uniche di apprendimento che non si trovano nella pratica
tradizionale delle esibizioni. L'equilibrio sonoro e l'amplificazione sono spesso affrontati in modo
superficiale a causa della quasi impossibilità di provare a lungo con il sistema audio specifico usato
in concerto. L'importanza di dedicare abbastanza tempo alla prova generale per trovare un livello di
riproduzione appropriato e la collocazione ottimale degli altoparlanti sono spesso sottolineate dagli
artisti di musica elettronica. È fondamentale avere una persona tra il pubblico durante le prove
generali per trovare un giusto equilibrio tra gli elementi elettronici e quelli acustici, oltre ad
ascoltare l'elemento elettronico nello spazio del concerto. Trovare la giusta angolazione per
l'altoparlante del monitor può essere abbastanza determinante per il successo di una performance.
Anche la presenza di microfoni utilizzati per l'amplificazione può creare problematiche, alterando
notevolmente la percezione e la reazione del suono del musicista. Rumori personali come la
respirazione dell’esecutore e i rumori di disturbo diventano amplificati ed esposti, mentre microfoni
e cavi possono cambiare l'equilibrio di uno strumento e impedire il movimento del performer. Può
essere difficile unire elementi strumentali ed elettronici nelle performance anche a livello estetico:
poiché il suono strumentale di solito rimane ancorato psicologicamente alla fonte, possono esserci
complicazioni nel combinare i due mondi sonori.
Anche l’ascolto della parte elettronica da parte del performer durante il processo di apprendimento è
un problema importante, in particolare se è necessaria una sincronizzazione. Nel caso di lavori con
supporti fissi, le prove potrebbero richiedere all'interprete di suddividere il materiale elettronico in
frammenti più piccoli o di rallentarlo per esercitarsi, così per aiutare a memorizzare l'elemento pre-
registrato e sentire come se l'esecutore stesse anche suonando la parte del nastro. La suddivisione
del materiale pre-registrato in sezioni più piccole è un modo possibile per introdurre un elemento di
interazione in un pezzo di supporto fisso. Nel caso di un brano (per strumenti acustici ed
elettronica) intermezzato con silenzi tra le sue sezioni che hanno attacchi coordinati, le sezioni di
attacco possono essere attivate dall'esecutore con l'uso di un dispositivo esterno come un controller
MIDI, per semplificare la sincronizzazione dei due ambienti (acustico ed elettronico).
Anche senza una sincronizzazione rigida, l'esecutore dovrebbe avere molta familiarità con il mondo
sonoro della parte elettronica in cui lo strumento deve essere immerso. Questo è importante per
questioni di fraseggio, tempismo, equilibrio dinamico, articolazione e proiezione, che possono
cambiare drasticamente. I problemi possono sorgere se l'esecutore non è in grado di poter ascoltare
la parte definitiva di elettronica prima dell’eventuale performance dal vivo, come purtroppo accade
spesso a causa di difficoltà tecniche o all’incapacità del compositore di completarla in tempo. Detto
questo, sia l’elettronica su nastro che quella programmata ed interattiva hanno alcuni vantaggi e
svantaggi sia per l'esecutore che per il compositore, spesso dipendenti dalle preferenze personali di
questo o quell’autore ed esecutore. In entrambi i casi, tuttavia, l'esecutore dovrebbe considerare il
suono elettronico alla pari del suono strumentale e approcciare l'apprendimento della parte
elettronica allo stesso modo dell'apprendimento della parte orchestrale di un concerto o delle parti
dei suoi colleghi di musica da camera.