Sei sulla pagina 1di 7

 IL Live Electronics consente all’esecutore tradizionale di interagire, mediante il mezzo

elettronico, sull’esecuzione in tempo reale, perciò la sua immediata trasformazione diventa


base della composizione. – (Vidolin, 1999)
 Il Live Electronics è l’insieme delle apparecchiature che, in “tempo reale“, permettono
di manipolari suoni di origine acustica od elettronica; il Live Electronics, in quanto agisce
in tempo reale sulla manipolazione, può essere considerato “strumento musicale”, mentre
le apparecchiature in tempo differito sono associate agli “strumenti compositivi”. –
(Bernardini, 1986)
 https://en.wikipedia.org/wiki/Electronic_ music Musica Elettronica è il termine con

il quale viene indicata la musica prodotta con mezzi elettronici o elettromeccanici; con

mezzi elettronici indichiamo gli strumenti che dipendono interamente da circuiti per la

produzione sonora, invece gli elettromeccanici hanno l’aggiunta di parti meccaniche, come

potrebbero essere le corde della chitarra. Da queste ultime definizioni nascono le sotto

categorie degli strumenti elettronici ed elettroacustici. La musica Elettronica ha il proprio

sviluppo correlato all’evoluzione delle tecnologie musicali stesse, agli inizi del 1900 gli

strumenti elettronici erano “invenzioni dimostrative”, usate per suonare musica per

strumenti acustici; si trattava principalmente di rudimentali sintetizzatori, anche si il

Telharmonium riproduce strumenti orchestrali con una precisione notevole per l’epoca. I

primi esperimenti furono molto apprezzati, soprattutto per la capacità di espansione

timbrica maggiore data dalla possibilità dell’uso della micro-tonalità, tanto che Busoni

predisse il futuro della musica elettronica nel suo “ Sketch of a New Esthetic of Music”. Il

grande passo si ha intorno al 1930, quando strumenti come il Theremin fanno il loro

ingresso nella sfera musicale; erano strumenti dotati di dimensioni ragionevoli e il

trasporto, la vendita e l’utilizzo era molto più comodo rispetto alle prime macchine come

il Telharmonium. Ma cosa permette questo? Il “tubo a vuoto”, correttamente chiamata

“valvola termoionica”, o semplicemente “valvola”. Se il Theremin rappresenta un balzo in

avanti per la musica elettronica, potremmo paragonare il nastro magnetico all’Enterprise.

Esperimenti sulla registrazione erano già stati svolti tramite l’utilizzo del fonografo, nei
quali venivano soprapposte registrazioni di strumenti e voci a velocità regolate, ma con il

nastro magnetico le possibilità furono ampliate ed espanse in maniera esponenziale. Per

quanto si attribuisce ad Halim El-Dabh la prima composizione di musica su nastro, con

“The Expression of Zaar”, sarà il noto Schaeffer con la musica concreta che porterà

l’Enterprise in orbita; i suoi iniziali lavori, come “Cinq ètude de bruits”, la collaborazione

con Pierre Herry crearono delle solidissime basi per lo sviluppo, sempre più emergente, di

tutto il mondo della musica elettronica. Negli ultimi anni del 1950, la creazione del

“CSIRAC”, primo Computer capace di riprodurre musica, ed il “Rca – Mark II”, primo

sintetizzatore programmabile, uniti ai precedenti traguardi nonché ad un aumento di

accessibilità per le tecnologie come i sintetizzatori, faranno in modo che il 1960 inizi con

una fertilità nel campo della musica elettronica, non solo senza eguali, ma in costante e

progressivo aumento.

 https://it.wikipedia.org/wiki/Live_electronics Il Live Electronics può essere

focalizzato, come inizio, intorno al 1960, anche se già nel ’50 opere come “ Désert” di

Varèse, accostando strumenti acustici a strumenti elettronici portano una nuova dialettica

all’interno dell’esecuzione musicale. Se vogliamo dare un reale motivo al perché bisogna

aspettare il 1960 per l’avvento del Live Electronics, possiamo trovarlo all’evoluzione delle

tecnologie elettroacustiche, difatti fu’ agli inizi del 1960 che troviamo la nascita delle

prime tecnologie che consentono la manipolazione dal vivo di sorgenti sonore catturate da

microfoni. Per definizione il Live Electronics prevede la manipolazione in tempo reale di

materiale sonoro catturato da strumenti acustici e/o da strumenti elettronici, di

conseguenza in questo ambiente abbiamo due figure principali, “l’esecutore pratico” e

“l’esecutore tecnico”. L’esecutore/i pratico/i, come si evince dal nome stesso si occupano

di eseguire, mentre un esecutore tecnico si occupa di come manipolare ciò che viene

eseguito. Questo crea la nascita di un concetto totalmente nuovo all’interno del panorama

musicale, poiché i connubi usuali di compositore/interprete, strumento/interprete ed


interprete/pubblico vengono completamente rivalutati. Nel Live Electronics, nonostante

abbiamo un interprete “classico”, c’è da notare che la modifica in tempo reale del

materiale sonoro è essa stessa “composizione”, ma ciò che apporta la modifica è esso

stesso “strumento” non ché “interprete”. Sostanzialmente il Live Electronics è una nuova

forma di espressione, filosoficamente parlando, è il modo con il quale un artista trova il

modo di comunicare un qualche cosa, e ciò lo fa’ con una pratica recente e in continua

evoluzione; la dodecafonia la chiamiamo così oggi, ma a Darmstadt, Schoenberg non

parlava certo di Dodecafonia. Per quanto riguarda il campo della musica elettronica e della

computer music non si può non nominare il programma della Cycling ’74, ovvero

Max/Msp, un ambiente di programmazione grafico, interattivo e configurabile; basti

pensare alla possibilità di generare sintesi sonore in tempo reale da cui decidere le dovute

modifiche.

 http://www.csounds.com/community/computermusichistory/ Alla fine degli anni ’50,

Max Mathews cominciò a sperimentare come manipolare il suono tramite il computer, e da

queste prove nacque “MUSIC4”; quest’ultimo era in grado di manipolare il suono tramite

il computer. Contemporaneamente a Mathews, Hiller stava conducendo i suoi esperimenti

sul computer, ma non per modificare un suono, bensì stava dimostrando come fosse

possibile che il computer riuscisse a comporre “se gli veniva insegnato”. I lavori di Hiller

si basavano sull’uso degli algoritmi in ambito compositivo, in modo tale da creare delle

sequenze di istruzioni da dare al computer in modo da consentirgli di scrivere una

composizione; da questi principali lavori nasce “ Illiac Suite” per quartetto d’archi, la

prima opera di composizione assistita da computer grazie a degli algoritmi. Fino agli anni

del ’70 la maggior parte di lavori e scoperte in campo della musica elettronica erano svolte

e si incentravano oltre oceano, l’Europa ancora contava di molti più scettici che curiosi;

bisogna aspettare che Risset e Boulez decidano di dar una sferzata allo scetticismo

europeo, così nel 1976 riuscirono a fondare IRCAM, un centro di studi scientifici della
musica unico al mondo, ad oggi il più importante. L’IRCAM nasceva come “luogo di

incontro e ricerca” per musicisti e scienziati, i quali lavoravano con esperienze, punti di

vista e bagagli curriculari diversi su un unico argomento, la musica in ogni suo aspetto;

l’istituto inoltre era, ed è, il centro più prestigioso e dotato per la computer music. Un

altro importante nome da ricordare è di certo Chowing e probabilmente la Yamaha

concorderà con noi. Chowing sperimentò la modulazione in frequenza (FM), scoperta

molto interessante ed eccitante, ma non tanto compresa all’epoca, soprattutto per la

complessità dei calcoli che la rendevano “incomprensibile” ai produttori e di conseguenza

all’ipotetica messa in opera e vendita, per tutti tranne appunto per Yamaha. Quest’ultima

fu’ l’unica azienda che volle provare a implementare l’FM all’interno dei loro

sintetizzatori e dopo ben 7 anni, trasformarono l’algoritmico software in chip e nasce il

famoso DX-7. Visto l’aumentare della produzione di apparecchi elettroacustici, calcolando

anche le varie case produttrici, ci si è posti il problema di come era possibile far

comunicare i nuovi strumenti fra di loro; un gruppo di musicisti, in accordo con le più

grandi case produttrici, concepirono un’interfaccia digitale per strumenti musicali che

fosse “unica”, ed ecco il MIDI (1983); il MIDI però si dimostrò molto di più che una mera

interfaccia, o meglio, non è di certo solo questo. Attraverso il MIDI era possibile non solo

gestire e controllare più di uno strumento digitale, era possibile farlo da un computer, era

possibile registrare ciò che veniva suonato, ed era anche possibile poi modificarlo, dando

determinati parametri agli strumenti. Con il MIDI e i nuovi sviluppi in campo informatico

furono creati molti programmi utili per comporre e far musica, tra questi il più importante

di tutti è MAX, un ambiente di programmazione grafica che permette, anche senza un

linguaggio di programmazione forbito, di creare dispositivi e routine output MIDI. MIDI e

computer si stavano rilevando un’accoppiata molto più che vincente, le potenzialità che

stavano venendo fuori, ben oltre il mero interfacciamento tra strumentazioni elettroniche e

computer, stavano lanciando la musica elettronica nel 2000 molto proficuamente.


 http://www.tadream.net/articles/historyofem/history. pdf Per dovute ragioni la musica
elettronica trova le sue radici nella prima metà del 1900, anche se in realtà presenta radici
anche più profonde; difatti la musica elettronica, concettualmente parlando, trova il
proprio germoglio già nel 1800 inoltrato. In quel periodo il noto Helmoltz presenta, nel
“Sensations of tone”, un apparato in grado attraverso vibrazioni elettromagnetiche, denti
metallici e sfere metalliche, o di vetro, di analizzare le parti che formano la complessità di
un suono continuo puro; in altre parole effettua un’Analisi di Fourrier in tempo reale. Se
è possibile “trascrivere” il comportamento di una vibrazione sonora tramite
l’elettromagnetismo, sarà possibile fare il processo inverso, così nascono i primi
esperimenti in merito; ad esempio, un disco metallico rotante, usato per variare un segnale
elettrico tramite un campo magnetico, al fine di produrre un determinato tono, è la base
del funzionamento del Telharmonium.
 http://artsites.ucsc.edu/EMS/Music/equipment/computers/history/history.html La
Computer Music ha le sue origini collegate al nome di Max Mathews ed al suo “MUSIC”
del 1960, il primo software musicale che era in grado di produrre un minuto di musica
dopo un’ora di calcoli! Sempre più musicisti e scienziati si sono avvicinati al mondo della
musica elettronica e per/da computer, creando i primi “ gruppi di ricerca” che studiavano
nuovi modi di applicazioni per le ricerche effettuate e perpetrare le stesse nel tempo per
altri studi e ricerche; nel tempo questi interessi furono abbracciati anche dal mondo
accademico, così facendo nascono i primi centri di ricerca in importanti Università come
al M.I.T., nell’Università dell’Illinois, o la nascita di centri di ricerca appositi come il
fondamentale Isititute de Recherche et Coordination Acoustic Music a Parigi. Nonostante i
risultati notevoli e i “grandi passi” in avanti di questo periodo, la Computer Music era
ancora marginale come fenomeno, purtroppo la difficoltà all’accesso di un computer e la
difficoltà nella programmazione, rispetto ai risultati ottenuti, portavano a preferire
l’utilizzo dei nuovi emergenti sintetizzatori. Una delle esigenze adesso era quella di poter
“programmare” un sintetizzatore al fine di poter determinare un dato comportamento,
questo porta il già noto Mathews a ideare il GROOVE, un programma in grado di
registrare le azioni svolte su un sintetizzatore e successivamente modificarle e riprodurle
sulla stessa macchina; il nuovo emergente mercato, di sintetizzatori e di computer, propose
un altro importante quesito, come rendere “unico” il linguaggio? Arrivati agli inizi 1980 le
case di produzione di questi sintetizzatori erano in crescita, come anche svariati modelli e
sorgeva il problema che alcuni software potevano comunicar con una data macchina, ma
non tutte. Si decise così di creare un linguaggio unico, in modo da standardizzare il modo
di impartire, o leggere, i parametri tra sintetizzatori e computer e viceversa, nasce così il
MIDI nel 1983.
 https://www.kabulmagazine.com/wp-content/uploads/2019/07/
KABULmagazine_percorsi-paralleli-elettricita%CC%80-e-musica.pdf Analizzando la
Storia della Musica in maniera abbastanza lata, possiamo denotare come le tappe che
creano il percorso evolutivo della Musica sono le stesse che scandiscono l’evoluzione
della società; infatti la musica elettronica, così come la conosciamo oggi, è il frutto di
scoperte e studi a cominciare già dalla fine del 1800. Analizzando il periodo storico e le
scoperte concernenti lo studio dell’elettricità, è possibile denotare quanto l’inizio del
precedente paragrafo sia veritiero; adesso focalizziamo le tre prime importanti invenzioni
in campo musicale, ovvero, Il risuonatore di Helmoltz, Il fonografo ed il Grammofono.
Musica e futurismo non possono che essere accoppiati ai fratelli Russolo e il loro “Intona
rumori”, uno strumento capace di generare rumori con determinati parametri al fine di far
musica; dai loro studi ed esperimenti, anche con l’utilizzo dei primi registratori a nastro, si
andò a creare terreno fertile per il futuro. Compositori come Varèse e Schaeffer
dimostrarono grande interesse per il registratore a nastro arrivando a dar vita ad un
movimento che oggi conosciamo come la “musica concreta”.
 https://120years.net/wordpress/ L’Ondes-Martenot nasce poco dopo il theremin e
in altrettanto breve tempo lo soppianta. Lo strumento di Martenot aveva molto in comune
con quello di Termen per quanto riguarda la produzione del suono, ma “un’interfaccia”
diversa lo resero molto più popolare. L’Onde-Martenot, a differenza del Theremin, aveva
una tastiera per interagire con la produzione sonora ed un controllo a strisce per generare
glissati e vibrati. Lo strumento aveva a disposizione anche un certo numero di diffusori, ed
ogni uno di loro aveva proprietà fisiche diverse per arricchire e colorare il suono in modi
diversi. 1 Nel 1938 lo strumento arriverà anche ad avere un’intonazione micro-tonale.
Marck I della RCA è stato il primo sintetizzatore programmabile nella storia. Il progetto
era volto alla generazione automatica di “hit” partendo dall’analisi di un gran numero di
registrazioni, con il concetto alla base ché, “ trovando il segreto del successo, per crearne
altro”; questo ha anche creato un parallelo studio su come era possibile automatizzare pure
il processo di arrangiamento utilizzando suoni generati elettricamente, in modo da passare
dalla partitura al disco senza dover utilizzare costose sessioni orchestrali. Il Marck I, delle
dimensioni di un’intera stanza, era un computer analogico, dove l’unico input era

1
Riportando qualche esempio, abbiamo: il Principal tradizionale e abbasta grande; il Résonance che
ricreava un riverbero meccanico utilizzando molle; il Palme che si presentava a forma di Lira, le corde
servivano per la produzione di vibrazione simpatiche.
rappresentato da una tastiera dalla quale l’operatore ritrascriveva, in codice binario, la
partitura. La tastiera andava a perforare un rullo di carta, dove il sintetizzatore andava a
leggere la colonna di informazioni, poiché il rullo possedeva quattro colonne in cui
inserire i vari parametri si un singolo suono. Con la versione aggiornata, per l’appunto il
Marck II, vennero aggiunti filtri, glissandi, vibrati, risonanze, ecc., arrivando a milioni di
possibili impostazioni.
 https://www.thenewnoise.it/circuiti-dallo-studio-di-fonologia-al-live-electronics/
 https://it.scribd.com/document/239446179/Voice-and-Live-Electronics-An-historical-
perspective#download

Potrebbero piacerti anche