Sei sulla pagina 1di 10

Suono, media e tecnologie: percorsi in divenire

Il suono tecnologico I processi di sintesi e di modificazione digitale del suono, oggi realizzabili con comuni sistemi informatici, se da una parte hanno indiscutibilmente messo a disposizione di tutti strumenti applicativi e soluzioni fino a qualche anno fa assai dispendiosi in termini di tempo ed economie, hanno soprattutto stimolato una radicale trasformazione della natura del sapere, generando nuove categorie di pensiero in merito ai processi relativi all'uso del materiale sonoro. La storia del rapporto tra suono e media del resto anche la storia della sua riproducibilit tecnica, della possibilit di progettare e riprodurre in un contesto tecnologico specifico il processo creativo. Le implicazioni del suono con laltro da s, con il suo manifestarsi evento performativo, sono indubbiamente condizionate, fin dal processo ideativo iniziale, dalle caratteristiche e dai limiti presenti nelle possibilit di progettazione, riproduzione e gestione tecnologica del suonosegnale, in funzione anche delle modalit in cui la comunicazione si manifesta. Pensiamo ad esempio al rapporto tra suono, parola e rumore che agli inizi del Novecento ispir il movimento artistico davanguardia del Futurismo e ai nuovi oggetti strumentali che ne derivarono. Fra questi vi erano macchine che Luigi Russolo, tra i fondatori del movimento, defin intonarumori, azionate da manovelle, leve e bottoni, e i cui sistemi meccanici producevano rumori di varia natura o generavano vibrazioni utilizzando corrente a bassa tensione prodotta da semplici accumulatori. La rinnovata formulazione del pensiero creativo stimolava la realizzazione di sistemi tecnologici funzionali a unemancipazione del suono-rumore, in contrapposizione allestetica accademica della musica e del teatro di tradizione1. Al contrario, il thelarmonium, creato agli inizi del 900 dallavvocato americano Thaddeus Cahill, era costituito da numerosi generatori di corrente alternata, interruttori e resistenze, utili a produrre il suono, ma era costretto, in assenza dellaltoparlante non ancora in uso, a ricorrere alla trasmissione via telefono, problematica e per questo poco funzionale in termini di resa. Fu l'espansione della radio negli anni seguenti a fornire un nuovo impulso alla ricerca e alla sperimentazione audio. Alla met degli anni Venti Milhaud realizza esperimenti di trasformazione della voce mediante variazione di velocit nella rotazione dei dischi, mentre intorno al 1930 Hindemith e Toch, nel laboratorio radiofonico della Hochschule f r Musik di Berlino, producono composizioni-studi (studie) utilizzando tecniche fonografiche che vanno dal taglio e dissolvenza alle variazioni del numero di giri del disco, alle ripetizioni ottenute mediante registrazione su dischi con solchi chiusi (metodo antesignano della moderna tecnica di loop), tecniche del resto utilizzate anche oltreoceano da John Cage, alla fine degli anni Trenta (Imaginary Landscape n.1). Dallo sfruttamento della valvola elettronica fu invece possibile generare delle frequenze elettriche modulabili: possibilit utilizzate per la produzione sonora generata da nuovi strumenti come il thereminvox o come il trautonium, che fu prodotto in serie dalla Telefunken nel 1932 e usato anche in ambito cinematografico per generare effetti di sound design per l'audio di alcuni film (tra gli altri, anche il celebre Gli uccelli di Hitchcock del 1963) (J.Chadabe, 1997) 2. Lavvento del sonoro nel cinema aveva da poco sostituito il commento musicale dal vivo del cinema muto, focalizzando lattenzione comunicativa sulla parola e fornendo anche spazio, pur nella stretta banda del suono ottico cinematografico di quegli anni, alla presenza dellelemento rumoristico come aspetto rilevante nella definizione dellambiente sonoro. La tendenza fu presto annichilita a met degli anni Trenta dal ritorno a una rinnovata ridondanza nella presenza di accompagnamento musicale, che nemmeno la tecnica del Dolby, diffusasi nella
1

Per un ascolto degli archivi sonori del futurismo suggerisco "Futurismo Musicale", CD prodotti dall'etichetta Fonoteca, Roma a cura di D.Lombardi e A.Latanza. Si tratta di un'interessante raccolta di documenti sonori tratti da varie fonti storiche, con dichiarazioni degli stessi artefici del movimento e numerosi esempi sonori in cui si fa uso di intonarumori. 2 Il theremin sfrutta la possibilit di controllare la generazione del suono agendo su un campo elettromagnetico di un'antenna tramite il movimento delle due mani, senza quindi nessun contatto diretto con l'oggetto. Lo strumento, precursore dei moderni sensori di controllo interattivi, vanta una lunga storia e veri e propri esecutori-virtuosi che ad esso hanno dedicato la propria carriera (tra tutti citiamo la famosa Clara Rockmore). Oggi il theremin sta avendo un forte ritorno di popolarit, e non raro trovarlo tra i dispositivi presenti nei set dei musicisti e degli artisti elettronici non accademici.

met degli anni Settanta, con le possibilit offerte dalla pluralit di piste utilizzabili e dalla larga banda passante, riuscita sostanzialmente a cambiare (M.Chion, 1990). Nel cinema ci che realmente importante ancora oggi rispetto alla percezione sonora lattenzione verso il parlato: lesigenza di una puntuale intelligibilit nei dialoghi si impone su tutto ci che resta dellambiente sonoro. Levoluzione riguardo al concetto audio si quindi sostanzialmente indirizzata verso la ricerca di una miglior definizione qualitativa del segnale piuttosto che verso un suo pi specifico impiego creativo, meno che mai di natura sperimentale. Lesperienza analogica Nel processo di sviluppo tecnologico, furono un mezzo e un metodo di lavoro a cambiare radicalmente lapproccio alla gestione creativa del suono: da un lato la registrazione elettromagnetica su nastro (le prime dimostrazioni del magnetofono risalgono al 1935 a opera dell'industria tedesca AEG) e dall'altro la tecnica a essa collegata del montaggio, in pratica il processo di taglio, rielaborazione e missaggio del segnale audio registrato su nastro magnetico. Nel processo analogico il segnale elettrico che rappresenta il suono si muove infatti in analogia allo spostamento della pressione dellaria che caratterizza il fenomeno fisico, orientando le particelle elettromagnetiche presenti sul nastro; nel processo di rilettura del nastro la disposizione delle stesse generer una variazione di segnale elettrico che sar trasmessa all'amplificatore e ai diffusori audio incaricati di ricreare meccanicamente la variazione di pressione dell'aria generatrice del suono. Seguendo una prassi spesso comune nel mondo delle tecnologie applicate allarte, almeno fino a pochi anni fa, le iniziali sperimentazioni furono sviluppate in quei centri di ricerca che potevano disporre di strumenti e supporti adeguati, in quegli anni sostanzialmente le radio nazionali europee e le universit doltre oceano3. E a queste esperienze che dobbiamo riferirci nel tentativo di tracciare una ricostruzione storica, anche perch solo sulla base delle spinte esplorative accademiche si resa possibile una conseguente produzione commerciale di musica tecnologica, la quale, preoccupandosi di utilizzare secondo logiche di mercato le soluzioni sperimentali prodotte dai centri di ricerca, sostanzialmente al fine di produrre dei surrogati strumentali predisposti all'uso, non ha certo contribuito a incrementare lo sviluppo di una cosciente consapevolezza nell'uso del materiale sonoro. In Francia, sorretto anche dal sostegno ottenuto dalla Radiodiffusion Tlvision Franaise che forn mezzi tecnici e finanziari adeguati, nacque il Groupe de Recherches de Musique Concrte (1951) di cui Pierre Schaeffer rappresent lesponente di riferimento. Introduction la musique concrte (datato 1949 e pubblicato sulla rivista "Poliphonie" nel 1950) e, pi compiutamente, A la recherche d'une musique concrte del 19524 costituiscono i primi documenti attestanti le ricerche e le formulazioni dell'estetica di Schaeffer. Particolarmente importante l'attenzione che rivolge all'evento musicale nella sua singolarit (objet musical), concetto dal quale in seguito svilupp, in collaborazione con il fisico acustico Andr Moles, un sistema di classificazione e caratterizzazione degli eventi sonori, formalizzato in seguito nel Trait des objets musicaux del 19665. Il materiale sonoro della musica concreta, formato da elementi preesistenti mutuati da qualsiasi suono, rumore o musica tradizionale che fosse, rappresentava una sezione acustica del mondo, un invito all'esplorazione della materia nella sua fisicit, nel tentativo di fornire nuove possibilit di approccio consapevole al suono. Ogni tentativo di trasferire la musica concreta dalla sua funzione di commento radiofonico o scenico agli spazi strettamente destinati alla musica dest tuttavia un'accesa ostilit, tanto da far erroneamente considerare a taluni lesperienza della musica concreta come una manifestazione storica di transizione, primo passo di una logica evolutiva che si perfezioner in seguito, fondendosi con i processi messi in essere all'interno dei nascenti laboratori di musica elettronica europei (Lanza, 1991). In Italia, lo Studio di Fonologia Musicale della RAI di Milano, in cui operarono fin dalla sua fondazione i compositori
3

Personalmente, credo che oggi gli stimoli pi interessanti di incontro tra tecnologia e sperimentazione sonora non siano pi circoscritti ai laboratori e alle aule delle "accademie" ma vivano in territori altri della comunicazione, legati alla club culture e al teatro tecnologico, agli spazi performativi digitali di confine, incontrando il video digitale, il corpo e lo spazio in una pratica esperienziale tipica del nostro tempo. 4 SCHAEFFER P. A la recherche d'une musique concrte, Seuil, Parigi, 1952. 5 SCHAEFFER P. Trait des objets musicaux, Seuil, Parigi, 1966 e la recente raccolta di interventi AA.VV., Our, entendre, couter, comprendre aprs Schaeffer, Paris, Buchet/Chastel-INA/GRM, 1999.

Luciano Berio e Bruno Maderna, ospit la creazione di numerose produzioni audio originali a opera di artisti provenienti da tutto il mondo, con una particolare attenzione verso quei prodotti che risultavano funzionali al mezzo radiofonico. La radio costituiva infatti un nuovo ambito di committenza e di sperimentazione sonora, un medium da potenziare ed esplorare e in cui far convergere suoni, voci e rumori come in Ritratto di citt (1954) o Visage (1961) di Berio, Notturno (1956) di Maderna, Fontana Mix (1958) di Cage6. In Visage, un brano per nastro magnetico in cui la voce del soprano Cathy Berberian, miscelata a suoni elettronici generati presso lo Studio di Fonologia di Milano, esplora la grammatica generativa del suonolinguaggio, lo stesso Berio ricorda, nelle note di copertina del disco prodotto dall'etichetta Turnabout (1966), la natura radiofonica del lavoro, una sorta di colonna sonora per una "drammaturgia" mai scritta, basato sul simbolismo sonoro profondo delle generazioni vocaliche, sui riferimenti emozionali e sulle tendenze associative che a esse si ricollegano. La linguistica e la semiotica orientano il suo pensiero creativo (vedi il rapporto di collaborazione professionale che ha legato Berio a Umberto Eco): fonemi e prosodia che si sviluppano in una sorta di narrazione del processo di costruzione del linguaggio e della comunicazione emozionale, ruotanti attorno al ritorno puntuale della parola-chiave "parole" che allude ogni volta a diverse accezioni semantiche e comunicative. Le esperienze degli studi elettronici contribuirono a valorizzare la complessa articolazione morfologica del suono, espandendone le potenzialit anche in virt delle analisi sul suono e delle conseguenti manipolazioni elettroacustiche (filtraggio, missaggio, ripetizione) che da esse derivavano (J.Chadabe, 1997). Senza dubbio la valorizzazione della materia sonora in quanto spettro dinamico formato, in altre parole, dallinsieme di zone d'energia dotate di morfologia propria che definiscono e caratterizzano levento sonoro, ha aperto in seguito un quadro di relazione pi attento e percettivamente pi consapevole rispetto allutilizzo del materiale. Il suono non viene considerato nella sua staticit, cristallizzandolo in un'analisi che ne definisce staticamente i parametri caratterizzanti, ma nella sua mutevole complessit, investigando in quella ricca morfologia dinamica che lo accompagna dalla sua produzione alla sua estinsione. Questa rinnovata attenzione, questa volont di esplorare i meccanismi profondi che regolano il fenomeno sonoro trover inoltre un forte supporto teorico nei risultati acquisiti dagli studi delle scienze cognitive e psicopercettive e dalla linguistica 7. Le analisi sui meccanismi di strutturazione del suono si collegano a questi studi incontrandosi su terreni comuni in cui poter formalizzare i processi di sviluppo della ricerca. La peculiarit della musica su nastro imponeva comunque una necessaria riflessione anche sulle sue modalit di diffusione all'interno dell'evento performativo. La possibilit di movimento del suono nello spazio, di considerare cio la plasticit insita nel suono non solo come movimento direzionale ma anche come ipotesi di collocazione-frammentazione delle sue componenti energetiche in una virtuale griglia spaziale tridimensionale, spinse alla ricerca di soluzioni originali nella dislocazione dei diffusori audio in situazioni live (ricordiamo la multidiffusione spaziale in sala del Gesang der Jnglinge di Stockhausen del 1956 o lesperienza negli anni Settanta di Bayle con il suo Acousmonium, una scenografica architettura di numerosi diffusori, allestiti per realizzare plastiche morfologie sonore durante le performance esecutive). Il tape aveva inoltre rappresentato fin dagli anni Cinquanta un supporto utile alla gestione dell'audio in situazioni performative, favorendo anche la realizzazione di allestimenti in cui prevedere la compresenza di proiezioni, luci e azione scenica (Pome Electronique di Edgar Varse del 1958, e negli stessi anni il progetto Rainforest di David Tudor), stimolando al contempo formule funzionali alla gestione di processi di sincretismo creativo tra i vari mezzi. Fu per soltanto con lo sviluppo computazionale degli anni '70 che la ricerca sulla spazializzazione del suono pot giovarsi di uno strumento di controllo efficace per la definizione puntuale del movimento nello spazio e la relativa dislocazione dei diffusori, permettendo parallelamente di stabilire una corretta simulazione
6

La BBC inglese promosse nel 1958 l'iniziativa The Radiofonic Workshop in cui creare suoni per la radio e la televisione, tra cui i celebri effetti sonori della serie televisiva Doctor Who. In Svezia, presso gli studi della Radio di Stoccolma si ricercavano invece nuove formulazioni di rapporto tra suono e parola, definite dal termine text-sound composition, vera e propria sorta di arte sonora sviluppatasi fino ai nostri giorni (Chadabe, 1997). 7 SLOBODA J. A. The Musical Mind. The Cognitive Psychology of music, Oxford, Oxford University Press, 1985; trad. it. La mente musicale. Psicologia cognitivista della musica, Bologna, Societ editrice Il Mulino, 1988. CHOMSKY N. Syntactic structures, The Hague, Mouton; trad. it. Le strutture della sintassi, Bari, Laterza, 1970.

degli effetti psicoacustici necessari al processo di localizzazione del suono nello spazio. Negli stessi anni, presso i laboratori Dolby si sviluppavano i nuovi sistemi di diffusione "surround" che agli inizi degli anni Ottanta porteranno alla diffusione della tecnologia Dolby Surround, evolutasi fino all'attuale configurazione a sei canali (5.1), definita come Dolby Digital. Ancora oggi, comunque, il vero problema della diffusione spaziale del suono risiede nella difficolt di prevedere le dinamiche legate alla percezione del movimento in uno specifico contesto non standardizzato, a differenza dei cinema forniti del sistema di riproduzione surround. Il movimento del suono non un concetto applicabile indipendentemente dallo spazio performativo in cui agiamo, dalla dislocazione relativa dei diffusori e dall'individuazione dei punti di ascolto. In altre parole, pi facile parlare di spazializzazione in ambito cinematografico, in cui possibile strutturare situazioni uniformi di diffusione-ascolto, piuttosto che in ambiti prettamente multimediali in cui, senza un'accurata progettazione in funzione del contesto specifico, si corre il rischio di produrre una multidiffusione non ottimale in termini di resa. Nellimmediato dopoguerra, la spinta data da una rinnovata volont di riformulazione radicale del linguaggio musicale trov un forte supporto tecnologico, e potremmo dire anche "ideologico", nellutilizzo sistematico degli oscillatori analogici presenti nei nascenti centri di ricerca elettronici europei. Era il periodo da taluni definito come anno zero, in cui il compositore Pierre Boulez dichiarava in un celebre saggio la morte di Schnberg, come volont di liberarsi da quello che veniva considerato come un ultimo retaggio della tradizione8. Il suono elettronico, originale per sua stessa natura e nella sua assoluta valenza virtuale, costituiva la "tabula rasa" da cui partire nella progettazione del proprio contesto creativo, un suono definito e strutturato in ogni sua componente fin dal pensiero che lo genera, secondo le regole imposte dall'imperante logica strutturalista (Lanza, 1991). Questa ambizione autoreferenziale era del resto contemporanea allo sviluppo dei primi linguaggi meccanici e costituisce la base teorica della scienza e della teoria dellautomazione. Non a caso molte delle nascenti produzioni sonore della prima avanguardia elettronica ebbero come modelli formali gli automatismi astratti di queste nuove elaborazioni scientifiche, e in seguito troveranno nella futura disciplina dellinformatica un terreno comune cui riconnettersi. Il suono elettronico rappresentava quindi loggetto funzionale, il materiale perfetto su cui poter esercitare il controllo razionale e pervasivo tipico dello strutturalismo. Tuttavia, si capir ben presto che pi accurata e totalizzante la strutturazione del processo, pi alto sar il rischio di livellamento nel risultato, come maggiore sar la tendenza entropica del sistema. I processi legati alla percezione e alla teoria dellinformazione ci insegnano che quanto pi rendo densa e complessa l'informazione tanto pi si complica la comunicazione e l'orientamento percettivo, avvicinandomi al collasso del sistema. La volont di controllare rigidamente ogni parametro del suono secondo logiche concettuali prestabilite caratterizz lo strutturalismo di quegli anni e condusse a un vicolo cieco comunicativo da cui si pens di uscire legittimando in seguito la presenza del caso e dell'alea controllata all'interno del processo creativo. Rispetto alla prassi, la logica operativa degli studi di musica elettronica consisteva nellutilizzo di circuiti elettronici modulari ai quali associare una funzione definita (ad esempio, un oscillatore-generatore variabile nel tempo in tensione). I circuiti realizzati erano inoltre messi in collegamento tra loro per mezzo di connessioni via cavo, originando spesso configurazioni inestricabili e molto pittoresche. Intervenendo poi sui controlli manuali relativi a ciascun modulo si modificavano i parametri che plasmavano la natura del suono prodotto. Ogni modulo quindi limplementazione di una funzione necessaria a produrre unazione sul segnale elettrico generatore di suono (Tarabella, 1992). Nell'estate del 1952 Bruno Maderna fa eseguire a Darmstad il suo Musica su due dimensioni per flauto e nastro magnetico. Il brano presentato come il primo lavoro in cui uno strumento interagisce con l'universo sonoro generato elettronicamente. Maderna apre una nuova strada, una nuova prospettiva. La tecnologia si compenetra con i suoni strumentali reali, le due dimensioni si incontrano, regolate dai meccanismi della percezione e da quellaltrimenti indicibile che, come diceva Webern, soltanto con i suoni si pu dire. La tecnologia, lintervento modificativo sul suono, torna a essere strumento di unidea musicale, di una prassi compositiva pi consona ai processi propri del fare musica e soprattutto ai meccanismi naturali della percezione sensoriale e dellestetica. Una
8 BOULEZ P. raccolto in Relevs d'apprenti, Seuil, Parigi, 1966; trad. it. Note di apprendistato, Torino, Einaudi, 1968.

tensione soggettiva cio in cui il risultato finale non rigidamente deducibile dallapplicazione delle premesse teorico-formali. Il processo di strutturazione formale e lutilizzo delle tecnologie non possono fare a meno di considerare indispensabile il rapporto con i meccanismi esperienziali, cognitivi e percettivi. Negli anni Sessanta l'elettronica cominci ad affacciarsi anche nei territori della musica commerciale. Sono gli anni del sintetizzatore Moog (dal nome del suo costruttore, lamericano Robert Moog), con cui era possibile generare elettronicamente suoni virtuali (sintetizzare), utilizzando una tastiera musicale in collegamento con i moduli generatori del suono. Lo strumento fu molto apprezzato dallindustria della musica e prodotto massicciamente in una versione pi orientata allutente, dotata di cursori e bottoni che sostituivano le poco pratiche connessioni via cavo (Minimoog). Lo strumento popol i set audio di numerose produzioni (ricordiamo Keith Emerson degli Emerson, Lake and Palmer, con i suoi coltelli piantati tra i tasti a formare grappoli di note tenute, oppure artisti del calibro di Stevie Wonder, Pink Floyd, Herbie Hancock, Brian Eno). Fino agli anni 80, data in cui la produzione fu conclusa, furono venduti pi di 12.000 sintetizzatori in tutto il mondo. Da quel momento strumenti analoghi servirono a creare nuovi suoni virtuali e la loro vendita continu invariata nel tempo (Chadabe, 1997). Altre case produttrici crearono propri modelli dotati di sempre pi sofisticate tecniche di sintesi, in linea con le esigenze del mercato -come la sintesi in modulazione di frequenza (FM) con cui alla fine degli anni Settanta fu prodotta tutta la serie dei sintetizzatori DX della Yamaha-, le stesse esigenze e tendenze che oggi spingono verso il ritorno sulla scena delle tastiere vintage e delle loro specifiche sonorit old-fashion. La generazione del digitale La vera trasformazione, anche in termini di pensiero, si ha per con lavvento del digitale e con lutilizzazione del computer come gestore dellintero processo di produzione sonora. Se il modulo sonoro del circuito elettronico presente sugli strumenti analogici offriva in sostanza limplementazione di un modello matematico utile a produrre il processo generativo del suono, si pens che lavorare con sequenze di numeri digitali e programmi di elaborazione, sfruttando le potenzialit di calcolo e di memoria dei nuovi mezzi informatici, potesse sostituire "virtualmente" il modulo stesso e permettere di ricreare il processo generativo sonoro producendolo direttamente dal calcolatore. Le strutture musicali, scritte al computer con specifici linguaggi di programmazione, sostituirono quindi i circuiti modulari elettronici con il vantaggio di una migliore stabilit nel funzionamento, una duplicazione e riproduzione virtualmente infinita degli algoritmi generativi e garantendo sostanzialmente una pi versatile e potente possibilit di progettazione e definizione nei processi di sintesi del suono (Tarabella, 1992). Furono le stesse possibilit che intravide Max Mathews alla fine degli anni 50 nei Laboratori Bell di Murray Hill, New Jersey. Giovane ricercatore incaricato di sviluppare studi sulle applicazioni digitali per la telefonia, Mathews coltivava paralleli interessi musicali ed estese le sue ricerche alla possibilit di sviluppare il processo necessario a generare e controllare frequenze audio operando nel passaggio dal dominio analogico al dominio digitale del computer. Compilando al computer la scrittura funzionale al processo di generazione sonora, per mezzo di un linguaggio di programmazione dedicato, si poteva generare in teoria qualunque suono. Le tecnologie informatiche disponibili in quegli anni non garantivano tuttavia ancora la possibilit di poter generare allistante il suono sintetizzato (tempo reale): fu necessario quindi sviluppare una tecnica sequenziale in cui occorreva sintetizzare il suono, immagazzinarlo sul supporto digitale e poi rileggerlo successivamente mantenendo intatti i rapporti di temporizzazione e continuit del processo generativo (tempo differito). Ancora una volta i limiti del sistema tecnologico condizionarono e orientarono lesplorazione del mezzo e le possibili applicazioni pratiche che ne derivarono. Si ebbero quindi, a partire da quegli anni, tutta una serie di programmi software (come la serie denominata Music, culminata alla fine degli anni 60 con il programma Music V), con i quali produrre la sintesi digitale diretta del suono, fino ad arrivare ai giorni nostri con il programma Csound, sviluppato in linguaggio C dal Media Lab del MIT (Massachussets Institute of Technology), universalmente considerabile come il software di riferimento per chiunque lavori nellambito della produzione sonora in sintesi digitale diretta (anche perch stiamo parlando di un software freeware e multipiattaforma). Utilizzando per la creazione del suono codici operativi predefiniti dal

programma, possibile scrivere l'algoritmo di generazione sonora e la sua partitura di esecuzione direttamente su files di testo, operando in digitale e con un controllo assoluto nella definizione dell'intero processo. Le prospettive operative rese possibili dallelaboratore hanno sbito coinvolto tutti gli aspetti del processo produttivo sonoro. Dagli iniziali tentativi in cui si utilizzava il mezzo per generare partiture da far eseguire in seguito agli strumentisti (Hiller e Isaacson) o in cui produrre esecuzioni virtuali in cui i parametri di frequenza e durata rappresentavano gli unici aspetti sostanziali di variazione del suono, si arriv, soprattutto quando le possibilit del mezzo lo resero possibile, a concepire una forma di intervento digitale pi profonda, che investigasse la complessit del suono-materia, la sua struttura interna, la morfologia che lo definisce. Il suono esplorato nei suoi aspetti spettromorfologici, nelle sue dinamiche evolutive, portava alla luce nuove costanti risorse, consapevolezze e stimoli per ulteriori sviluppi estetici (basti pensare alla produzione del pensiero spettromorfologico di Denis Smalley o allesperienza di sincretismo tra video e suono elettronico di Woody e Steina Vasulka). Esplorare il suono significava, per dirla con Wronsky, svelare lintelligenza presente nel suono. Alla fine degli anni 70, il progredire della tecnologia computazionale, con i nuovi calcolatori dotati di pi efficienti microprocessori e hard-disk capienti, ha garantito risorse necessarie ai sempre pi complessi processi di sintesi e di elaborazione del suono. Furono istituiti centri specializzati come lIRCAM (Institut de Recherche et Coordination Acoustique Musique) di Parigi, fortemente voluto dal compositore Pierre Boulez, per il quale furono messi a disposizione finanziamenti e strutture adeguate alla ricerca e alla produzione musicale tecnologica. Si affermano personalit di riferimento, ognuno con peculiarit operative interessanti nellottica dello sviluppo del settore. Nel 1971 il francese Jean Claude Risset a Marsiglia a capo del Dipartimento di Musica del Centro Universitario di Marseille-Luminy, dove prosegue la sua ricerca di sintesi timbrica computerizzata; dopo una esperienza allIRCAM, nel 1985 al CNRS (Centre National de la Recherche Scientifique) per lavorare nel Laboratoire de Mcanique et d'Acoustique. La ricerca di Risset si caratterizza nel panorama elettroacustico contemporaneo per l'uso del computer come strumento d'indagine e di manipolazione sonora. Dal processo di analisi del suono si traggono le indicazioni che orienteranno l'intervento di processamento digitale, operata con una mutazione morfologica dinamica tra i suoni (morphing) o con tecniche che sottolineano le caratteristiche e i limiti della percezione uditiva (illusioni percettive) 9. Il suo interesse si concentrato per anni sui meccanismi di interazione tra strumenti acustici, voce e suoni generati al computer, favorendo, con l'intervento delle tecniche di trattamento del suono, processi di interrelazione tra il mondo fisico e quello "virtuale". E' una sorta d'intervento sull'identit sonora dello strumento acustico a opera del processo di elaborazione che "forza" la struttura morfologica del materiale e la compenetra, mantenendo sempre costantemente presenti i riferimenti ai processi della percezione e della comunicazione. In Passages, lavoro per flauto e nastro magnetico del 198210, Risset gi nel titolo allude ai differenti passaggi sonori del nastro che il flauto attraversa durante il suo percorso strumentale: flussi di un incontro tra due mondi sonori, quello del flauto, tipizzato ma mobile, e quello dell'elaboratore, duttile ma fisso nel riprodurre il materiale preregistrato; glissandi rumoristici, la cui distribuzione spettrale simula la conduzione dei fenomeni di turbolenza, suoni fluidi con componenti di rumore (entrambi componenti fondamentali, nella simulazione morfologica del flauto), esplorazione di armonici virtuali che si fondono con i sottili ricami acuti dei whistle tones del flauto, fino ad arrivare, nel finale, a trasfigurare le relazioni e la percezione sonora in un continuo e fluido morphing tra voce, suono strumentale e suono virtuale. La stessa attenzione sottintende il lavoro del compositore-musicologo neozelandese Denis Smalley, gi nei primi anni '70 al GRM di Parigi, e successivamente in altri studi di Francia, Inghilterra, Finlandia e Canada. Per Smalley le caratteristiche spettrali del suono
9

Con la tecnica del morphing intendiamo il processo di trasformazione che intercorre tra due suoni considerati come punto di partenza e di arrivo di un processo in cui gradualmente il suono originario acquista le caratteristiche sonore del suono di arrivo. E come nelle esperienze percettive visive, anche la percezione uditiva ha limiti e caratteristiche tali da consentire interventi in cui generare illusioni percettive o alterazioni del processo di riconoscimento del suono, oscillando tra reale e virtuale. 10 La dizione "nastro magnetico" si estesa, dopo il periodo di utilizzo del nastro analogico, anche al supporto digitale per definire il prodotto attraverso il quale viene diffuso l'audio preregistrato. L'uso del calcolatore si rende pi ottimale invece nella riproduzione di interazione, in cui sono necessari sincroni di attivazione e di modulabile relazione con l'azione che si sviluppa nel contesto specifico, evitando la immutabile fissit sequenziale del supporto preregistrato.

assumono fondamentale importanza, sia come base per la formulazione di una tipologia d'analisi elettroacustica che consenta di definire un lessico relativo agli oggetti sonori e alla loro strutturazione (analisi spettro-morfologica), sia per un criterio di orientamento per il proprio agire compositivo: caratteristiche e strutturazioni morfologiche sulle quali Smalley lavora e "sperimenta", applicando tecniche di signal processing modificative che gli permettono di ottenere un materiale spesso dotato di una nuova qualit spettro-morfologica, pur mantenendo tracce della originaria struttura spettrale. Resta comunque fondamentale, anche per Smalley, l'importanza di filtrare il proprio processo operativo con un approccio al suono e alla composizione in cui sia sempre presente una attitudine estetica cosciente (da lui stesso definita electro-acoustic sensibility), indipendentemente dalla tecnologia e dalle implicazioni speculative messe in gioco (Smalley, 1986, 1996). I risultati della ricerca furono considerati sufficientemente interessanti anche dagli ambiti musicali non accademici, e i grandi colossi produttori di strumenti musicali cominciarono ben presto a produrre una serie di strumenti tecnologici digitali dedicati alla musica: le nuove tecnologie disponibili potevano far prevedere un incremento sensibile nelle vendite. Gli strumenti elettronici uscirono cos dai centri di ricerca e furono immessi nel circuito della produzione musicale commerciale, alimentando nuove contaminazioni elettroniche e favorendo il proliferare delle azioni performative in cui utilizzare i nuovi dispositivi tecnologici. Ai gi presenti sintetizzatori elettronici si affiancarono drum machines digitali per riprodurre ritmiche sintetizzate, strumenti non eccessivamente costosi, trasportabili, relativamente semplici da usare e orientati al facile utilizzo pratico. Il problema fu, ovviamente, la conseguente tendenza alla standardizzazione nei processi creativi ed estetici. Non solo si avevano a disposizione circoscritte possibilit di soluzioni a causa delle limitate tecniche di sintesi definite in sede di progetto e installate su ogni particolare dispositivo, ma anche luso che ne deriv si risolse molto spesso in una sistematica selezione dei soli presets forniti dallo stesso strumento. Lo strumento migliore diventava quindi quello che aveva i suoni di serie pi originali e stimolanti al momento della sua uscita sul mercato, suoni che venivano tuttavia sistematicamente bruciati come novit dai grandi della musica commerciale, che primi tra tutti potevano permettersi di testare e utilizzare i nuovi strumenti.11 La stessa industria cap presto come fosse necessario ideare una forma di comunicazione tra i vari strumenti elettronici, per garantire una proliferazione senza rischi delle proprie attivit di vendita. Occorreva trovare un terreno comune, un linguaggio che garantisse lo scambio di informazioni, il dialogo necessario a favorire la compresenza simultanea dei dispositivi tecnologici in sede performativa (basti pensare alla difficolt nel gestire le torri di sintetizzatori, immagine tipica di certa iconografia del rock). Agli inizi degli anni Ottanta le aziende organizzarono quindi una piattaforma comune da cui fu redatto un nuovo standard di comunicazione tra gli strumenti digitali, che prese il nome di MIDI (Musical Instrument Digital Interface). Le specifiche di questo nuovo standard crearono una vera e propria rivoluzione nella produzione di strumenti elettronici: era finalmente possibile far comunicare strumenti elettronici, anche di marche diverse tra loro, semplicemente inviando ordini digitali di esecuzione. La caratteristica principale del MIDI di non veicolare segnale audio (operazione che richiederebbe un pesante impiego del sistema), ma messaggi esecutivi sottoforma di leggere stringhe di byte: definire digitalmente un suono, nella sua dinamica complessit, richiede una massiccia quantit di dati informativi, a differenza del dato MIDI che risulta invece molto pi leggero poich non veicola suono ma solo ordini esecutivi, favorendo cos lo scambio digitale dei dati tra i vari strumenti. Lordine esecutivo prodotto da uno strumento (definito nella catena MIDI come master) viene semplicemente eseguito dal dispositivo ricevente (slave) con il suono che in esso risiede. Lutilizzo del MIDI non si esaur inoltre nellesecuzione remota di eventi nota (nota-on), anche in termini di esecuzione differita di sequenze preregistrate per mezzo di strumenti dedicati (sequencer), ma fu molto importante come linguaggio di controllo per il sincronismo tra i vari dispositivi, garantendo la coesistenza nei vari set audio di drum machines, sequencers, expanders digitali (sintetizzatori senza tastiera, progettati per "suonare" con i timbri propri della macchina l'ordine esecutivo ricevuto dal dispositivo MIDI esterno), ma si rese utile anche nel sincronismo
11

Il problema di avere per ogni strumento soltanto la tecnica di sintesi progettata e implementata all'origine, ha spinto recentemente le case produttrici di strumenti musicali, minacciate anche dallo sviluppo dei soft-synth digitali, a investire nello sviluppo dei cosiddetti mainframe audio, oggetti in grado di variare la tecnica di sintesi implementata oppure mutarsi in processori di effetti o campionatori (di cui parleremo pi avanti), semplicemente caricando sulla macchina lo specifico programma di gestione.

con il supporto video12. Negli anni Ottanta lelettronica entrava nel cuore della musica commerciale e sempre pi spesso, non solo in studio ma anche nelle esecuzioni dal vivo, le parti strumentali venivano affidate all'esecuzione di strumenti virtuali. Le tecniche di sintesi evolvevano inoltre verso soluzioni sempre pi precise e funzionali, come la modellazione fisica in cui piuttosto che sintetizzare il risultato si progettava un algoritmo di riproduzione virtuale del sistema fisico generatore del suono (tubi sonori, corde, piastre percosse). Tuttavia, controllare e avere padronanza delle tecniche di sintesi presenti sui dispositivi elettronici, soprattutto nel tentativo di simulare i suoni degli strumenti tradizionali, non costituiva un compito facile per lutente medio. Una alternativa, che con il tempo fin col risultare vincente, fu data dalla tecnica del campionamento, ovvero lacquisizione in digitale del segnale audio e la sua successiva gestione di utilizzo al pari di un comune preset timbrico. Alla fine degli anni Ottanta i campionatori, dopo una iniziale difficolt dovuta anche all'elevato prezzo di acquisto, s'imposero sul mercato come tastiere caratterizzate dalla loro versatilit. Con i campionatori era ormai possibile riprodurre qualunque campione sonoro e "suonarlo" a differenti altezze in frequenza, con una versatilit limitata solo dalla potenza del sistema utilizzato. I suoni del mondo reale (anche rumoristico) entrarono quindi a far parte del lessico sonoro elettronico, simulatori virtuali di una realt strumentale ma anche stimolo per una rinnovata creativit sonora in cui, ancora una volta, lelemento materico, loggetto sonoro concreto, tornava a essere suscettibile di interesse estetico13. Suono e interazione La reale possibilit di gestire la comunicazione tra dispositivi digitali, unita al costante potenziamento delle capacit di elaborazione del computer, ha stimolato il processo di rivalutazione del concetto d'interazione in live electronics, contribuendo anche a rafforzare lo sviluppo nella progettazione di interfacce sonore sempre pi adeguate. A sostegno delle pi concrete opportunit di modificazione real time del materiale, si sono infatti sviluppate nuove forme di controllo e interazione sonora utilizzabili nelle pi diverse situazioni performative. Progettare dispositivi di interfaccia dedicati, creare il proprio personale set audio e stabilire un controllo di gestione performativa del sistema, anche in rapporto alla compresenza di media diversi, rappresenta un desiderio che lo stato dellarte tecnologica pu oggi soddisfare, utilizzando le nuove risorse digitali disponibili. Dai primi trigger analogici con cui controllare lattivazione o il sincronismo tra le macchine si passati negli anni Ottanta ai dispositivi analog to MIDI trigger, per convertire segnali elettrici prodotti da sensori in corrispondenti dati MIDI con i quali controllare i parametri del proprio sistema audio (Chadabe, 1997). Indubbiamente lo standard MIDI ha costituito, per la grammatica e la relativa facilit di gestione, un linguaggio ideale su cui sviluppare gran parte dei processi d'interazione tra i dispositivi tecnologici. La tecnologia di rilevamento utilizzata solitamente di tipo sensoristico analogico (infrarossi, rilevatori di pressione o di prossimit..) o si acquisisce da un processo di digitalizzazione video, da cui trarre una conseguente mappatura di riferimento per la gestione del processo di controllo interattivo: in relazione all'immagine digitalizzata si definisce uno spazio di azione e si considera la variazione di un elemento al suo interno (movimento, luminosit, colore..) come variazione di controllo di un relativo parametro del sistema audio (modificazione della altezza, della dinamica..). La grammatica di controllo si riduce sostanzialmente ad una attivazione on-off o alla variazione continua di un parametro entro limiti predeterminati. In definitiva, allattivazione del sensore accade qualcosa oppure alla variazione dinamica di tale valore del sensore corrisponde una correlata variazione del relativo parametro di controllo del sistema. Come detto, per la codifica delle informazioni acquisite, il MIDI costituisce un terreno comune cui ricondurre i processi di elaborazione e gestione necessari al controllo desiderato. I dati prodotti dai sensori elettronici sono trasformati in messaggi MIDI e gestiti dal sistema (ad esempio un computer dotato di interfaccia MIDI-USB:
12

Il protocollo SMPTE il codice per la sincronizzazione audio/video ed implementa al suo interno un MIDI Time Code che consente all' SMPTE di essere rappresentato sotto forma di messaggi MIDI direttamente interpretabili da sequencer hardware e software. 13 Un libro interessante nella sua libera e visionaria esplorazione dei mondi sonori del nostro tempo TOOP D. Oceano di suono- Discorsi eterei, ambient sound e mondi immaginari Ancona-Milano, Costa e Nolan, 1999.

una interfaccia dotata di porte di ingresso e uscita MIDI e controllabile dal computer con un collegamento USB). Ma come organizzare il materiale allinterno del proprio mondo performativo? La gestione creativa di tali informazioni costituisce infatti il vero aspetto rilevante del processo tecnologico d'interazione. Innanzitutto, l'informazione acquisita come semplice variazione parametrica costituisce di per s materiale inutile nella gestione del processo di intervento sul suono, se non la si considera come elemento funzionale, agente su un predisposto algoritmo di trattamento ed elaborazione del segnale. Oltre alla formulazione di dispositivi originali di interazione stato quindi necessario realizzare applicazioni software che gestissero attraverso il computer le informazioni rilevate, inserendole allinterno della progettualit come attivatori di eventi o controllori parametrici. Occorre in pratica progettare un ambiente di lavoro allinterno del quale aprire delle porte che attivino la comunicazione d'interazione con lesterno. Questa logica ha uniformato lapproccio delle applicazioni sonore rispetto ai vari contesti performativi e mediatici della scena contemporanea: dalle installazioni multimediali al tecnoteatro interattivo, dalla computer art alla danza contemporanea tecnologica. Da software quali MAX/MSP della Cycling 74 (un software di programmazione ad oggetti per la gestione globale di situazioni interattive) allo stesso gi citato Csound del MIT, anchesso sempre pi orientato alla gestione interattiva in tempo reale, alle applicazioni dedicate alla danza e alla gestione dello spazio scenico realizzate allo STEIM di Amsterdam, tutti gestori di una realt sensibile e percettiva che mette in relazione suono e ambiente circostante14. Il rapporto tra suono e media, tra suono, percezione e linguaggi digitali presuppone comunque una consapevolezza non solo nelluso specialistico delle tecnologie o nella creazione sintetizzata del suono ma anche, e questo rappresenta la novit dellera digitale, nella gestione del rapporto produttivo tra linguaggi elettronici e forme di rappresentazione relative. I nuovi mezzi digitali impongono nuovi tipologie di relazione creativa, stimolano la definizione di un nuovo spazio performativo e di una esperienza percettiva di sincretismo che agisce sullo spazio-tempo, contribuendo a formare una nuova forma di rappresentazione che non pu non essere consapevole delle implicazioni messe in gioco (basti pensare a certa dance di tendenza, dove possiamo trovare sempre pi frequentemente dj-set in cui sono compresenti video-live interattivi e controller tecnologici di attivazione e gestione audio o alle esperienze che utilizzano gli sviluppi della tecnologia streaming in Rete). Il processo d'interazione induce a riflettere per, nella sua accezione pi complessa, sulla reale natura che lo stesso pu rivestire nei processi di costruzione ed attuazione performativa del progetto, particolarmente secondo un aspetto tipicamente percettivo-comunicativo. Il soggetto umano non va considerato agito ma agente, e partecipa con la propria azione alla definizione ultima del rappresentato, allo stesso modo per cui si parla oggi di "circolazione del sapere" resa possibile dall'attivit di enunciazione attraverso le diverse materie dell'espressione multimediale. Questa anche la motivazione del fallimento commerciale delle maggior parte delle esperienze legate al CD-rom come prodotto d'arte, in cui la presunta interazione finisce per essere una mera navigazione gestionale all'interno del prodotto pi o meno ben confezionato15. Parafrasando unaffermazione di Berio, in qualunque modo si voglia intendere lutilizzo performativo della tecnologia, non possiamo dimenticarci del dettaglio uomo e delle connessioni profonde che regolano la sua pratica esperienziale. Le tecnologie oggi offrono virtualmente la possibilit di scegliere autonomamente tra un'enorme possibilit di soluzioni, apparentemente senza limitazioni e senza alcun criterio trascendente di

14

Questo l'ambito in cui operano oggi le nuove produzioni creative di sincretismo digitale, in cui live video processing, live electronic music, technotheatre si compenetrano lavorando sulle matrici comuni del linguaggio elettronico (come per il gruppo spagnolo La Fura dels Baus o gli italiani XEAR-extended electronic arts). 15 Un esempio emblematico ci viene da Brian Eno, definito da A.Ludovico "il guru storico della musica elettronica" (A.LUDOVICO Suoni futuri digitali, Milano, Apogeo, 2000) e autore del "concept" CD-rom HeadCandy, che lo stesso Ludovico definisce come "uno dei pochi titoli che hanno nobilitato il genere" (ivi, id.). Purtroppo, lo stesso Eno considera testualmente anche questo lavoro "Orrendo. Tipica spazzatura CD-rom" (B.ENO Futuri impensabili, Firenze, Giunti, 1997). E in merito al rapporto d'interazione uomo-macchina, aggiunge in seguito "..c' una lunga storia di tentativi del genere. In linea di massima le connessioni tra te e il sistema sono cos banali che non sono interessanti da esplorare molto a lungo. Non c' sfumatura nel rapporto che puoi avere con l'oggetto. Sono tutte connessioni molto povere, come tutte le cose interattive" (ivi, id.). Pesante osservazione su cui meditare.

legittimazione del sapere. Ma cerchiamo di non dimenticare, come diceva Edgar Varse, che tutto quello che non sintesi di intelligenza e volont destinato a restare inorganico. Bibliografia CHION M. , L'audiovision. Son et imageau cinema, Editions Nathan, Parigi, 1990 (trad.it. L'audiovisione. Suono e immagine nel cinema, Lindau, Torino 2001). CHADABE J., Electric Sound. The Past and Promise of Electronic Music, Prentice-Hall, New Jersey, 1997. LANZA A., Il Secondo Novecento, Storia della Musica (a cura della Societ Italiana di Musicologia) vol. 12, E.D.T. Edizioni di Torino, Torino, 1991. SMALLEY D., "Spectro-morphology and Structuring Processes", in The Language of Electroacoustic Music (a cura di S. Emmerson), Macmillan, Londra, 1986. SMALLEY D., "La spettromorfologia: una spiegazione delle forme del suono", Musica/Realt 5051, 1996. TARABELLA L., Informatica e Musica, Gruppo Editoriale Jackson, Milano, 1992.