Sei sulla pagina 1di 8

Parole nell'aria. Sincretismi fra musica e altri linguaggi, ETS, Pisa, 2009, a c. di M. P.

Pozzato e
Lucio Spaziante

Andrea Valle

Corpofonie macchinali. Note sul “suonare un computer”

1. Note per una fenomenologia a lato enunciationis

A partire dagli anni '90 diventa computazionalmente possibile generare un segnale audio in tempo
reale attraverso una dotazione hardware che coincide con quella dell'home computing. Si assiste
perciò ad un pervasivo utilizzo dal vivo del calcolatore da parte di performers/artisti, di area
sperimentale ma anche pop/dance, e al di fuori di contesti, appunto più istituzionalizzati, quali
tradizionalmente i concerti di musica elettronica. È il laptop in particolare che si impone come
nuovo oggetto di scena, e la sua natura di oggetto unitario e conchiuso ne sottolinea
immediatamente la parentela con lo strumento tradizionale. Dunque, “suonare un computer/con un
computer”: lo “strumento” in questione ha tuttavia uno statuto peculiare, che sarà al centro delle
prossime pagine. Per indagarne le modalità d'uso, vale la pena di iniziare da una fenomenologia a
lato enunciationis. Come si vedrà, il problema è insieme testuale e prasseologico. Riguarda cioè
specifiche forme di testualità, oggetti che offrono superfici di iscrizione per i testi, a loro volta attori
di specifiche situazioni semiotiche (Fontanille, 2004b: 6). Ne emerge una irriducibilità della
dimensione prassica a quella testuale (Basso, 2006) che, senza individuare una opposizione,
richiede di affiancare ad una teoria testuale dell'enunciazione una teoria prasseologica. Una simile
teoria può riconoscere -attraverso i modi di produzione segnica (Eco, 1975; cfr. Valle, 2006)- un
ruolo centrale alla corporalità (Fontanille, 2004a).

1.1. Laptop performing


Una prima situazione esecutiva può essere rubricata sotto la categoria della “laptop performance”,
in cui il performer opera sul laptop attraverso un software tipicamente dotato di un'interfacccia
grafica (GUI), che opera come spazio di controllo rispetto al processo esecutivo. La modalità di
operazione è qui quella standard dell'interazione uomo-macchina (mouse/tastiera), e come usuale
l'interazione fisica con l'oggetto computer è dimenticata in quanto mero supporto/accesso allo
spazio débrayato della GUI. Questo débrayage è definito anche rispetto ad una corporalità
dell'enunciazione. Nella situazione della laptop performance il corpo è ridotto ad un sistema di
puntamento e selezione definito sullo spazio bidimensionale del quadro grafico.
I dispositivi di controllo permettono sia l'immissione di valori discreti (dati alfanumerici o pressione
di pulsanti) sia continui (rotativi e cursori). Dunque, le variazioni negli oggetti sonori prodotti dal
corpo sonoro costituito da quella specifica configurazione del software si manifestano secondo
modalità differenti: come impronte di una gestualità iscrittrice (soprattutto nel caso dei controli
continui), come repliche rispetto a sistemi di parametri grammaticalizzati (si pensi ad una tastiera
che selezioni altezze specifiche) o, in caso di minore prevedibilità, come sintomi/indizi di una
soggettività di produzione.

1.2. Dispositivi di controllo gestuali o fisici


La limitatezza dell'interazione secondo il modello QWERTY/mouse (l'estrema riduzione della
plasticità del corpo, in fortissimo contrasto con il suo splendore nelle performance degli strumentisti
virtuosi) ha favorito la diffusione di dispositivi di controllo gestuale.
In una prospettiva tecnologica, la catena guadagna un elemento: il controller è una periferica di
ingresso al computer. Ma in una prospettiva semiotica, la configurazione enunciazionale varia in
modo decisamente asimmetrico. Al computer è delegato un ruolo di cornice: l'interazione avviene
in fase di inizializzazione della tecnologia, di avvio della performance e di controllo complessivo
sul funzionamento tecnologico. Dopodiché, esso si fa trasparente rispetto alla pratica esecutiva. Il
controller diventa strumento di produzione in cui la gestualità non è ridotta a sistema di puntamento
rispetto ad uno schermo ma si esplicita attraverso la manipolazione di un oggetto fisico, dotato di
tratti materiali specifici. Attraverso un'ulteriore mediazione tecnologica, l'interfaccia permette -in
qualche modo per moto contrario- un reémbrayage sulla corporeità dell'esecutore. Ma la reiezione
avviene non allo stesso livello precedente (di tipo testuale) ma a quello oggettuale. A posteriori, si
potrebbe osservare come la GUI dell'esempio precedente si ponga tipicamente (anche se non
sempre) come simulacro di un controllo gestuale in absentia rispetto al testo, ma potenzialmente in
presentia rispetto al sistema delle pratiche (ovvero, rispetto all'insieme dei modi di “suonare il
computer”). Un dispositivo di controllo gestuale come quello descritto stabilisce chiaramente il suo
ruolo di mediatore tecnologico ma allo stesso tempo permette un recupero della continuità del
gesto. In questo senso oppone alla discretezza della tastiera una variabilità continua (velocità,
accelerazione, in altri casi pressione) del tutto estranea alla limitatezza del movimento fisico del
mouse e ai vincoli della spazialità dello schermo. È evidente una valorizzazione di un modo di
produzione segnica per impronta, in cui la gestualità in entrata può trovare una sua traccia nella
variazione sonora in uscita. Ancora, questa variabilità è tipicamente non analitica e, rispetto ad un
problema di regime notazionale (cfr. Goodman, 1968), si configura -per così dire- come rivalsa
autografica rispetto ad un regime strutturalmente allografico che il digitale potenzialmente permette.
Ogni informazione digitale è infatti costitutivamente descritta in modo univoco da un insieme
discreto di valori, che si pongono come una notazione esplicita del segnale stesso. La continuità
resa possibile dal controller -apparente: ma è esattamente una fenomenologia che qui interessa- è un
sorta di ritorno del gesto iscrittore rispetto alla preminenza della digitazione discreta della tastiera.
Pure, la situazione è più complessa. La discretezza del segnale digitale fornisce una notazione al
gesto, che ne assicura una replicabilità esatta. Così, alcuni controller sono motorizzati, e i loro
dispositivi di controllo (rotativi, cursori) possono replicare in playback la sequenza dei gesti che li
hanno mossi in precedenza. Il gesto perde allora l'idiosincraticità autografica relata alla storia della
sua instaurazione (per parafrasare Basso 2003), eppure in qualche misura non sacrifica una
fenomenologia del continuo.

1.3. Live coding


Se il controllo via GUI sposta ad un livello interno l'operabilità rispetto alla coppia
QWERTY/mouse, quello via dispositivo gestuale lo espelle invece all'esterno. Ma in entrambi i casi
si tratta di una evacuazione dell'interfaccia standard del computer, che è assunta come mero punto
di innesto di operazioni differenti e mantiene al limite un controllo meta, di cornice rispetto alla
performance, per così dire “peritestuale”. Un approccio molto differente alla performance, che
compare sullo scorcio del secolo scorso, prende il nome di live coding, letteralmente “scrittura del
codice dal vivo” (cfr. Collins et al. 2003). Reso possibile dall'introduzione di linguaggi di
programmazione capaci di operare interattivamente in tempo reale valorizza senz'altro la
dimensione “geek”: “coding” è certamente la programmazione, ma lo è non tanto nei termini di
elaborazione teorica astratta quanto piuttosto nella sua materialità di scrittura del codice. Si assiste
ad un reémbrayage sull'oggetto computer, ed in particolare sulla componente più negletta, la
tastiera. La tastiera ritrova una sua centralità specifica: è interfaccia tematizzata esplicitamente
(tant'è che diventa possibile proporre esercizi di digitazione come allenamento per la perfomance,
cfr. Nilson, 2007), mentre la GUI viene ridotta a poco più che ad un foglio di scrittura: permette di
vedere ciò che si scrive oltre alle risposte -anch'esse scritte- del sistema. Pratica della scrittura come
performance, vocazione per così dire “ebraica” alla scrittura e alla parola, spesso il live coding si
traduce in un'antivisione, poiché chi la pratica tipicamente nutre scarsa fiducia e rispetto nelle GUI.
Ma è un'antivisione a tratti paradossale, poiché ciò che tipicamente avviene in una sessione di live
coding è la proiezione su schermo della scrittura stessa attraverso l'uscita video del computer.
Un'estetica, più che della scrittura, della scrivibilità come processo che diventa performance e che
perciò deve essere esibita, secondo un'opzione tipicamente esoterica: comprensibile agli iniziati,
incomprensibile agli iloti. La proiezione audio-video si traduce a tutti gli effetti in un processo di
amplificazione della dotazione di un computer: il sistema di diffusione vicaria gli altoparlanti in
dotazione al calcolatore, la proiezione video è letteralmente un ingrandimento dello schermo (e si
noti, non tecnologicamente ma retoricamente: non a caso non si pone il problema dello schermo
intero).
Il live coding punta allora ad un regime di allografizzazione spinta. Infatti, ciò che è scritto è codice
che si pone come notazione del sonoro. E non può essere altrimenti: se “funziona”, allora è codice
ben formato e può essere rieseguito per un numero indefinito di volte.
Così, l'atto della scrittura coincide con il suo convertirsi in notazione in tempo reale: e non solo in
termini di principio, ma di fatto, poiché di quanto scritto si può agevolmente tenere traccia
(attraverso un file di log della console). In questo senso, rispetto al suono si stabilisce
immediatamente una relazione allografica: ogni esecuzione, per quanto improvvisata, è comunque
allestimento di un sistema di segni e sua prima occorrenza, replica costitutivamente perfetta.

2. Instrumentarium e mappatura

Nella discussione precedente l'attenzione è stata rivolta alle pratiche di utilizzo di calcolatori
(tipicamente un laptop) nella performance musical dal vivo (e non solo). Si è avuto modo così di
introdurre surrettiziamente un insieme di termini e di questioni che ne soggiacciono senza proporne
una definizione esplicita. Vale la pena allora di ritorna sulla questione dello “strumento” e
dell'“interfaccia”.
Come nota Sergi Jordà:
In most acoustic instruments (apart from organs and other keyboard instruments) the separation between the
input and the excitation subsystem is unclear. Digital musical instruments, on the other hands, can always be
divided into a gestural controller or input devices that takes control infomation from the performer(s) and a
sound generator that plays the role of the excitation source (Jordà, 2002: 24)

È questa distinzione ad istituire un problema peculiare nel dominio digitale: quello del “mapping”,
cioè della funzione di trasferimento tra dimensioni dell'interfaccia e parametri del generatore di
suono (cfr. Wessel e Wright, 2002). A rischio di semplificare, è possibile identificare un percorso
tripartito rispetto alla relazione tra interfaccia di controllo e generatore del suono,

2.1. Corpi acustici


La prima situazione che è anche evidentemente il primo passaggio di un percorso storico è quella
dello strumento acustico. Nello strumento “tradizionale” vi è una solidarietà tra interfaccia e
generatore (come si diceva, la distinzione non è pertinente se non a posteriori). È stato notato come
il mapping sia -tra l'altro- massimamente multidimensionale e non-lineare (Jordà, 2002: 25). In
questo contesto, la multidimensionalità indica che ad una dimensione in entrata sono correlati più
parametri in uscita, mentre la non-linearità indica che una variazione di una dimensione
dell'interfaccia implica una variazione non proporzionale in un parametro del generatore. A tal
proposito l'esempio più limpido è quello della voce (Jordà, 2002: 25). Per rendersene conto, basta
pensare alla differenza tra il parlato e l'urlato. Quest'ultimo, che può conseguire alla richiesta di
“parlare più forte”, è attuabile attraverso l'incremento dello sforzo vocale (dimensione generale di
controllo). Il risultato è molto diverso da una semplice amplificazione del segnale (basta imitare
piano l'urlato per averne evidenza). La figura della voce è particolarmente interessante in una
prospettiva, come quella adombrata in precedenza, di operazioni di débrayage/embrayage rispetto
alla corporalità.
Il problema di una definizione dello strumento nei termini di un débrayage (qui in relazione ad una
dimensione non testuale, ma oggettuale, come modo di produzione) rispetto al corpo è stato
lucidamente posto in organologia da André Schaeffner (1968). Per Schaeffner lo strumento
musicale risulta una doppia origine dal corpo umano, in funzione di “due coppie fra loro
simmetriche: linguaggio e canto, danza e strumenti” (1968: 25): l'articolazione vocale si riversa nel
canto, mentre il movimento del corpo è all'origine della strumentalità e della danza. Se dunque
l'origine della strumentalità è il corpo, legittimamente si assisterà ad una progressione, ad un
débrayage a partire dal corpo. Schaeffner osserva nel corpo, prima della solidarietà tra interfaccia e
generatore che lo accomuna a tutti gli strumenti acustici, anche una seconda solidarietà tra due
elementi, eccitatore e risonatore (per usare una coppia tematizzata da Pierre Schaeffer, a partire
dall'acustica ma in termini fenomenologici, proprio per discutere del problema della luthèrie
électronique). Per André Schaeffner in primis il corpo lavora sia da eccitatore che da risonatore (ad
esempio: battere le mani, le coscie, le natiche, schioccare le dita) (1968: 39-45). Questa
progressione verso l'esteriorità del corpo permette la percussione sul suolo, che a sua volta può
essere preparato come risonatore, e battuto col piede calzato. Infine, “il corpo si ricopre di musica”
(1968: 47) attraverso i sonagli. Rispetto a questo primo débrayage del corpo, Schaeffner
legittimamente avanza, considerando -per così dire- un ulteriore passaggio di reiezione negli
strumenti a scotimento: ad esempio la maraca. Qui l'azione del corpo si esercita facendo muovere
un altro corpo (1968: 52).
A partire da queste considerazioni, il ruolo della voce emerge emblematicamente: la voce è cioè
figura precipua di un embrayage sul corpo che tiene insieme, ancora prima di interfaccia e
generatore, eccitatore e risonatore. Non a caso è stato possibile porre una sesta categoria ad
integrazione del sistema di Hornbostel e Sachs (1961): quella dei corpofoni (cfr. Kartomi, 2001:
293).

2.2. Electric sounds


Una rilevante trasformazione avviene nello strumento elettrico (cfr. in generale Chadabe, 1996). Si
assiste ad una separazione in potenza tra interfaccia e generatore, e alla definizione di un mapping
tendenzialmente lineare tra i due che assicuri un controllo analitico sullo strumento. Il caso del
Theremin è istruttivo: lo strumento -“acheropito”- è una scatola con due antenne, e si suona
avvicinando le mani queste ultime senza toccarle (un'antenna controlla la frequenza del suono,
l'altra l'ampiezza). È vero che è chiara la pertinenza di una operatività gestuale (che, anzi, richiede
un virtuosismo specifico), ma la separazione netta tra i due parametri è tipicamente non acustica. A
tal proposito, il caso del Moog è interessante. Nella sua radicalità, è un sistema di moduli autonomi
che possono essere connessi attraverso l'innesto di cavi elettrici. Lo strumento guadagna cioè una
modularità analitica completa che costituisce un tratto apparente e “macchinale” del suo aspetto. Il
problema è il controllo della complessità analitica, a cui in un secondo momento ovvia in parte
l'inserimento di una tastiera. La tastiera si pone esplicitamente come interfaccia, cioè dispositivo di
controllo (tradizionale) separato dal generatore. In generale, tutte le tastiere elettroniche degli anni
'70/'80 permettono altresì una riprogrammabilità: la stessa tastiera controlla cioè comportamenti
acustici differenti. Purtuttavia, il comportamento complessivo dello strumento resta ancora
parzialmente lo stesso di quello acustico, poiché per l'utente finale lo strumento si presenta come
corpo unitario indipendentemente dalla sua costruzione (non a caso, è denominato “tastiera”), e la
riprogrammabilità è limitata.
In questi termini, la pratica del “circuit bending” costituisce un'esplicitazione dello statuto
macchinale del dispositivo elettronico. Nel circuit bending, come praticato da Reed Ghazala (2006),
e ora da una vasta schiera di appassionati, la strumento elettronico viene aperto rompendo la
solidarietà tra interfaccia e generatore, e la circuitazione viene esplorata in maniera
fondamentalmente empirica (non a caso, Ghazala descrive il suo approccio nei termini
esplicitamente cageani di “chance electronics”, 2006: 14) ponticellando -a costante rischio di corto
circuito- tra parti della stessa. Analogamente, Collins (2006) propone un insieme di tecniche di
hacking dell'elettronica di consumo. Una è peculiarmente interessante nel suo minimalismo: si tratta
di un circuit bending manuale su una radio ottenuto appoggiando sulla circuitazione le dita
umidificate (così da incrementarne la conduttività). In questa conversione del non-strumento radio
in strumento, si assiste ad un doppio movimento contrario: da un lato si sottolinea la macchinalità
elettronica attraverso il suo disfunzionamento, dall'altro il corpo si riappropria per embrayage del
suo ruolo di stimolatore diretto secondo il modello dello strumento acustico (cioè attraverso la
relazione corpo-eccitatore/radio-risonatore)

2.3. New Interfaces for Musical Expression


È dunque con il calcolatore che si assiste a questa divaricazione di principio tra interfaccia e
generatore. È la programmabilità pervasiva che ne è il fondamento, ben al di là del'ambito delle
interfacce musicali: basta pensare alla personalizzazione delle interfacce. La stessa interfaccia
grafica può essere generata in automatico. Inizialmente orientata al visivo, una simile prospettiva
viene successivamente estesa all'uditivo. Non a caso nascono negli anni '90 l'ICAD (International
Conference on Auditory Displays, 1992) e una decina di anni dopo il NIME (International
Conference on New Interfaces for Musical Expression, 2001), quest'ultima dedicata esplicitamente
alle “interfacce per l'espressione musicale”. Ne deriva un notevole cambio di prospettiva:
Somehow, traditional music instruments can be seen as the means for transforming physical movements into
musical sounds. In this sense, musical composition becomes an implicit process of organizing and directing
physical human gestures on a musical instrument. In other words: music as sonification of gestures (Delle
Monache et al., 2008: 155)

La composizione tradizionale cone sonificazione di gesti: l'espressione non soltanto sottolinea una
prospettiva verso la notazione di tipo istruzionale (descrizione di comandi per gli esecutori), ma
introduce esplicitamente il problema della mappatura del gesto, e cioè della separazione tra
interfaccia in entrata e generatore in uscita.

3. Conclusione: sullo statuto dello strumento


Il percorso accennato in precedenza, dall'acustico al computazionale attraverso l'elettronico, sembra
individuare un cambiamento di statuto semiotico dello strumento. In effetti emergono due ordini di
problemi in un approccio “computazionale” che separa interfaccia gestuale e generatore di suono.
In primo luogo, teoricamente un approccio veramente analitico alla definizione di un mapping tra
interfaccia e generatore richiederebbe che ad ogni variazione di una dimensione dell'interfaccia sia
associata una variazione nel parametro correlato dalla funzione di mappatura, e solo in quello. E
non soltanto in termini di ingegneria (di per sé banale) ma soprattutto in termini di percezione (che
è il livello a cui opera il controllo nel caso di interfacce che si vogliano “espressive musicalmente”).
Senonché, nel dominio udibile si registra una scarsissima ortogonalità tra le dimensioni
psicoacustiche (Barrass, 1998): ad esempio, quando varia l'intensità del segnale, non varia solo il
volume percepito, ma anche l'altezza percepita (che è il correlata percettivo della frequenza del
segnale, ma non esclusivamente). Dunque, altezza e volume non sono ortogonali, e non lo sono
altre dimensioni percettive. In realtà la gestione del mapping è sempre estremamente complessa e
spesso compromissoria, come ampiamente studiato nell'ambito degli studi sui display uditivi (cfr.
Barrass, 1998; Hermann, 2002). Non a caso, è possibile descrivere le strategie di mapping,
soprattutto nell'ambito musicale, come “the wonderful world of mapping” (Robson, 2002: 60).
Un secondo problema, autonomo ma correlato dal primo, ruota intorno alla domanda (Jordà, 2002:
24):
Is it possibile to design nonspecific controllers, to develop highly sophisticated interfaces without a profound
assumption of how the sound or music generators will work?
La risposta di Jordà (ibid.) è negativa:
we firmly believe that a parallel design between controllers and generators is needed to create new
sophisticated musical instruments amd music-making paradigms.

D'altra parte nelle classificazioni organologiche, ed in primo luogo nell'unica in qualche misura
universale -pur con i suoi limiti acclarati-, quella di Hornbostel e Sachs (1961), è un assunto di
partenza la solidarietà tra interfaccia e generatore. Non a caso, la quinta classe oltra a idiofoni,
membranofoni, cordofoni e aerofoni -quella degli elettrofoni- aggiunta da Galpin e recepita dallo
stesso Sachs nella sua Storia degli strumenti musicali (Sachs, 1940), continua ad essere molto
problematica. Bakan e i suoi accociati ritengono inutile postulare una categoria degli elettrofoni ed
estendono in profondità le altre quattro classi. Così, lo “scratch turntable” è classificato in maniera
convincente come “electric scraped idiophone” (cit. In Kartomi, 2001: 292). Ma, anche nel loro
tentativo, resta assai problematico lo statuto di oggetti digitali eccentrici, quali sound processor e
sequencer.
In effetti, si registra con questi ultimi esempi, un salto di livello: la programmabilità altera
radicalmente il paesaggio. Uno strumento è definibile come un corpo sonoro di cui è ricostruibile
-in forma variabile- un comportamento a partire dall'oggetto sonoro prodotto. Questa ricostruibilità
è variabile ma in qualche modo discende da un tratto fondamentale: lo strumento non è una
macchina. Fontanille, seguendo Coquet, ha potuto identificare una tipologia attanziale basata sul
numero e la composizione modale. Prima dei “soggetti” pieni, almeno trimodalizzati, si definisce
una gerarchia di “non-soggetti”: soggetti a dotazione modale ridotta, amodali, monomodali,
bimodali. In particolare, la presenza del solo potere individuerebbe un soggetto M 1 che si presenta
come un “autome”, in funzione di una sorta di purà capacità, di disponibilità all’azione che deve
essere innescata: “efficacement programmé pour une seule tache”, questi “dépend en cela
obligatoirement d’autres actants, mieux pourvus en modalités” (Fontanille 1998: 173). D’altra
parte, con “esclave”, Fontanille descrive un attante M 2 inteso come “actant sous controle (ou sous
influence”) che associ al puro potere dell’automa la modalità del dovere (Fontanille 1998: 173):
appunto quella innescabilità che manca all’automa M 1. Si può allora pensare allo strumento
acustico come ad un “automa” nell'accezione fontanilliana, cioè a “non-soggetto” dotato di una
potenzialità che richiede l'intervento di altri attanti. È il tema dell'inerzia dello strumento che
attende di essere suonato, ma che pure guadagna statuto specifico (si pensi alla denominazione
identitaria di ogni Stradivari). Ma la programmabilità trasforma il carico modale. Per prendere un
esempio estremo ma proprio per questo rilevante: cosa dire di un frammento di codice in linguaggio
di programmazione che genera musica per un tempo indefinito, recuperando informazione
dall'ambiente circostante e confrontandola con quella immagazzinata in precedenza? L'oggetto
acquisisce oltre ad un poter fare, un saper fare che non è solo impiegato nell'azione (è chiaro che lo
strumento, come ogni tecnologia, implicita un sapere) ma che la dirige, ed è funzione di una
memoria dell'interazione. Acquisisce anche una dimensione deontica variabile: perché la risposta
che gli è chiesta è vincolante nel senso del funzionamento tecnologico, ma può apparire come
fenomenologicamente contrattata, secondo margini variabili. Ad esempio, l'utilizzo di variazioni
pseudo-casuali è una tecnica tipica per ovviare al determinismo del calcolatore. Ne risulta un
comportamento del sistema soltanto approssimativamente regolare, che apre ad una ricostruzione
indiziaria dell'intenzionalità implicita. Tra lo strumento e il codice generativo emerge allora un
continuum di forme di soggettività variabile, più o meno profonda, di cui varrebbe la pena di
effettuare una fenomenologia.
Allo stesso tempo, nell'interazione con il calcolatore si ridefinisce il ruolo del musicista. Qualsiasi
sequencer -per quanto gestito dal vivo e pure con una gestualità esacerbata- sposta la prospettiva
verso quella del cibernauta: il kybernete è etimologicamente il pilota che conduce la nave in mare.
Guarda lontano all'orizzonte e muove il timone stabilendo una direzione. Non è il vogatore che
stringe il remo, remo che resta altrimenti inerte 1. Per restare alle figure del trasporto, così ricorda
Salvatore Martirano a proposito della SalMar Construction, uno dei primi sistemi analogico-digitali
interattivi:
Control was an illusion. But I was in the loop. I was trading swaps with the logic. I enabled paths. Or better, I
steered. It was like driving a bus (cit. in Chadabe, 1996: 291)

Non a caso, c'è un problema tipico nella pratica della laptop performance: come ci si mette sul
palco? Come reémbrayare sul corpo secondo il modello strumentale che pare inescludibile nel
contesto del concerto? Non è infatti possibile rinuciare del tutto alla strumentalità e all'esibizione di
un qualche forma di corporalità, pena la dismissione del genere concerto. Come nota Chadabe
(1996), questo vincolo tra il corpo sonoro e l'oggetto sonoro non può essere del tutto rimosso: “the
performer needs to be sure that the connection between a performance gesture and its musical
effects will be evident to the audience” (216). Così, il live coding, che pure propone un'accettazione
insieme ascetica ed esibizionistica del macchinale ed una cognitivizzazione estrema del corpo, alla
fine però ostende e ostenta (si pensi allo schermo e alla sua relazione con il suono) quel corpo
stesso, proprio attraverso la rappresentazione del corpo che il computer implicita (in quanto occhio
che legge e dito che scrive) 2. Macchinalità che non può rinunciare del tutto alla strumentalità.

Riferimenti bibliografici

Basso, P. (2003), Confini del cinema, Lindau, Torino.

Basso, P. (2006), Testo, pratiche e teoria della società, in «Semiotiche», 4, pp. 209-238.

Barras, S. (1997), Auditory Information Design, Tesi di Dottorato, The Australian National University, Sydney.

Chadabe, J. (1996), Electric sounds. The Past and Promise of Electronic Music, Prentice Hall, Upple Saddle River
(NJ).

Collins, N. (2006), Handmade electronic music, Routledge, New York-London.

Collins, N., McLean, A., Rohrhuber, J., and Ward, A. (2003), Live coding techniques for laptop performance.
«Organised Sound», 8, 3, pp. 321-330.

Delle Monache et al. (2008), Sonically Augmented Found Objects in «Proceedings of the 2008 Conference on New
Interfaces for Musical Expression (NIME08)», Genova, pp. 154-157.

Eco, U. (1975), Trattato di semiotica generale, Bompiani, Milano.

Fontanille, J. (1998), Sémiotique du discours, PULIM, Limoges.

Fontanille, J. (2004a), Figure del corpo. Per una semiotica dell'impronta, Meltemi, Roma.

Fontanille, J. (2004b), Textes, objets, situations et formes de vie. Les niveaux de pertinence
de la sémiotique des cultures in «E|C. Rivista dell’Associazione Italiana di Studi Semiotici
1 Nota Chadabe: “When an instrument is configured or built to play one composition, however the details of that
composition might change from performance to performance, and when that music is interactively composed while
it is being performed, distinctions fade between instrument and music, composer and performer. The instrument is
the music. The composer is the performer” (1996: 291). Si noti lo spettro semantico fuzzy di “instrument”.
2 Eseguire un programma dal vivo nella forma di una semplice procedura d'avvio dell'esecuzione dello stesso non ha
alcun senso: anche se presenta variazioni pseudo-casuali tanto varrebbe registrarlo un'ora prima della performance
ed eseguirlo secondo la prassi della musica elettroacustica, evitando il rischio, comunque presente, di un problema
del sistema. Non a caso nei concerti di musica elettroacustica, dove la componente sonora è completamente
realizzata prima del concerto, viene tipicamente ricavato uno spazio performativo: quelllo del controllo in tempo
reale della spazializzazione, dallo statuto in qualche modo residuo.
on-line». http://www.associazionesemiotica.it/ec/pdf/fontanille_28_5_04.pdf (visitato il 29 aprile 2009).

Ghazala, R. (2005), Circuit-Bending. Build your own alien instruments, Wiley, Indianapolis.

Goodman, N. (1968), Languages of Art, The Bobbs-Merrill Inc., Indianapolis and New York; trad. it di F. Brioschi
(1976), I linguaggi dell'arte, Il Saggiatore, Milano.

Hermann, T. (2002), Sonification for Exploratory Data Analysis, Tesi di Dottorato, Universität Bielefeld, Bielefeld.

Hornbostel, E.M. and Sachs, C. (1961), Classification of Musical Instruments: Translated from the Original German by
Anthony Baines and Klaus P. Wachsmann in «The Galpin Society Journal», 14, pp. 3-29.

Jordà, S. (2002), FMOL. Toward User-Friendly, Sophisticated New Musical Instruments, in «Computer Music Journal»,
26:3, pp. 23-39.

Kartomi, M. (2001), The Classification of Musical Instruments: Changing Trends in Research from the Late Nineteenth
Century, with Special Reference to the 1990s in «Ethnomusicology», 45, 2, pp. 283-314.

Nilson, Clock (2007), Live Coding Practice in «Proceedings of the 2007 Conference on New Interfaces for Musical
Expression (NIME07)», New York, pp. 112-117.

Paolucci, C. (2007, a cura di), Studi di semiotica interpretativa, Bompiani, Milano.

Robson, D. (2002), PLAY!: Sound Toys for Non-Musicians, in «Computer Music Journal», 26:3, pp. 50-61.

Sachs, C. (1940), The History of Musical Instruments, Norton, New York; trad. it di M. Papini (1980), Storia degli
strumenti musicali, Mondadori, Milano.

Schaeffner, A. (1968), Origine des instrumentes de musique, Mouton and Maison de Science de l'Homme, Paris; trad. it
di D. Carpitella (1978), Origine degli strumenti musicali, Sellerio, Palermo.

Schaeffer, P. (1966), Traité des objets musicaux, Seuil, Paris.

Valle, A. (2007), Cortocircuiti: modi di produzione segnica e teoria dell’enunciazione, in Paolucci (2007), pp. 349-
424.

Wessel, D. e Wright (2002), M, Problems and Prospects for Intimate Musical Control of Computers in «Computer
Music Journal», 26:3, pp. 11-22.

Potrebbero piacerti anche