Sei sulla pagina 1di 2

Musica Elettronica e Sound Design - volume 1 - Materiale di supporto

STORIA DEI LINGUAGGI DI SINTESI


La sintesi diretta del suono via elaboratore nacque agli inizi degli anni ‘60, quando cioè
incominciarono a essere disponibili elaboratori sufficientemente potenti per praticarla.
I primi sistemi furono MAESTRO (Università di Urbana, Illinois, USA) e la serie dei linguag-
gi MUSIC dovuti a Max V. Mathews, e sviluppati ai Bell Laboratories: MUSIC III, del 1960,
MUSIC IV del 1963 fino al più noto (e ancor oggi in uso) MUSIC V, del 1966.
Hubert Howe sviluppò a Princeton nel 1965 MUSIC4BF, scritto in linguaggio FORTRAN,
John Chowning nel 1966 sviluppò MUS10, mentre a Barry Vercoe (Massachussets Institute
of Technology, Cambridge, Massachusets) si devono MUSIC360 (1969) e i suoi discendenti
MUSIC11 (1973) e Csound (1986). Altri linguaggi per la sintesi del suono sono Cmusic
(Moore e Loy, 1982), Cmix (Lansky, 1984), Music 4Ci (Gerrard, 1988), Common LISP Music
(Schoettstaedt, 1991), MUSIC30 (Dashow, 1991) etc.
Quasi tutti questi linguaggi avevano in comune due concetti: quello di orchestra separata
dalla partitura, e quello di nota come evento minimo. Di fatto si tratta di un programma
(l’orchestra) al quale vengono forniti dei dati (la partitura) in formato opportuno, o, se si
vuole, la partitura esprime “che cosa” si debba fare, mentre l’orchestra esprime “come”
debba essere fatto.
Uno dei maggiori problemi era il fatto che ciascun linguaggio di sintesi “girava” soltanto
sul tipo di elaboratore per il quale era stato pensato: MUSIC360 solo su elaboratori IBM
360 (e sui successivi IBM 370 e 83XX); MUSIC11 solo su DEC PDP-11, eccetera. La gran-
de diffusione, velocità e standardizzazione del linguaggio di programmazione “C”, con il
quale è scritto Csound, è il motivo della grandissima diffusione di questo linguaggio, dis-
ponibile praticamente su tutti i personal computer e minicomputer più diffusi (PC, MAC,
SUN, SGI, HP).
Naturalmente negli anni ‘60 non si parlava di personal computer (anzi, la maggior parte
delle industrie informatiche non credevano che sarebbe mai stato possibile portare mac-
chine potenti su una scrivania, a disposizione di una sola persona), e si lavorava nei centri
di calcolo delle università. Se pensiamo che la potenza di un grande elaboratore (main-
frame) di quegli anni era di molto inferiore a quella di un personal computer di oggi, e che
a ogni mainframe erano collegate decine di utenti contemporaneamente, si comprende
come la vita del musicista non fosse delle più facili: anche perché ciascun utente aveva una
certa priorità per l’uso della macchina, e le priorità dei musicisti non erano, di solito, fra
quelle più elevate. Questo significava “lanciare” il programma la sera, e trovare il risulta-
to al mattino, correggere gli inevitabili errori e reiterare il processo per giorni, settimane,
mesi.
Contemporaneamente alla sintesi diretta del suono, si costruirono diversi sistemi “ibridi”,
cioè sistemi in cui la parte di controllo era affidata a un elaboratore (di solito un mini-
computer), mentre la sintesi del suono vera e propria era compito di apparecchiature ana-
logiche specializzate, per esempio sintetizzatori come il MOOG, l’ARP, il Buchla, lo EMS.
James Gabura e Gustav Ciamaga collegarono nel 1967 un IBM 1710 ad alcuni moduli
MOOG. Allo studio EMS di Londra venne progettato e costruito da Peter Zinoviev intorno
al 1969 un sistema molto sofisticato, basato su un minicomputer DEC PDP-8 e su un gran-
de Synthi EMS, con il quale parecchi musicisti, prevalentemente inglesi, lavorarono per
diversi anni.
Nel 1982 poi un gruppo di industrie costruttrici di strumenti musicali si accordò per stan-
dardizzare il protocollo di comunicazione MIDI (Musical Instruments Digital Interface), che
dà la possibilità di far comunicare digitalmente fra loro gli strumenti musicali elettronici, e,

Storia dei linguaggi di sintesi


Estratto da “Il Suono Virtuale” di Riccardo Bianchini e Alessandro Cipriani
1
© 2007 ConTempoNet - Roma
Musica Elettronica e Sound Design - volume 1 - Materiale di supporto

soprattutto, di far controllare l’esecuzione di strumenti MIDI da personal computer. Se da


un lato il protocollo MIDI, grazie anche alla disponibilità di personal computer sempre più
potenti e dal costo sempre più accessibile, ha messo alla portata di tutti la possibilità di
fare musica con l’elaboratore, d’altro lato la standardizzazione di un protocollo nato prin-
cipalmente per la musica commerciale ha limitato le possibilità compositive, per esempio
inducendo spesso all’utilizzo della scala cromatica temperata (è vero che MIDI permette di
utilizzare il cosiddetto pitch-bend per modificare l’intonazione, ma si tratta di procedi-
menti abbastanza macchinosi). L’introduzione del MIDI poi è coincisa con la presenza sul
mercato di sintetizzatori molto potenti (il primo fu lo Yamaha DX-7), ma che a loro volta
limitavano la libertà del musicista, rinchiudendolo nella vasta, ma non infinita, gabbia di
possibilità che i progettisti di sintetizzatori ritenevano commerciabile.
Per questo motivo la disponibilità di elaboratori in grado di effettuare la sintesi diretta del
suono in tempi accettabili (e spesso ormai in tempo reale) ha aperto una nuova era per i
linguaggi di sintesi del suono, come appunto Csound. A spese di una difficoltà di uso
oggettivamente maggiore, il musicista ritrova però quella libertà che aveva perduto rinun-
ciando ai grandi sintetizzatori analogici degli anni Settanta, e in aggiunta ha a disposizio-
ne un sistema standardizzato, potente e che gli mette a disposizione strumenti composi-
tivi in grado di riprodurre, correggere, modificare una partitura a sua completa volontà.

Storia dei linguaggi di sintesi


Estratto da “Il Suono Virtuale” di Riccardo Bianchini e Alessandro Cipriani
2
© 2007 ConTempoNet - Roma