Sei sulla pagina 1di 94

Conservatorio di musica

“N. Piccinni” - Bari

CORSO DI
INFORMATICA MUSICALE
(TRIENNIO)

docente Stefano
t←→ Alessandretti
ACUSTICA
L'acustica è una branca della fisica che studia le caratteristiche del suono e della sua propagazione.
Il suono è generato da un corpo vibrante (come una corda, una membrana, etc.) che crea un'oscillazione, o onda,
trasmessa al mezzo che lo circonda (fluido, gassoso o solido).
Onda = perturbazione che si propaga nello spazio e trasporta energia da un posto a un altro.
Le onde acustiche sono onde meccaniche longitudinali: esse si propagano, a partire dalla sorgente,
in tutte le direzioni dello spazio tridimensionale (onde sferiche).

FIG.1
Le molecole investite dall'onda vibrano lungo il raggio di propagazione e quindi nella stessa direzione di propagazione dell'onda,
provocando fasi alternate di compressione (alta densità e pressione) e di rarefazione (bassa densità e pressione) del mezzo.

FIG.2
PROPRIETÀ DEL SUONO
Una sinusoide (suono puro) è un suono generato da una variazione di pressione dell'aria
con andamento periodico e con spettro monocromatico, caratterizzato cioè da una singola frequenza di oscillazione
(non possiamo rintracciare la presenza di altre componenti), la cui forma d'onda è di conseguenza sinusoidale.
Si tratta in assoluto dello spettro acustico più povero: una sola frequenza.

Ascisse
FIG.3

y = A sin (x)

ASCOLTO SINUSOIDE 1 KHz 


PROPRIETÀ DELLE SINUSOIDI
La sinusoide ha una serie di proprietà, come:

EL
Frequenza (f): numero di oscillazioni compiute in un secondo, si esprime in Hertz (Hz). T
Periodo (T): tempo impiegato per compiere un'oscillazione intera, si esprime in secondi (s). F- 1
F
Lunghezza d'onda (λ): distanza tra 2 massimi consecutivi, espressa in metri (m). < =L
F
Ampiezza (A): massima deviazione dalla posizione di equilibrio. Aere
frffitesi.li
?

Fase (φ): il ritardo di tempo rispetto ad un certo riferimento, si esprime in gradi o in radianti.
Ampiezza

Infatti
Velocità (v): velocità dell'onda, si esprime in metri al secondo (m/s).
9=2
=
SL -

T
Corso Audio FREQUENZA
Multimediale - di Marco Sacco

F- ftp.aio.ES@00 F = 1- = 2ha
Ops .

0,5 s

t t t t t F =
1- = -542
-
• a • • ai
Qf
a - - -
S .

FIG.4
Sinusoide di frequenza 5 Hz
Frequenza (f): numero di oscillazioni compiute in un secondo, si esprime in Hertz (Hz)*.
cicli
Periodo
CICLO si INTENDE composto DA UNA semi ONDA
UN positiva e UNA NEGATIVA
È il tempo impiegato per compiere un ciclo completo. Vale la relazione:
IHZ HA LUNGHEZZA D' ONDA di 344M PERCHÉ QUANDO L' ONDA HA COMPLETATO UN ciclo È PASSATO UN SECONDO
.
,

* Dal nome del fisico tedesco Heinrich Rudolf Hertz (1857-1894) che PERCORRENDO 344M
10hL IN un Equazione per
secondo 1.2.primo
Periodo di l’esistenza
dimostrò una sinusoide
delle onde elettromagnetiche.
.

10 cicli CHE si Dispongono in


34µm ( undecimo di
.
34441100in cento cicli in un secondo G¥ÌIÈÌfI :)
PERIODO
La figura seguente mostra la durata del periodo di una sinusoide:( in secondi )

FIG.5
Periodo di una sinusoide
Periodo (T): tempo impiegato per compiere un'oscillazione intera, si esprime in secondi (s).
CICLO COMPLETO
Lunghezza d'onda
F-
fa es : PERIODO dell' ONDA
4
CON FREQUENZA 440 Ha

1- =L = 0,00227 s
440hL
.
mincia a percepire suoni di frequenza superiore ai 20-30Hz quindi lunghezze d'onda di 15-18 metri.)
LUNGHEZZA D’ONDA
La figura seguente mostra la lunghezza d'onda di una sinusoide:
-

( in metri )

FIG.6
LA LUNGHEZZA DELL' ONDA È Lunghezza d'onda
INVERSAMENTE di una sinusoide
proporzionale Alla sua FREQUENZA ,
ALL'AUMENTARE DELLA frequenza
Diminuisce LA LUNGHEZZA
Lunghezza d'onda (λ): distanza tra 2 massimi consecutivi, espressa in metri (m).
.

LAMBDA

IL 5

# F- 440 ÌL 3-4445=0,781818
Velocità del suono
= es Periodico
-

: Ha =

440ha
mt.CA#-LLAVELociTADELSUONONEARA
comincia superiore ai
L' orecchio percepire suoni di frequenza
3¥ umano a

#µ = =
344mg | 20 -30ha Quindi LUNGHEZZE D' ONDA di 15 -18Mt
1/7 .
SI Definisce Valore Efficace
La figura DI
seguente mostra l'ampiezza di una sinusoide: AMPIEZZA
UNA FUNZIONE continua * ft ) A -

,
LA RADICE DELLA MEDIA Quadratica
" "
Ovvero LA RADICE DELLA Media DEI QUADRATI
A
Detto ANCHE
"
valore quadratico medio
"
RMS
"
-

Rms
EFF .

PER determinare il valore RMS


VENGONO eseguite tre operazioni matematici
sulla FUNZIONE CHE Rappresenta LA
FORMA D' ONDA

1) VIENE determinato il
Quadrato DELLA FUNZIONE
FORMA D' ONDA ( SOLITAMENTE UNA sinusoidi ) .

2) LA FUNZIONE RISULTANTE DAL PASSAGGIO (1)


VIENE MEDIATA NEL TEMPO ,

3) viene TROVATA LA Radice quadrata DELLA FUNZIONE


RISULTANTE DAL Passaggio (2) .

Root = Radice FIG.7


MEAN = MEDIA Ampiezza di una sinusoide
Ampiezza (A): massima deviazione dalla posizione di equilibrio.
-

Square =
QUADRATA -

Fase
Vi sono diverse unità di misura dell’ampiezza; in generale sono comunque suddivise in 2 tipologie:
ampiezza
Questa grandezza di una
è sempre picco (Peak)trae due
relazione ampiezza mediaPer(Root
forme d'onda. capireMean
questoSquare).
concetto occorre spie-
Efficace
gare come viene costruita una forma d'onda0 sinusoidale. RMS riferimento alla figura se-
Per fare ciò faremo
fammene
f-
guente:
Aera = =
* oùe l' Ampiezza
715
.

radice di Due
FASE
Corso Audio Multimediale - di Marco Sacco

STA

#
'↳
900 se


A •

÷ . . .

• ⑧ '

2700

Grafici fase ttz


FIG.8a/8b su

Immaginiamo che il punto A si muova lungo la circonferenza in senso antiorari


Fase (φ): il ritardo di tempo rispetto ad un certo riferimento,
gradi. Se a èsi l'angolo
esprimeavremo che(0-360°)
in gradi i segmenti
o inproiezione del punto A sugli assi x
radianti (0-2π).
mente:
CALCOLO del RITARDO di FASE AFFINCHÉ due sinusoidi di frequenza 100A ,
Arrivino sfasate di 90 ?
Es : 90 ! 900
-
=
45ms
360.100 es : 1800=180 Es 270
'

"
50ms ' :
vedete nel grafico (a) non è .EE?5nys
giacimento 3%
quindi quello che
÷ altro che la lunghezza della
sull'asse delle ordinate (y) al variare dell'angolo. Immaginate ora di far ruotare
360 ES : 3%6%7=1 , 00mg Grafici
rio, la sua proiezione sulle
Relazione
dare un'altra
tra
y Fase
sarà all'inizio
e tempo psiq-dtt.fi#t
negativa e avrà l'andamento della f
fase interpretazione della frequenza dicendo che sarà il numero di volte
VELOCITÀ
Un suono che si propaga all'interno di un mezzo ha una velocità di propagazione
che dipende dalle caratteristiche del mezzo stesso.
Ogni mezzo ha una sua tipica velocità del suono calcolata ad una temperatura costante di 23.24°C.
Questo serve come valore di riferimento in quanto al variare della temperatura,
variano le caratteristiche del mezzo e dunque la velocità del suono al suo interno.

Quando un mezzo viene riscaldato, alle sue particelle viene trasferita energia cinetica.
Quando vengono in contatto con un fronte d'onda, le particelle del mezzo rispondono più prontamente
alla sollecitazione e trasmettono dunque l'energia sonora ricevuta più velocemente.
Ciò si traduce nella maggiore velocità del suono nel mezzo.
Mediamente si riscontra un aumento di velocità di 0.6 m/s per ogni incremento
÷
di un grado C della temperatura del mezzo.

La velocità del suono dipende dalle proprietà elastiche e inerziali del mezzo ed è
più elevata nei mezzi solidi rispetto a quelli liquidi o gassosi.

ALCUNI ESEMPI :

aria
aria (0°C):
( 0°C ) : 331
331 m/s
mls

)
.

aria
aria (20°C):
12006 ) : 343
343 m/s
mls [1235 Km/h] incremento 0,6×20 GRADI 12 µ ,
1.235km/h =

acqua
acqua (20°C):
120°C ) 1482 m/s
:
t.482.im/sf331anjd2--343nysat20
acciaio:: 5941 m/s
acciaio 5941 mais 45
RELAZIONI MATEMATICHE
RELAZIONE TRA FREQUENZA f E DURATA DEL PERIODO T

f = 1/T
T = 1/f

RELAZIONE GENERALE TRA SPAZIO (s), TEMPO (t) E VELOCITÀ (v)

s=v•t
v=s/t
t=s/v ]fisica generale

5 λ = v •T
v = λ /T
T =: λ / v

e poiché T = 1/f

λ=v/f
v=λ•f
f=v/λ
ESERCIZIO D’ESEMPIO
Calcolare la velocità del suono sapendo che il periodo dell’onda è di 0,038 secondi e la sua lunghezza è di 43 metri.

T = 0,038 s
λ = 43 mt.
v=?

(v = λ/T) 43/0,038 = 1131


1.11 m/s

oppure

(f = 1/T)
1 1/0,038
1 = 26,32 Hz
(v = f • λ) 26,32 • 43 = 1131
1.11 m/s

Calcolare ora la velocità del suono supponendo un incremento della temperatura dell’aria di 40° C.

(0.6 m/s ogni grado Celsius) 40 • 0.6 = 24 m/s


1131
÷ : + 24 = 1155 m/s

... e in Km/h?

1155
11 • 3600 / 1000
1 = 4158
I Km/h
TEOREMA DI FOURIER*
Abbiamo visto che la sinusoide è la forma d’onda periodica più semplice, poiché possiede una sola frequenza.
Nella realtà non è così semplice imbattersi in segnali acustici così poveri, generati solitamente
in laboratorio o comunque attraverso apparecchiature elettroniche.
In natura, infatti, capitare di incontrare segnali acustici anche molto complessi...

il Teorema di Fourier afferma però che qualsiasi segnale periodico può essere scomposto
in una sommatoria finita di sinusoidi aventi fase e ampiezza opportune (le frequenze sono armoniche).

Il Teorema di Fourier, che può essere esteso con le opportune modifiche anche ai segnali non periodici,
può essere visto da 2 angolazioni diverse:

• da un lato esso afferma che qualsiasi segnale può essere visto come la sommatoria
delle sue componenti armoniche (Analisi di Fourier),

• dall’altro lato afferma che sommando un termine costante e termini sinusoidali di opportuna
frequenza, ampiezza e fase, è possibile ottenere qualsiasi segnale (Sintesi di Fourier)

* Jean Baptiste Joseph Fourier (1768 - 1830), matematico e fisico francese conosciuto per la sua famosa
trasformata e per la sua legge sulla conduzione del calore.
DOMINIO DEL TEMPO - DOMINIO DELLA FREQUENZA
Questa è forse la parte più importante per capire a fondo la natura di un suono. La trattazione matematica di questo
argomento può diventare molto complessa, qui ci basterà accennare ai dettami fondamentali tralasciando i rigori imposti dalla
divulgazione scientifica.
I grafici che abbiamo visto finora erano del tipo Ampiezza-Tempo ossia descrivevano l'andamento dell'ampiezza al variare del
tempo. Consideriamo ora un diverso approccio Corsoalla questione
Audio Multimedialee- divediamo
Marco Saccocome sia possibile rappresentare l'ampiezza in
funzione della frequenza.

io

FUNZIONE DELLA

IN FUNZIONE DEL IN

FIG.12

Nella realtà del mondo fisico un suono non è mai ‘statico’, ma varia continuamente nel tempo. Ciò significa che ogni sinusoide
che lo compone varia continuamente la sua ampiezza e dunque varia anche la forma del grafico dello spettro
FORME D’ONDA PIÙ COMUNI
# Onda triangolare: contiene solo armoniche dispari la cui ampiezza
-
-

decresce esponenzialmente in rapporto al numero progressivo


-
%Ì÷÷÷ ⇐
e

È
ti A
-

(1ª = 8/9, 3ª = 1/9 1ª, 5ª = 1/25 1ª, 7ª = 1/49 1ª).

ti
A DENTE di SEGA
Onda dente di sega: tutte le armoniche con energia inversamente :÷÷t÷ .

=
proporzionale al numero progressivo (2ª = 1/2 1ª, 3ª = 1/3 1ª, etc.).
. -

Onda quadra: contiene solo armoniche dispari con decadimento dell’energia


di tipo 1/f, cioè inversamente proporzionale al numero progressivo (1ª = 1, 3ª = 1/3 1ª, etc.);
è inoltre composta da 2 fasi di ampiezza, alta e bassa, alternate secondo un rapporto pari a 50%.
Ita # RM } Dell' Ampiezza DELLA Ia
.
tata ARM } DELL' AMPIEZZA DELLA Ia
.

Se questo rapporto viene fatto variare la risultante prende il nome di onda impulsiva.

ESEMPIO FORME D’ONDA IN Max/MSP 


=
SUONI E RUMORE
Le forme d’onda affrontate finora, più o meno complesse, avevano tutte una
caratteristica fondamentale in comune, l’andamento periodico.

Si tratta di un aspetto fondamentale poiché contraddistingue un suono da un rumore!

RIASSUMENDO

Suono puro: è un suono generato da una variazione di pressione dell'aria


con andamento periodico e con spettro monocromatico, caratterizzato cioè da una singola
frequenza di oscillazione, la cui forma d'onda è di conseguenza sinusoidale.

Suono complesso: è un suono generato da una variazione di pressione dell’aria


con andamento periodico e con spettro policromatico, caratterizzato cioè da molteplici
frequenze di oscillazione, la cui forma d’onda assume una struttura complessa descrivibile come la risultante di una somma
algebrica di più sinusoidi con parametri di frequenza, ampiezza e fase opportuni (Teorema di Fourier).

Rumore: è un suono generato da una variazione di pressione dell’aria


con andamento aperiodico e con spettro policromatico instabile (imprevedibile).
Ad esempio il rumore bianco è costituito da tutte le frequenze udibili,
ciascuna con ampiezza caratterizzata da andamento instabile e imprevedibile.
LO SPETTRO
Per spettro acustico intendiamo l’insieme delle componenti vibrazionali che interessano uno stesso fenomeno oscillatorio.
Uno spettro acustico può essere caratterizzato dai rapporti di frequenza che intercorrono tra le varie componenti e la
fondamentale; se tali rapporti sono di multiplo esatto lo spettro si definisce armonico;
se invece alcune componenti dello spettro hanno un rapporto diverso con la fondamentale è definito inarmonico.

Quindi

Componenti armoniche = in rapporto intero con la fondamentale

Componenti inarmoniche = in rapporto non intero con la fondamentale

Spettro armonico = tutte le componenti sono in rapporto intero con la fondamentale

Spettro inarmonico = non tutte le componenti sono in rapporto intero con la fondamentale
INVILUPPO DEL SUONO
-

Con questo termine si intende l'andamento dell'ampiezza di un suono dal momento


in cui viene generato a quando si estingue.

L'andamento dell'ampiezza di un suono viene chiamato inviluppo ADSR, acronimo delle parole: Attack, Decay, Sustain, Release
(in italiano: Attacco, Decadimento, Sostegno, Rilascio) e ha uno schema che può essere applicato a qualsiasi suono e strumento.

A te sina.sn
, SOSTEGNO
.
& ^A
µ "
e Rilascio
*

a µ
t

FIG.13

Data la simmetria della forma d'onda, se ne considera, ai fini della valutazione dell'inviluppo, la sola parte positiva.
Generalmente la fase Attack-Decay è la più importante per caratterizzare un suono. Per esempio, un rullante avrà tempi di
Attack e Decay molto brevi mentre un violino sarà contraddistinto da una fase Attack-Decay molto più lunga.

ASCOLTO D’ESEMPIO 
LOGARITMI
Il logaritmo (logos + aritmos = calcolo sui numeri), insieme alla radice, è una delle operazioni inverse dell’elevamento a potenza.

Potenza 5 3 = 125 [base e esponente, argomento ?]

Logaritmo log 5 125 = 3 [base e argomento, esponente ?]

Radice 3 125 =5 [esponente e argomento (indice e radicando), base ?]

Il logaritmo di un numero secondo una certa base è quel numero per cui si deve elevare quella base per ottenere il numero
dato.

È importante notare che:

il logaritmo di 1 è sempre 0, qualunque base permessa si scelga! log 10 1 = 0, perchè 10 0 = 1

come l’esponente, il logaritmo può essere negativo log 10 0,01 = -2, perchè 10 -2 = 1/100 = 0,01

il logaritmo di 0 non esiste non esiste nessun numero per cui elevare la base 10 in modo che il risultato sia 0

Il concetto di logaritmo risale a Nepero (John Napier, teologo scozzese 1550-1617)


LA SCALA DEI DECIBEL
Per dare una stima del guadagno tra segnale d’uscita e segnale di ingresso di un’apparecchiatura elettronica e, più in generale,
valutare il livello (intensità) di un segnale rispetto a un segnale di riferimento, fu introdotta da Alexander Graham Bell la
grandezza bel (B).

[Venne introdotto nel luglio 1937, durante la prima conferenza internazionale di acustica. Va chiarito che il bel non fa parte delle unità
di misura del Sistema Internazionale, in quanto i valori così espressi sono numeri adimensionali derivati da grandezze fondamentali. Ciò
nonostante il bel è largamente utilizzato in diversi campi della fisica]

Il guadagno in bel è definito come il logaritmo in base 10 del rapporto tra 2 misure omogenee:

GB = log10 (P2 / P1)

Si tratta quindi di una scala logaritmica definita sul rapporto tra 2 valori espressi nella stessa unità di misura. Il vantaggio di
poter rappresentare una grandezza in scala logaritmica risiede nel fatto che la percezione umana della variazione di alcune
grandezze, quali quelle acustiche, segue un andamento di tipo logaritmico-esponenziale.

Il decibel è un sottomultiplo del bel, pari a 1/10 di bel:

GdB = 10 • log10 (P2 / P1)


LA SCALA DEI DECIBEL

À NNEARE

[ it mica
0g

FIG.14

Quando P2 = P1 il guadagno è di 0 dB;

se P2 = 2P1 allora: GdB = 10 • log10 (2P1 / P1) = 10 • log10 2 = 3,010

se P2 = 1/2 P1 allora: GdB = 10 • log10 (P1 / 2P1) = 10 • log10 0,5 = - 3,010

Il raddoppio (o il dimezzamento) di una grandezza rispetto a quella di riferimento


fa aumentare (o diminuire) il guadagno di 3 dB!
IL CAMPIONAMENTO

FIG.15

Segnale analogico Vs segnale digitale (continuo Vs discreto)

Conversione A/D = da tensione elettrica a campione

Conversione D/A = da campione a tensione elettrica

PCM (Aiff, Wave e altri lossless)

Sample Rate (Hz) - Bit Depth (bit)

Bit Rate [Samples per second • Bit per sample] es. 44100 •16 = 705,6 Kbps (mono)
IL CAMPIONAMENTO

FIG.16

Teorema di Nyquist: Sampling Frequency = Fmax • 2


PER evitare La frequenza di aliasing I

FIG.17

Errore di quantizzazione
IL CAMPIONAMENTO

FIG.18

Processo di conversione:
filtraggio (SF/2) - campionamento - quantizzazione - codifica - (dithering)

ESEMPIO UNDERSAMPLING - UNDERQUANTIZATION 


il
CENNI SUL DITHERING CON DITHERING
il RUMORE viene Diffuso

⑤ RUMORE -

Di CONTI CHE DIFFONDE

il RUMORE di
-

QUANTIZZAZIONE
Nell’elaborazione numerica dei segnali il dither è un rumore che viene volontariamente aggiunto (quindi calibrato e distribuito,
secondo una logica stabilita) ai campioni con l’obiettivo di minimizzare la distorsione introdotta dal troncamento nel caso di
riquantizzazione dei campioni.
http://www.earlevel.com/main/2014/03/15/dither-widget/
INFORMATICA MUSICALE: DEFINIZIONE
Con lo sviluppo delle tecnologie multimediali la musica è diventata una delle fonti d'informazione trattate dall'informatica, al pari
dei numeri, dei testi, della grafica e della visione. Ciò ha favorito lo sviluppo di importanti applicazioni in campo musicale e ha
portato i sistemi informatici a diventare uno 'strumento' musicale di riferimento, come lo fu il pianoforte nel 19° secolo.
Il termine strumento non ha qui l'accezione musicale corrente, in quanto il complesso delle funzioni svolte dai sistemi
informatici è molto più ampio di quello di uno strumento tradizionale.
L'elaboratore non genera soltanto suoni, ma elabora tutta l'informazione musicale, dal microlivello (il suono) al macrolivello (la
forma). Ciò ha comportato una sostanziale trasformazione dei metodi del fare musica, con il coinvolgimento di tutti i settori,
dalla creazione alla produzione musicale, favorendo la nascita di nuove figure professionali.

Un sistema informatico completo di opportuni programmi e periferiche svolge molte funzioni musicali. È strumento musicale
polifonico e politimbrico; simula i suoni degli strumenti acustici oppure diventa il mezzo per comporre nuove sonorità
elettroniche; svolge le funzioni di uno studio di registrazione audio per l’editing, elaborazione, montaggio di suoni e di brani
musicali, stampa di CD audio; viene utilizzato nell'editoria musicale, nella ricerca musicologica, nell'archiviazione e nell'esecuzione
automatica di partiture.
Il compositore, oltre a ciò, dispone di una grande varietà di strumenti di aiuto alla composizione che lo assistono nelle varie fasi
del processo creativo e di realizzazione dell'opera. Inoltre, con l'evoluzione dei sistemi informatici multimediali, molte di queste
funzioni possono essere messe in stretta relazione con il mondo della grafica, del video, dello spettacolo, della realtà virtuale e
delle telecomunicazioni per ottenere prodotti artistici e culturali multimediali. Infine, alcuni derivati dei progetti di ricerca o dei
programmi professionali trovano un ampio consenso nel vasto mondo dei musicisti dilettanti e dell'intrattenimento informatico,
alimentato dall'industria dei personal computer e dal successo di Internet.
INFORMATICA MUSICALE: NASCITA
Musica Informatica
seconda metà degli anni Cinquanta

trattamento simbolico dell'informazione musicale


aspetto acustico e percettivo della musica (computer music)
• codifica dei testi musicali
• codifica numerica dei suoni
• generazione automatica di partiture per la
• progettazione dei convertitori per dotare l'elaboratore di
composizione
un'interfaccia audio con l'esterno
• tecniche informatiche di analisi musicologica
• tecniche di analisi, sintesi ed elaborazione dei suoni

Fino agli ultimi anni Settanta le principali ricerche venivano svolte in centri di ricerca scientifica utilizzando elaboratori collettivi
(mainframe) e programmi che imponevano lunghi tempi di attesa tra la formalizzazione dell'idea musicale e il suo ascolto. Nei
concerti si presentavano musiche registrate su nastro che talvolta accompagnavano solisti o piccoli ensembles di esecutori
tradizionali o cantanti.
La mancanza di un rapporto diretto e immediato con il suono ha in parte ostacolato la produzione musicale mentre, al
contrario, ha favorito lo sviluppo di solide basi teoriche e di alcuni programmi per la sintesi dei suoni ancora oggi utilizzati in
campo scientifico e musicale.

Illiac Suite (1957), Lejaren Hiller e Leonard Isaacson, ILLIAC I computer at the University of Illinois 

Silver Scale (1957), Newman Guttman e Max Mathews, IBM 704 computer at the Bell Lab. in New Jersey 

Bicycle built for two (1961), Max Mathews e John L. Kelly, IBM 7094 computer at the Bell Lab. in New Jersey 
INFORMATICA MUSICALE: ANNI OTTANTA
Con l'avvento degli elaboratori a monoutenza (minicomputer) i tempi di attesa sono diminuiti e, grazie a essi, si sono sviluppati i
primi prototipi di sintesi e trattamento dei suoni in tempo reale, utilizzando periferiche particolari. Grazie a questi nuovi sistemi
in tempo reale la musica può rientrare nella tradizione dell'esecuzione dal vivo, anche se al mezzo informatico viene assegnato
un ruolo più ampio e soprattutto diverso da quello del singolo strumento. Si sono sviluppati i concerti di live electronics, in cui i
sistemi in tempo reale generano eventi sonori complessi o trasformano dal vivo i suoni di voci o strumenti tradizionali.

Negli anni Ottanta due innovazioni hanno contribuito alla diffusione dell'informatica nel mondo musicale, specialmente nelle sue
applicazioni più semplici: l'avvento dell'elaboratore personale (personal computer) e la definizione del codice di comunicazione
MIDI (Musical Instrument Digital Interface).

Quest'ultimo ha segnato l'ingresso dell'industria degli strumenti musicali elettronici nel mondo della musica informatica: nell'arco
di pochi anni i sintetizzatori analogici della musica elettronica sono diventati obsoleti, sono nati i campionatori, i sintetizzatori
digitali e un'ampia gamma di dispositivi accessori di ausilio al musicista (sequencer, multiprocessori di effetti). Grazie al MIDI tali
strumenti possono essere collegati fra loro creando una rete di apparecchiature digitali in cui l'elaboratore personale è spesso il
cuore del sistema. I risultati della ricerca scientifica degli anni Settanta sono stati rapidamente trasferiti dall'industria su strumenti
a basso costo e offerti a un'ampia utenza musicale.

MUSICA ELETTRONICA COLTA - MUSICA ELETTRONICA COMMERCIALE


INFORMATICA MUSICALE: ANNI NOVANTA
Nel corso degli anni Novanta è aumentato il predominio della tecnologia digitale nella musica, sia a livello professionale che
amatoriale. L'elaboratore personale sempre più potente, 'amichevole' ed economico viene dotato di periferiche e programmi
specifici e diventa il nuovo 'strumento musicale' in grado di assistere il musicista nello svolgimento delle più svariate attività: dalla
ricerca astratta alla produzione commerciale.
La locuzione musica informatica, che sino alla fine degli anni Settanta identificava un settore della musica contemporanea con
precisi ambiti linguistici ed estetici, a partire dagli anni Ottanta ha perduto progressivamente questa identità per assumere un
significato di pura connotazione tecnica, data la diffusione del mezzo informatico in tutti i generi musicali.

Fixed Media
Live Electronics
Mixed
Computer aided composition
RAPPRESENTAZIONE DELL’INFORMAZIONE MUSICALE
L'informatica tratta la musica con due principali forme di rappresentazione:

• audio (codifica il suono in sequenze discrete di numeri),

• simbolica (codifica l'informazione percettiva, esecutiva e astratta, prendendo come riferimento il sistema tradizionale di
notazione musicale).

La codifica audio si realizza convertendo il segnale analogico in segnale digitale, ovvero campionando la forma d'onda del
suono. Tale operazione si basa su due fattori caratteristici: la frequenza di campionamento e il numero di bit con cui si
rappresentano i campioni. Il primo fattore incide sulla frequenza massima rappresentabile dal segnale digitale, mentre il secondo
fissa il rapporto segnale/disturbo e quindi il tasso di rumore aggiunto nella fase di conversione. I valori di riferimento sono quelli
del CD audio (44.100 c/s, 16 bit), anche se si usano valori ridotti per la codifica della voce e per i segnali di allarme, o valori
superiori per l'audio professionale di qualità. Entrambi i fattori incidono sulla quantità di informazione necessaria a
rappresentare il flusso sonoro della musica. Per ridurre il volume dei dati musicali si sono sviluppate efficaci forme di
compressione che si basano sulle caratteristiche della percezione uditiva umana.

La codifica simbolica trova nel codice MIDI il sistema più diffuso per rappresentare i gesti elementari dell'esecuzione musicale.
Per la codifica del sistema tradizionale di notazione musicale esistono vari linguaggi simbolici o sistemi grafici di scrittura che si
differenziano in base al tipo di applicazione: editoria musicale, analisi musicologica, aiuto alla composizione.
MIDI: LA NASCITA
Siamo agli inizi degli anni ottanta e una gran varietà di strumenti è disponibile per il musicista; ma subito sorge un nuovo
problema, quello di riunire tali strumenti in un sistema che ne espanda le loro potenzialità. Nasce allora un protocollo di
comunicazione che consente ai vari strumenti di ‘dialogare tra loro’ scambiandosi informazioni: il MIDI.

Nel 1981 Dave Smith e Chet Wood della Sequential Circuit propongono una prima ipotesi del protocollo MIDI, le cui
specifiche vengono definite nel 1982 in collaborazione con Roland, Korg, Kawai e Yamaha, e pubblicate sotto il nome di The
Complete SCI MIDI.

Dopo alcuni mesi di sperimentazione del nuovo protocollo, il documento SCI viene rivisto e ribattezzato MIDI Specification 1.0,
in cui sono definiti i messaggi e le caratteristiche fisiche e logiche della loro trasmissione tuttora in vigore.

Il primo sintetizzatore con porte MIDI, il Prophet 600, fu realizzato dalla Sequential Circuit nel 1983. All’inizio la maggior parte

Fa
dei produttori di strumenti fu restia nell’accettare il MIDI (anche per l’uso di reti inter-strumentali proprie).

Dal marzo 1984 tutti i produttori che equipaggiano le proprie apparecchiature con interfacce MIDI, sono obbligati a rispettare
alcune caratteristiche di base, che garantiscono la compatibilità fra gli strumenti delle diverse marche.

Negli anni che seguono questo storico accordo, il MIDI non subisce sostanziali modifiche, se non alcuni aggiornamenti e
miglioramenti.
MIDI: APPLICAZIONI
Il MIDI, acronimo di Musical Instrument Digital Interface, che significa: interfaccia digitale per strumenti musicali, è l’unione di un
linguaggio di comunicazione e una normativa di specifiche hardware che permette a strumenti musicali elettronici, controller,
computer e altre apparecchiature che ne rispettino la codifica, di comunicare tra loro consentendo l’organizzazione e
l’automazione di un sistema musicale (sintetizzatori, expander, sequencer, processori digitali, mixer, batterie elettroniche, etc.)
MIDI anche molto complesso.

Il linguaggio MIDI viene dunque utilizzato per trasformare in numeri i gesti compiuti da un musicista durante una esecuzione:
abbassare tasti, premere pedali, manovrare potenziometri, interruttori, pulsanti, rotelle, etc., in equivalenti messaggi digitali che
vengono trasmessi a tutti gli strumenti elettronici presenti sulla rete.

Questi messaggi vengono utilizzati per controllare generatori di suono e altri dispositivi che servono alla configurazione
automatica del sistema musicale. Inoltre il MIDI permette di registrare questi messaggi, mediante un apparecchio chiamato
sequencer, per essere successivamente editati, modificati e rispediti alle apparecchiature presenti sulla rete.

Nel tempo, il MIDI si è imposto come nuova tecnologia operativa in tutti i settori della produzione musicale, conquistandosi di
diritto un ruolo di primaria importanza nell’esecuzione dal vivo, nella produzione discografica e nella post-produzione audio/
video.

HOME STUDIO - STUDI DI REGISTRAZIONE - POST PRODUZIONE - CONTROLLO LUCI/EFFETTI - APPLICAZIONI MULTIMEDIALI
NUMERI DECIMALI, BINARI E ESADECIMALI
=

Ogni numero di n cifre è rappresentabile dalla somma di n moltiplicazioni effettuate tra ognuna delle cifre e altrettante potenze
di 10 a esponente progressivo (da 0 a n). Ad esempio

4792 = (4 • 103) + (7 • 102) + (9 • 101) + (2 • 100) = 4000 + 700 + 90 + 2

Nella numerazione binaria si procede allo stesso modo, solo che a disposizione si hanno solo due valori possibili (0 e 1) e le
potenze sono in base 2. Ad esempio

11001100 = (1 • 27) + (1 • 26) + (0 • 25) + (0 • 24) + (1 • 23) + (1 • 22) + (0 • 21) + (0 • 20) = 128 + 64 + 0 + 0 + 8 + 4
+ 0 + 0 = 204

Nel linguaggio digitale si ha però sempre a che fare con dei raggruppamenti di bit che ormai assurgono a vere e proprie unità
di misura: nibble (4 bit), byte (8 bit), Kilobyte (1024 bit), Megabyte (1048576 bit), word (costituita da 4, 8, 12, 16, 24, 32 bit, in
dipendenza della struttura del microprocessore).

Risultando molto difficile ricordare numeri a 8 bit espressi in codice binario, questo viene molto spesso sostituito dal codice
esadecimale (hexadecimal). Questo sistema di numerazione si fonda sulla base 16 e consiste di 16 simboli differenti: 0, 1, 2, 3, 4,
5, 6, 7, 8, 9, A, B, C, D, E, F; come visto prima per i numeri decimali, è possibile convertire i numeri esadecimali in numeri binari.
CONVERSIONE NUMERI ESADECIMALI
Sono stati divisi i numeri binari a 8 bit in due gruppi di 4 bit ciascuno, per facilitare la comprensione della conversione da
numero esadecimale a numero binario. Lo spazio tra ciascun gruppo di 4 bit non altera il valore del numero, ma ne rende più
facile la lettura ed è una rappresentazione diventata uno standard. La procedura per eseguire la conversione è costituita da tre
fasi:

1) scrivere per intero un numero a 8 bit,


2) spezzare il numero binario in due gruppi da 4 bit ciascuno,
3) sostituire con il corrispondente numero esadecimale.

Ad esempio, 01111111 (cifra a 8 bit), 0111 1111 (spezzata in due gruppi da 4 bit), 7F (sostituisco i due valori in esadecimali).

Questo metodo di suddivisione dei numeri binari in gruppi di 4 bit ciascuno, viene applicato anche a numeri di 12, 16, 24 bit e
così via.

Per evitare confusione con i numeri decimali, quelli esadecimali saranno seguiti convenzionalmente dalla lettera H, che abbrevia
il nome exadecimal!

Nel caso precedente, quindi, 7FH. (H= hexadecimal)


Cenni sull’OSC

Corso Audio Multimediale - di Marco Sacco

Capitolo 20. Il protocollo MIDI

pgogrgegggtzw.ae
Introduzione
Il termine MIDI è l'acronimo di Musical Instrument Digital Interface ed è un protocollo [45] di comuni- .

cazione, concepito nel 1983, che consente di pilotare un dispositivo musicale tramite un dispositivo con-
trollore. Vedremo come in realtà sia possibile con questo protocollo controllare tutta una serie di appa-
recchi contemporaneamente facendoli lavorare in modo sincronizzato. Introduciamo il principio di fun-
zionamento considerando una tastiera-sintetizzatore dotata di un'interfaccia [46] MIDI controllata da un
computer. Il computer è dotato di un software in grado di 'registrare' [47] gli impulsi che provengono
dalla tastiera-sintetizzatore memorizzando anche gli istanti di tempo a cui arrivano; dunque possiamo
eseguire un pezzo musicale sulla tastiera-sintetizzatore e 'registrarlo' sul computer. È importante capire
che il computer non registra il suono che esce dalla tastiera-sintetizzatore ma dei codici =corrispondenti
alle note che vengono suonate = e i loro riferimenti temporali. In fase di riproduzione il computer spedisce
alla tastiera-sintetizzatore i codici che ha memorizzato nella fase precedente e la tastiera-sintetizzatore li
interpreta esattamente come se un musicista avesse effettivamente suonato in quel momento le note cor-
rispondenti. Il protocollo non è cambiato dall'anno della sua creazione (anche se ha subito notevoli
estensioni) e questo fa sì che dispositivi molto vecchi siano in grado di comunicare con i dispositivi mo-
derni e continuino dunque ad essere utilizzabili senza problemi. Nel corso di questa sezione vedremo nel
dettaglio come funziona il protocollo MIDI e i contesti nei quali si utilizza in cui il principio di funzio-
namento appena descritto viene notevolmente esteso. Nel seguito per fissare le idee supporremo che il
nostro dispositivo MIDI sia sempre una tastiera essendo quello che racchiude in sé tutte le funzionalità
che verranno descritte, tuttavia le considerazioni fatte valgono in generale per qualsiasi dispositivo do-
tato di interfaccia MIDI.

Specifiche del protocollo MIDI


Come detto, un protocollo definisce tutti gli aspetti della comunicazione tra due sistemi MIDI sia a li-
vello di hardware (prese, cavi, connettori, modalità di trasmissione) che a livello software (comandi
MIDI). La comunicazione avviene attraverso un'interfaccia seriale in modalità binaria e questo consente
di realizzare interfacce MIDI molto economiche. La comunicazione seriale non è un grosso problema in
quanto la quantità di dati spediti nelle comunicazioni MIDI è relativamente ridotta. La velocità di trasfe-
rimento dei dati non è molto alta ma è sufficiente allo scopo:

[45] Un protocollo è un insieme di specifiche che definiscono tutti gli aspetti della comunicazione tra due entità. Per entità si in-
tende un qualsiasi apparecchio in grado di comunicare con altri apparecchi nelle modalità definite dal protocollo di comunica-
zione. Nel nostro caso le due entità che comunicano possono essere una tastiera-sintetizzatore e un computer che la pilota.
[46] Un'interfaccia è un dispositivo elettronico che converte dei segnali generati da una macchina in un formato comprensibile
dalla macchina che li deve ricevere ed elaborare. I dati che arrivano all'interfaccia sono di tipo binario ossia sotto forma di impulsi
elettrici che rappresentano i valori 0 e 1 eventualmente raggruppati in blocchi da 8, 16 o più bit. Un'interfaccia seriale trasferisce i
bit uno per uno mentre un'interfaccia parallela trasferisce gruppi di n bit alla volta e risulta dunque molto più veloce nel trasferi-
metno dei dati. Questa maggiore velocità di trasferimento implica però una maggiore complessità circuitale e di conseguenza un
prezzo più alto.
[47] Questa operazione viene effettuata per mezzo di programmi che prendono il nome di sequencer.

284
Trasmissione PARALLELA °

.
PAROLA INTERA di UN Byte

-«oDis
missione
su 8 Binari
seriale III
Ilwww.vvv
.

'
trasmissione :c
10110101
/ ) )

BinarioAETT paralleli
→ -

UN Bit ALLA VOLTA UN ciclo µ


Capitolo 20. Il protocollo MIDI
i 01 io , o i
più LENTA Di 8 VOLTE Rispetto ALLA PARALLELA -

Velocità: 31250 baud (bit/sec) ossia 3906.25 bytes/s ossia 3.8 Kb/s

Come riferimento quantitativo si pensi che un modem per computer economico per la connessione ad
Internet ha una velocità di trasmissione di 56 Kb/s.

Le prese MIDI, che vengono anche definite porte e sono sempre di tipo femmina, sono tre: MIDI In (i
-
-
# F- -

dati MIDI entrano nel dispositivo), MIDI Out (i dati MIDI escono dal dispositivo), MIDI Thru [48] (una
copia dei dati entrati dalla porta MIDI In viene reindirizzata su questa porta). La trasmissione dei dati
avviene sempre in una sola direzione: dalla porta MIDI Out alla porta MIDI In. I cavi MIDI montano
solo connettori maschi e hanno una lunghezza non ÷ superiore a 15 metri (cavi più lughi possono causare
perdite di segnale tali da comprometterne l'integrità). La comunicazione è di tipo asincrono il che signi-
fica che non vengono impiegati segnali di temporizzazione (che appesantirebbero il carico di dati da tra-
sferire): vengono invece impiegati un bit di start, identificato da una tensione di 5 Volts (che mette in at-
÷

tesa di dati il dispositivo ricevente), e un bit di stop identificato da una tensione di 0 Volts (che comu-
-

nica la fine del trasferimento di dati).


-

I connettori montati sui cavi sono di tipo DIN: SCHERMATURA

SEGNALE -

#
SEGNALE ← SEGNALE X

X X NON utilizzate

Connettore di tipo DIN

Vengono utilizzati solo il pin 2,4 e 5. Il pin 2 è la schermatura mentre i pin 4 e 5 portano il segnale MIDI
in modalità bilanciata . Le prese MIDI sono montate sui dispositivi e tasferiscono i dati al/dal cavo dal/al
dispositivo. Ciò avviene secondo il seguente schema:

"

%
. io

iI
le

isolate ÈI ! : È ÉTÉ ,
Poi CONVERTE GLI impulsi elettrici in attici .

Schema logico di un'interfaccia MIDI

Per fissare le idee supponiamo di trovarci in modalità di ricezione dati. Questi arrivano dal cavo alla
presa e vengono inoltrati verso uno stadio optoisolatore. Questo ha una duplice funzionalità. La prima è
quella di isolare elettricamente il dispositivo convertendo gli impulsi elettrici in impulsi ottici: ciò viene
realizzato attraverso un fotodiodo che si illumina al passaggio di corrente e una cellula fotoelettrica che
-

[48] Dal termine inglese through che significa 'attraverso'.

285
Corso Audio Multimediale - di Marco Sacco

riconverte gli impulsi ottici in un nuovo segnale elettrico ad uso del dispositivo. In questo modo non c'è
mai una connessione elettrica fisica tra dispositivi MIDI. La seconda è quella di correggere eventuali de-
terioramenti del segnale di ingresso; tutti i valori di tensione vengono convertiti in soli due stati: luce ac-
cesa, luce spenta. Il segnale elettrico che esce dal modulo optoisolatore viene separato in due: una copia
viene, come detto, inoltrata verso la presa MIDI thru (non sempre presente) mentre l'altra copia viene
inoltrata ad un modulo definito come UART (acronimo di Universal Asynchronous Receiver Trasmitter -
Trasmettitore Ricevitore Asincrono Universale - ). Il modulo opera una conversione dei dati seriali in
parallelo e li spedisce al dispositivo vero e proprio (per esempio il circuito che genera i suoni in una ta-
stiera-sintetizzatore) gestendo anche la temporizzazione in base al contenuto dei dati che riceve. Come
vedremo meglio in seguito, il protocollo MIDI prevede l'utilizzo di 16 canali. Ogni canale identifica una
funzionalità di un dispositivo MIDI, per esempio su una tastiera-sintetizzatore può identificare un parti-
colare suono. Questo significa che se per esempio un sequencer pilota una sola tastiera-sintetizzatore,
possiamo suonare contemporaneamente fino a 16 suoni diversi, uno per ogni canale (1 per il suono di
batteria, 1 per il suono di basso, uno per il suono di violino ecc.). Notare che questo vale per suoni di-
versi, per lo stesso suono possiamo eseguire più note contemporaneamente (vedremo quante tra un mo-
mento). Dunque un pezzo di pianoforte complicatissimo suonato a due mani è riproducibile utilizzando
un solo canale MIDI. Generalmente i sistemi MIDI si integrano con gli strumenti reali che rimangono
comunque la parte più consistente della registrazione musicale (a parte i generi musicali tipicamente
elettronici come per esempio la trance, la house, la techno). Per questo motivo i 16 canali, che a prima
vista possono sembrare pochi, permettono di gestire la maggior parte delle situazioni.

Configurazioni di sistemi MIDI


Per introdurre questo argomento abbiamo bisogno di definire i concetti di master e slave. Col termine
master (padrone) si identifica il dispositivo che pilota uno o più dispositivi di tipo slave (schiavo). Un
dispositivo master può controllare potenzialmente un numero infinito di dispositivi slave. Vediamo ora i
vari tipi di configurazione che è possibile realizzare nei sistemi MIDI.

Daisy chaining
Concatenazione a margherita

In questo caso abbiamo un dispositivo Master (una tastiera-sintetizzatore) e una serie di dispositivi slave
disposti in cascata (ext1 e ext2 possono essere per esempio una batteria elettronica e un modulo sintetiz-
zatore):

286
Corso Audio Multimediale - di Marco Sacco

>
A

A v % v
• -
IN ⑧ UT THRU

ESPANDERA
'
d out
AUDIO EXP 1
È
IN OUT THRU
Slave
v

:
Audio

ESPANDERE
IN 0 t
OUT AUDIO Master out

EXPZ

Share

Audio
Alhnixcr

Schema di configurazione Daisy Chaining

Attenzione a non confondere le connessioni midi (in rosso) con quelle audio (in blu). I segnali audio
all'uscita di ogni dispositivo vengono prelevati e spediti al mixer per essere trasformati in musica. Il se-
gnali MIDI Out all'uscita del master viene spedito all'ingresso MIDI In dello slave Ext1; una copia di
questo segnale è presente anche sulla presa MIDI Thru di Ext1 che dunque viene spedito allo slave Ext2
(possiamo per esempio utilizzare il canale 1 per pilotare il modulo Ext1 e il canale 2 per pilotare il mo-
dulo Ext2). In questo modo il master pilota tutti i dispositivi slave in cascata. Il problema di configura-
-

zione di questo tipo è che l'operazione di trasferimento del segnale MIDI alla presa MIDI Thru di ogni
modulo introduce un piccolo di ritardo. I dispositivi sono disposti in cascata e dunque tutti i ritardi si

÷
sommano e questo rischia di compromettere la sincronizzazione tra i dispositivi quando questi diventano
troppi.

Daisy chaining con un sequencer


Un sequencer è un dispositivo in grado di registrare sequenze di comandi MIDI (dove una sequenza si
-

riferisce ad un canale MIDI) e di riprodurle in un secondo tempo. Per esempio su una tastiera-sin-
÷
tetizzatore potremmo eseguire una linea melodica e registrarla su un sequencer, poi potremmo sovrap-
porre a questa linea una seconda melodia e così via. Alla fine, le sequenze che abbiamo memorizzato
verranno eseguite contemporaneamente sul sequencer, ÷ ossia verrano spedite dal sequencer alla tastiera-
sintetizzatore, e in questo modo il pezzo verrà rieseguito automaticamente. La figura seguente mostra un
esempio di configurazione daisy chaining con l'impiego di un sequencer:

287
Capitolo 20. Il protocollo MIDI

Il

V IN
OUT IN OUT THRU
Audio e 1 ESPANDERA
Il M M µ
stare

*
IN out
Espandere
tttru
WITH Master z
AAUUDD :O Slave PUT
Audio

:
V Atmixcr
> I 0 7

Midi Interfaccia
> =
÷
PC
MAC

Schema di configurazione Daisy Chain con sequencer

I segnali audio (viola) vengono, come prima, spediti al mixer. Vediamo la parte MIDI: il nostro sequen-
cer è un computer dotato di un'interfaccia MIDI e di un opportuno software di sequencing. La presa
MIDI Out della tastiera-sintetizzatore (sempre il nostro master) viene collegata alla porta MIDI In
dell'interfaccia MIDI del computer. Questo ci permette di 'registrare' sul computer le sequenze eseguite
sulla tastiera-sintetizzatore. La presa MIDI Out dell'interfaccia MIDI del computer viene collegata
all'ingresso MIDI In del master in modo da rieseguire le sequenze registrate. Una copia di questo se-
gnale viene poi spedita, tramite la presa MIDI Thru, ai dei dispositivi Exp1 e Exp2. Anche in questo
caso abbiamo il problema del ritardo del trasferimento dei dati. Nella prossima sezione viene mostrata
una configurazione che permette di risolvere questo problema.

Configurazione con MIDI Thru Splitter Box


'To split' in inglese significa spezzare. In qualsiasi contesto elettrico, uno splitter non è altro che un di-
spositivo che preleva un segnale in ingresso e lo riproduce in n copie in uscita. Un esempio di splitter
sono le comuni 'ciabatte' utilizzate nelle case per avere n prese di corrente a partire da una singola presa.
Gli splitter possono essere passivi o attivi. Uno splitter passivo ha generalmente una circuiteria molto ri-
dotta o anche assente e, dato che non rinforza in nessun modo il segnale al suo interno, introduce una
perdita di segnale ogni volta che viene spezzato in due o più copie. Dunque non è possibile realizzare
splitter passivi con troppe prese in uscita. Il problema si risolve utilizzando splitter attivi in cui appositi
circuiti rinforzano il segnale prima che arrivi alle prese di uscita riportandolo ai livelli del segnale di in-
gresso. La configurazione MIDI seguente prevede l'utilizzo di uno splitter attivo che permette di risol-
vere il problema del ritardo:

288
iter
Corso Audio Multimediale - di Marco Sacco

> →
EXP 1

^ OUT Midi

→ EXP 2

→ EXP 3
Master

→ EXP a

Splinter

Schema di configurazione con Splitter Box

In questo caso tutti i dispositivi sono collegati allo splitter (il quale introduce un ritardo ma è l'unico pre-
sente nella catena dei collegamenti dunque non pregiudica la sincronizzazione tra i dispositivi).

Configurazione con Interfacce MIDI estese


Quando si rende necessario l'utilizzo di più di 16 canali si ricorre a interfacce MIDI con più uscite
(MIDI Out):

Samp ter

EXP 3
%
µ

sinth

.mn

Interfaccia MIDI con più uscite

In questo caso ogni uscita MIDI gestisce 16 canali. Sul software di sequencing, una sequenza verrà rife-
rita, come già detto, ad un canale MIDI e inoltre verrà riferita anche ad una determinata uscita MIDI.
Nella figura vediamo che la sequenza della batteria elettronica sarà associata al canale 1 (generalmente
le batterie elettroniche hanno 1 solo canale MIDI a cui sono associati tutti i suoni identificati dalle di-
verse note) dell'uscita MIDI 2.

Messaggi MIDI
Come accennato, un messaggio MIDI è composto da una serie di bit ordinati secondo uno schema co-
mune per tutti i messaggi. La figura seguente mostra un tipico messaggio MIDI:

La prima regola del codice MIDI sancisce la differenza tra Status


-
byte (dite di stato) e Data byte (byte di dati).
_IY_ -

Lo status byte fornisce la chiave di lettura che serve allo strumento ricevente per una corretta interpretazione dei
byte di dati. - 289 aI
La seconda regola stabilisce che tutti i numeri compresi tra 128
- -
e 255 sono degli status byte. -
-
-

Viceversa quelli compresi tra 0 e 127 sonoE-dei Data byte.


-

Il protocollo MIDI stabilisce anche quanti Data byte dovranno seguire per completare il messaggio stesso, che a
seconda dei casi può essere formato da 1, 2 o 3 byte. ÷
IL Messaggio Midi e composto da 3 BYTE Raccoltisi tra 2 Bit

010
%%÷÷:i
POLYFONIC
! :[ Éireann
status byte
Corso Audio Multimediale - di Marco Sacco

%
÷ .

AFTERTOUCH Fa
i
' ' "
00
e

ÉTÉ
64*161-8+2=90
Keith.EE?ffret I +23
° I
27128
"

CYIIÉIÌ E fsdisponis.li 24 Note disponibili Possibilità


( tutta tastiera ) CANAÌÉ NOTA SUONATA
-

Velocity
la
; Midi
100 PROGRAM CHANCE ti .at/dis#iMili
N°-3
Midi 64 Pressione DEL TASTO 90
contrassegna
(( cambiare suono Accanale
assegnato
)
}
tipo di Messaggio
101 control ( status Byte )
Un esempio di messaggio MIDI
fjjffafefeatas.ie
CHANGE PRIMO Bit posto A 1
pressione DELTASTO
( parametri tipo :) Come si vede il messaggio è composto da tre byte racchiusi tra due bit, uno iniziale di start e uno finale
VOLUME PAN
,
di stop. Il primo dei 3 byte è definito come status byte e ha la funzione indicare il tipo di messaggio.
MODULAZIONE
Uno status byte è sempre contrassegnato dal primo bit posto a 1. I bit 2,3, 4 indicano il tipo di messag-
I 10 PITCH gio, essendo 3 bit sono disponibili 8 (23)
mi
tipi diversi di messaggio. Gli ultimi 4 bit del primo byte identi-
BENDING ficano il canale midi, dunque abbiamo 16 canali disponibili. Notare che il nibble (un nibble è una se-
(
UTILIZZA ANCHE quenza di 4 bit) 0000 identifica il canale 1 e il nibble 1111 (che vale 15 in decimale) identifica il canale
itdit DELIO 16. Nel nostro messaggio di esempio stiamo trasmettendo dati sul canale 3. Dopo lo status byte abbiamo
due data byte ossia due byte che trasportano informazioni numeriche relative al messaggio definito nello
DATA Bit PER
status byte. Un data byte ha sempre il primo bit posto a 0. Gli ultimi 7 bit del primo data byte descrivono
AVERNE A la nota suonata, con 7 bit possiamo discriminare 128 (27) note (il che generalmente è sufficiente se si ama

Disposizione 14 pensa che un pianoforte, che è uno degli strumenti con l'estensione maggiore, ha 88 note). Nel nostro
PERUNBENDING esempio stiamo suonando la nota 64 (1000000). Il secondo data byte indica la velocità della nota ossia
l'intensità con cui è stata suonata. Tutte le recenti tastiere dotate di interfaccia MIDI possiedono un con- .

più Definito trollo chiamato soft touch che trasforma in un valore l'intensità con cui si è premuto un determinato ta-
ANCHE SE sto. In questo modo è possibile riprodurre il tocco della mano sui tasti ed eseguire distintamente pezzi
LENTO suonati per esempio in 'pianissimo' o 'forte'. Il valore viene associato alla velocità perché molti sistemi
) soft touch si basano sulla velocità con cui è premuto un tasto avendo come presupposto che maggiore è
la velocità, maggiore è l'intensità. Nel nostro caso il valore della velocità è pari a 90 (1011010). Ovvia-
mente il significato dei dati contenuti nei- data byte varia a seconda del tipo di status byte che stiamo= -

considerando.=Vediamo ora i differenti tipi di messaggio MIDI.


-

CHANNEL
o://messa.gg MESSAGE
Channel Voice Messages : GENERATI DA eventi Di Esecuzione
1. Note off: interrompe l'esecuzione di una nota. Ha il seguente formato:

÷
I tre bit che identificano il tipo di messaggio sono: 000

[1 0 0 0 c c c c ] [0 n n n n n n n] [0 v v v v v v v]

dove: c = canale midi (4 bit), n = nota suonata (7 bit), v = velocità (7 bit)

2. Note on: attiva l'esecuzione di una nota. Ha il seguente formato:

I tre bit che identificano il tipo di messaggio sono: 001

[1 0 0 1 c c c c ] [0 n n n n n n n] [0 v v v v v v v]

dove: c = canale midi (4 bit), n = nota suonata (7 bit), v = velocità (7 bit)

3. Polyfonic aftertouch (key pressure): dopo che un tasto è stato premuto, può essere ancora mosso .

290
Capitolo 20. Il protocollo MIDI

per creare un effetto vibrato. Questo messaggio trasporta informazioni circa questo movimento. È
raramente implementato perché richiede un sensore per ogni tasto e dunque risulta abbastanza co-
stoso.

I tre bit che identificano il tipo di messaggio sono: 010

[1 0 1 0 c c c c ] [0 n n n n n n n] [0 p p p p p p p]

dove: c = canale midi (4 bit), n = nota suonata (7 bit), p = pressione (7 bit)

4. Channel pressure (aftertouch): Come il precedente solo che viene implementato un solo sensore
per tutta la tastiera-sintetizzatore. Un movimento su un tasto applicherà una vibrazione a tutte le
note suonate in quel momento sul canale in questione. Il controllo può essere applicato anche ad al-
tre grandezze come un tremolo o la frequenza di taglio di un filtro.

I tre bit che identificano il tipo di messaggio sono: 011

[1 0 1 1 c c c c ] [0 n n n n n n n] [0 p p p p p p p]

dove: c = canale midi (4 bit), n = nota suonata (7 bit), p = pressione (7 bit)

5. Program change: Con questo comando è possibile cambiare il suono assegnato ad un canale con un
-
altro suono.

I tre bit che identificano il tipo di messaggio sono: 100

[1 1 0 0 c c c c ] [0 p p p p p p p] [0 - - - - - - -]

dove: c = canale midi (4 bit), p = programma - suono (7 bit)

6. Control change: utilizzato per controllare parametri relativi al canale in questione come: volume, -

modulazione (applicata dal joystick presente su molte tastiere), pan. Per esempio per realizzare un
volume crescente su un certo strumento suonato su un certo canale, possiamo mandare una serie di
questi messaggi con valori di volume sempre crescenti.

I tre bit che identificano il tipo di messaggio sono: 101

[1 1 0 1 c c c c ] [0 n n n n n n n] [0 v v v v v v v]

dove: c = canale midi (4 bit), n = codice del controllo (volume, pan ecc) (7 bit), v = valore (7 bit)

7. Pitch Bending: permette di eseguire il bending (se non sapete cos'è, chiedete al vostro chitarrista di
fiducia) di una nota. In questo caso 128 diverse sfumature di bending sono poche soprattutto in un
bending lento e potrebbero generare un effetto 'scaletta'. Per questo vengono impiegati anche i 7 bit
del secondo data byte portando la risoluzione del bending a 14 bit ossia a 16384 gradazioni diverse.

I tre bit che identificano il tipo di messaggio sono: 110

[1 1 1 0 c c c c ] [0 B B B B B B B] [0 b b b b b b b]

dove: c = canale midi (4 bit), B = primi 7 bit del valore di bending, b = ultimi 7 bit

Kazama
Channel Mode Messages

291
CHANNEL MESSAGE

Channel Mode Message tÉE


Corso Audio Multimediale - di Marco Sacco
RALE Di UNA APPARECCHIATURA
INTERNAMENTE Ai Messaggi di CONTROL CHANCE
Relativamente ai Channel Voice Messages di tipo 6 (control change) possiamo avere 127 diversi codici
÷_ come volume, pan ecc. Gli
E- I primi 120 sono relativi a parametri tipici
(sono -i 7 bit del primo data byte).
ultimi 7 sono messaggi che agiscono sulla modalità di funzionamento di un canale e sono:
- - -

121 - Reset all controllers : tutti i parametri del dispositivi vengono posti pari al loro valore iniziale

=
.

(quello definito all'accensione del dispositivo).

122 - Local control on/off : Per spiegare il funzionaemto di questo tipo di messaggio riferiamoci alla fi-
gura seguente:

t
È

È *

;
'
' e
non È
*
← out

Local control

In una tastiera-sintetizzatore, la pressione di un tasto agisce su un circuito che accede ad un suono resi-
dente nella memoria e lo trasferisce all'uscita audio dove diventa un suono. Il segnale generato dal tasto
verso i circuiti della tastiera-sintetizzatore prende il nome di local control. Se la tastiera-sintetizzatore
viene anche collegata via MIDI, alla pressione di un tasto, una copia del segnale, che indica quale tasto è
stato premuto viene spedita tramite la porta MIDI Out. Questo segnale però rientra nella tastiera-
sintetizzatore dall'ingresso MIDI In andando ad agire di nuovo sul banco dei suoni. In questo modo si
genera un fastidioso effetto eco perché l'esecuzione di una nota viene generata da due eventi diversi: di-
rettamente dalla pressione dal tasto della tastiera-sintetizzatore e dallo stesso segnale che però fa il giro
passando dall'interfaccia MIDI del sequencer. Come si vede dalla figura, In una connessione MIDI il se-
gnale local control viene disattivato eliminando il problema.

123 - All notes off : su alcuni sequencer viene chiamato anche 'panic' o 'reset devices'. Può accadere che
alcuni messaggi MIDI non vengano ricevuti correttamente e dunque per esempio che non venga ricevuto
un messaggio di 'note off' lasciando una nota suonare indefinitamente. Questo messaggio manda un se-
gnale di tipo 'note off' a tutte le note.

124-125-126-127 : Gli ultimi 4 messaggi definiscono il cosiddetto MIDI mode ossia il modo in cui la
tastiera-sintetizzatore interpreta i comandi MIDI.

124-125 Omni mode off-on : Questi due messaggi attivano o disattivano la modalità Omni. Questa, se
attivata, fa in modo che nei messaggi MIDI venga ignorata l'informazione relativa al canale e dunque
ogni messaggio viene applicato a tutti i canali. Viceversa, quando la modalità è disattivata, ogni messag-
gio viene applicato al canale indicato nello status byte.

126-127 Mono On - Poly On : la modalità Mono on impone sul canale la possibilità di eseguire una
sola nota per volta. La modalità Poly on consente di eseguire più note contemporaneamente sul singolo
- -
canale [49].

292
Corso Audio Multimediale - di Marco Sacco

System Messages I. Ricevuti DA tutti gli STRUMENTI COLLEGATI

Messaggi di sistema

|
Questi messaggi sono spediti contemporaneamente su tutti i canali MIDI. Il messaggio ha la forma se-
guente:

[1 1 1 1 t t t t ] [0 d d d d d d d] [0 d d d d d d d]

dove: t = tipo di messaggio di sistema (4 bit), d = dati

Vi sono tre tipi di messaggio di sistema:

System common , sincronia a ,


qui ,

Questi comprendono:

• MTC: Midi Time Code (temporizzazione), per una dettagliata descrizione di questo argomento rife-
rirsi alla sezione relativa alla sincronizzazione .

• Song Position Pointer : Identificativo temporale di un punto della canzone.

• Song select: selezione di una canzone nella memoria del dispositivo.

• ⇐
End of exclusive: Fine della trasmissione di dati di sistema, viene descritto più avanti.

System real time


-
: sincronismo DEL Midi (TRA SEQUENZE RE Batterie Elettroniche e sincronizzatori )
Sono messaggi brevi (1 byte) che vengono spediti mischiati ai normali messaggi. Servono per mantenere


la sincronizzazione tra i sistemi collegati via MIDI. Questi messaggi vengono spediti contiuamente ad
un ritmo di 24 ogni quarto di nota quindi il numero di messaggi spediti nell'unità di tempo aumenta col
bpm del brano. Se la mole di dati MIDI da spedire è ingente, può convenire spedire i messaggi di tempo-
_

rizzazione su un'uscita MIDI separata.

(PARAMETRI Di
)
System Exclusive : LINGUAGGIO INTERNO di tipo di APPARECCHIATURA Sintesi ,
CONTROLLO E

- Funzionamento specifici di
Questi messaggi trasportano dati specifici del dispositivo in uso. Ogni dispositivo MIDI professionale è IG ?
dotato di questa funzionalità che permette di scaricare via MIDI tutta la memoria (come si dice: eseguire
un dump [50]). In questo modo tutti i settaggi che sono stati fatti sul dispositivo per un certo lavoro ven-
-
gono spediti per esempio su un computer dove vengono a- memorizzati. Nella necessità di impostare il di-
spositivo su configurazioni completamente diverse è molto utile e immediato utilizzare i settaggi salvati
su computer sotto forma di file ritrasferendoli nel dispositivo sempre via MIDI.

[49] Vale la pena di puntualizzare la differenza tra i termini polifonico e multitimbrico che indicano caratteristiche diverse di una
tastiera-sintetizzatore. Con il termine polifonico si intende che la tastiera-sintetizzatore è in grado di suonare più note contempora-
neamente sullo stesso canale MIDI. Multitimbrico significa che una tastiera-sitetizzatore è in grado di suonare più di uno stru-
mento contemporaneamente (ovviamente su canali MIDI diversi) mentre monotimbrico significa che può essere suonato un solo
strumento alla volta.
[50] In ambito informatico questo termine indica la generazione di una copia di riserva dei dati.

293
Capitolo 20. Il protocollo MIDI

General MIDI "

Il protocollo GM definisce una mappatura dei suoni associando ad ogni suono un determinato canale
MIDI. In questo modo una partitura MIDI ricavata utilizzando un certo tipo di tastiera o modulo potrà
essere suonata da un altro modulo senza che la corrispondenza dei suoni venga alterata. Senza questa
specifica ogni canale MIDI può riferirsi ad un qualsiasi strumento e dunque succede che per esempio un
pattern di batteria che viene spedito sul canale 1 venga suonato dal modulo in questione come un piano-
forte... Con il protocollo GM si definisce dunque uno standard che, se rispettato, permette di evitare que-
sti inconvenienti. All'interno del protocollo vengono inoltre definite altre specifiche riguardanti
l'aftertouch e altri parametri del protocollo MIDI. Una lista della mappatura degli strumenti è consulta-
bile nell'appendice relativa al GM .

294
MIDI: SINTASSI DEI MESSAGGI -

DÈI Databile

1 0 O I 0 I 0 0 0 1 I 0

Note on Midi chan Note number ( Cs ) Velocity Hot )

%
" mai mai
%:
" "

iii. .

FIG.15

La prima regola del codice MIDI-


sancisce la differenziazione tra Status byte (byte di stato) e Data byte (byte di dati). Lo Status
÷ .

byte fornisce la chiave di lettura che serve allo strumento ricevente per una corretta interpretazione dei byte di dati.

La seconda regola stabilisce che tutti i numeri compresi tra 128 e 255 sono degli Status byte, viceversa quelli compresi tra 0 e
-
127 sono dei Data byte. E- -
-

Il protocollo MIDI stabilisce anche quanti Data byte dovranno seguire per completare il messaggio stesso, che a seconda dei
casi può essere formato da 1, 2 o 3 byte.

STATUS BYTE
STATUS BYTE - DATA BYTE
STATUS BYTE - DATA BYTE 1 - DATA BYTE 2
MIDI: CATEGORIE DEI MESSAGGI
I messaggi MIDI sono suddivisi in 2 grandi categorie: CHANNEL MESSAGE e SYSTEM MESSAGE, i quali a loro volta sono
suddivisi in altre 5 categorie.

CHANNEL MESSAGE: Channel Voice Message - Channel Mode Message


SYSTEM MESSAGE: System Common Message - Real Time Message - System Exclusive Message

CHANNEL MESSAGE (indirizzati solo ai canali selezionati!)

Channel Voice Message: comprendono tutti quei messaggi generati da eventi di esecuzione, per esempio quale tasto è stato
premuto, quale interruttore o pulsante è stato selezionato, quale controller si sta utilizzando, oppure la dinamica della tastiera
(velocity) o informazioni relative ai cambi di programma (program change).
NOTE ON - NOTE OFF - POLYPHONIC KEY PRESSURE (AFTERTOUCH POLIFONICO) - CONTROL CHANGE - PROGRAM CHANGE -
CHANNEL PRESSURE (AFTERTOUCH) - PITCH BEND CHANGE

Channel Mode Message: non sono altro che una categoria all’interno dei messaggi di CONTROL CHANGE; dal punto di vista
della sintassi sono assolutamente identici, ma da quello del contenuto risultano completamente differenti. Infatti, questi
riguardano principalmente il controllo generale di una apparecchiatura e non un singolo parametro, per questa ragione
vengono definiti separatamente.

⇐ =
RESET ALL CONTROLLER - LOCAL CONTROL (ON-OFF) - ALL NOTES OFF (PANIC BUTTON) - OMNI MODE (ON-OFF) - MONO MODE
(CHANNEL ALLOCATION) - POLY MODE (ON-OFF)
-
MIDI: CATEGORIE DEI MESSAGGI
SYSTEM MESSAGE (ricevuti da tutti gli strumenti collegati!)

System Common Message: è un piccolo gruppo di messaggi che viene utilizzato per espletare particolari funzioni MIDI (tipo la
sincronia audio/video) specialmente quando nel sistema sono presenti apparecchiature quali: master keyboard, sequencer e
batterie elettroniche.
MIDI TIME CODE QUARTER FRAME (SMPTE TO MIDI) - SONG POSITION (POINTER) - SONG SELECT (NUMBER) - TUNE REQUEST (IN
DISUSO, ACCORDATURA SYNTH ANALOGICI)

System Real Time Message: riguardano il sincronismo del MIDI scambiato tra sequencer, sincronizzatori e batterie elettroniche
per rispettare il “tempo”; sono costituiti da un solo byte e possono essere inviati in qualsiasi momento, anche inframezzandosi ai
byte di altri messaggi.
TIMING CLOCK* - START - CONTINUE - STOP - ACTIVE SENSING (300 MS) - SYSTEM RESET
[Clock Per Quarter Note, la scansione in 24esimi consente una risoluzione fino alla terzina di 64esimi]

System Exclusive Message: si tratta di messaggi circoscritti al linguaggio interno di ciascun tipo di apparecchiatura e sono
utilizzati per programmare i parametri di sintesi, controllo e funzionamento, specifici di un determinato strumento; vengono
infatti scambiati tra modelli uguali o compatibili della stessa marca, tra software o inviati da master keyboard in grado di pilotare
qualsiasi apparecchiatura MIDI.
SYSTEM EXCLUSIVE - END OF EXCLUSIVE
MIDI: TRASMISSIONE DEI DATI
Trasmissione parallela: un’interfaccia parallela trasmette un’intera parola di un byte, in un unico ciclo di trasmissione su otto

÷ =
binari paralleli; questo consente di trasferire le informazioni molto velocemente, ma comporta una serie di svantaggi. I circuiti
che la compongono sono costosi e c’è un limite alla lunghezza dei cavi di collegamento che non possono superare la lunghezza
di 3 metri per garantire l’affidabilità della trasmissione.

10110101

Trasmissione seriale: un’interfaccia seriale trasmette le informazioni digitali un bit alla volta, cioè su un unico binario; questo la
rende più lenta
-
-
di quella parallela. La velocità di trasferimento di una parola di un singolo byte infatti è più lenta di otto volte e
viene quantificata in Baud (bit per secondo). I circuiti che compongono l’interfaccia seriale sono poco costosi e i cavi di

* ÷
collegamento possono raggiungere un massimo di quindici metri di lunghezza.

10110101

L’interfaccia MIDI è seriale con una velocità di 31,25 KBaud, un bit ogni 32 microsecondi (milionesimi di secondo). La

÷÷
trasmissione è asincrona; questo significa che l’inizio e la fine di ogni byte devono essere indicati da due bit speciali, lo start bit e
lo stop bit. Ogni byte MIDI inviato produce in effetti la trasmissione di 10 bit che in termini di tempo richiederà 320
.

microsecondi. La trasmissione inizia con l’invio di un bit uguale a zero ed è seguita dagli 8 bit che formano la parola da
trasmettere; per ultimo viene inviato il bit di stop che è uguale a 1 e che ripristina la tensione al valore alto normale.
MIDI: I CAVI

FIG.16

La trasmissione seriale dei dati viene effettuata lungo cavi a cinque fili ai cui estremi sono saldati dei connettori DIN 5 pin (poli).

PIN 1 e 3: riservati per futuri sviluppi del MIDI.

-7--7
PIN 2: collegamento della massa, previene da interferenze.
PIN 4: collegamento che assicura che la corrente (tensione 5 V) fluisca nella giusta direzione.
PIN 5: collegamento che trasporta i dati MIDI.

Il MIDI utilizza un solo filo all’interno del cavo di collegamento per trasferire informazioni in una sola direzione.
MIDI: LE PORTE

FIG.17

Tutte le apparecchiature MIDI-compatibili sono equipaggiate da porte MIDI che si presentano come normali connettori DIN
femmina a cinque poli. Tranne qualche vecchio modello, generalmente sono presenti 3 tipi di porte: IN, OUT e THRU.

MIDI OUT
I messaggi MIDI sono inviati tramite questa porta ai dispositivi collegati.

MIDI IN

I messaggi MIDI sono ricevuti tramite questa porta dai dispositivi collegati.

MIDI THRU


I messaggi MIDI che giungono alla porta MIDI IN sono duplicati e trasmessi ai dispositivi collegati. Si tratta di un utile
connessione per collegare strumenti in cascata.
MIDI SEQUENCE EDITING
I principali criteri di organizzazione sui sequencer MIDI sono 3:
- A tracce: si riferiscono solitamente a riprese di registrazioni separate o strati di una composizione.
- A canali: vengono registrati i dati assegnati ai diversi canali midi su un unica traccia.
- A pattern: i dati vengono divisi in sottosequenze.

Il trasferimento delle sequenze midi tra due programmi è possibile sia in tempo differito che in tempo reale. Il primo avviene

F-
tramite il formato standard midi file (SMF, suddiviso in tre tipi: 0, 1 e 2), il secondo avviene tramite i driver che consentono lo
scambio tra 2 programmi midi utilizzati in simultanea; questo consente anche la trasformazione dei dati.

→_e=⇐=⇐
La rappresentazione delle informazioni midi include i seguenti metodi principali:
- Event list: è una lista alfanumerica dei dati in ordine cronologico; una rappresentazione molto dettagliata e completa.
- Piano roll: deriva dal 1° metodo di notazione; in verticale ci sono le altezze mentre in orizzontale i tempi di start e durata.
- Common music notation: trascrizione in notazione tradizionale.
- Metrical grids: usato soprattutto per drum machines; l‘asse orizzontale rappresenta il tempo, diviso a seconda dell’unità ritmica
che si intende editare.
- Controller envelopes: utile per i controlli continui, rappresentati graficamente come inviluppi.
- Graphic faders: rappresentazione come fader grafici.

e audio. E-
- Digital audio waveforms: rappresentazione temporale della forma d’onda affiancata ai dati midi, utile per il confronto tra midi
-
-

Inoltre le principali operazioni di editing includono: time, pitch, amplitude, channel, program change e continuous controller
-

-
- - -

editing.
-
CENNI SULL’ OSC OPEN SOUD CONTROL
-

Da quel lontano 1983 ad oggi l’informatica musicale si è evoluta, i nostri computer hanno centuplicato la loro potenza e la loro
capacità di creare suoni. Ma il protocollo MIDI è sempre lo stesso, 16 canali, messaggi di nota ON e nota OFF, Control
Change… tante possibilità operative ma non più sufficienti ai fini musicali del nostro tempo. Il limite, dovuto al tipo di cavo
usato per i collegamenti e al tipo di connettore (DIN- 5/180), è principalmente sulla quantità di informazioni che due o più
apparati possono scambiarsi contemporaneamente. -
Per ovviare a questo problema, uno degli istituti musicali più conosciuti al mondo, il Center for New Music and Audio
Technology (CNMAT) di Berkeley, ha studiato un nuovo tipo di protocollo÷
chiamato Open Sound Control (OSC).
-

Questo rivoluzionario sistema, basato sulla connettività e sul concetto di networking applicato a strumenti musicali, computer,
controller e multimedia device offre una banda per lo scambio di dati molto più ampia, 1024 messaggi simultanei contro i 128
del MIDI, minore latenza e risoluzione dei dati a 32bit. Inoltre, proprio per
- -
-7ITL
come è concepito, si presta a ‘viaggiare’ nativamente
su differenti tipologie di reti, dalla comune ethernet, all’usb, dal bluetooth al wireless alla firewire e anche sulle vecchie RS232
-

seriali. -
- -
-
e- - -

Tra tutti questi ‘mezzi di locomozione’ per i nostri dati il più interessante per i nostri scopi è forse il wireless che ci permette di
interfacciare con i nostri computer dispositivi quali iphone, ipod touch e wiimote aprendo la strada ad un’ampia varietà di
scenari possibili.
GESTURAL INPUT
Uno strumento è la più tradizionale interfaccia per musicisti, che media la gestualità e il suono, ma la tecnologia elettronica ha
dato vita alla progettazione di nuovi strumenti musicali, i controller o input device. Le input device trasformano i gesti umani in
forma elettrica, sia essa analogica o digitale; questa trasduzione provvede a 2 vantaggi principali:!

- ognuno delle dozzine di controller può pilotare lo stesso generatore di suono.!


- grande flessibilità nella timbrica e nell’intonazione.

Un modello semplice di controller è un sensore connesso ad un circuito di interfaccia elettronica. Il sensore risponde ad uno
stimolo fisico, come la pressione su di un tasto, la pressione dell’aria etc. Questa azione è traslata dal circuito di interfaccia in un
segnale di controllo continuo (faders, pedali, ruote) o discreto (pulsanti, funzioni on/off).

Il sensore è tipicamente meccanico o analogico, e ad un certo punto l’interfaccia trasforma la sua uscita in forma digitale, di
solito un messaggio MIDI.

La domanda principale nel disegnare controller per sintetizzatori è se modellarli o meno su strumenti già esistenti. I vantaggi di
usare strumenti tradizionali come modello sono innumerevoli; ma i controlli tradizionali hanno uno svantaggio: la potenza
complessiva di un sintetizzatore rimane limitata al controllo di uno strumento tradizionale; per esplorare la complessa tavolozza
timbrica degli strumenti elettronici di oggi, abbiamo bisogno di controller speciali confezionati sulle loro capacità uniche.
GESTURAL INPUT
Numerosi sono state le performance con strumenti elettronici analogici che hanno preceduto i primi esperimenti nel campo
delle interfacce gestuali digitali.

Theremin (1919, Lev S. Termen) - Ondes Martenot (1928, Maurice Martenot) - Croix Sonore (1934, Nicolai Obukhov) -
-

Ondioline (1941, Georges Jenny) - Electronic Sackbut (1948, Hugh Le Caine)...


-

http://www.120years.net
http://www.mathieubosi.com/zikprojects/120YearsOfElectronicMusic.pdf
http://www.indiana.edu/~emusic/elechist.htm

Il percorso storico della progettazione delle interfacce gestuali può essere così riassunto:


Strumenti elettronici analogici tipicamente basati su interfacce gestuali tradizionali
Strumenti elettronici digitali tipicamente basati su interfacce gestuali tradizionali
Strumenti elettronici digitali basati su interfacce gestuali innovative
Iper-strumenti: strumenti tradizionali equipaggiati di sensori
...
Performance interattive gestuali
Motion capture (kinect, myo, leap, etc.)
EQUALIZZATORI
Un equalizzatore è un circuito in grado di amplificare o attenuare un certa banda di frequenze e di lasciarne altre inalterate.
÷ - -

Esistono 2 tipologie principali di equalizzatore:

Equalizzatore a campana (Peak Bell EQ)


Guadagno (attenuazione/amplificazione - cut/boost)
Agisce sull'ampiezza della campana che può essere sia positiva (amplificazione) che negativa (attenuazione). L'amplificazione
massima è un parametro che dipende dalla qualità del circuito.
Frequenza di taglio (frequenza centrale - center frequency)
È la frequenza alla quale si ha il guadagno massimo (o minimo) sulla campana. Generalmente un potenziometro ne consente la
- -

variazione permettendo di centrare la campana esattamente nella zona di frequenze che vogliamo manipolare.
Fattore di merito Q (Q factor)
È un parametro che misura l'ampiezza della campana cioè l'ampiezza della banda di frequenze che vengono amplificate (o
attenuate). È calcolato in base alla formula Q= fc/larghezza relativa di banda, dove la larghezza relativa di banda è misurata a

HTAdibaF
3dB al di sotto del picco. Il fattore di merito Q è indipendente dalla zona di frequenze in cui lo si sta considerando.

Equalizzatore a scaffale (Shelving EQ)


Questo tipo di equalizzatore viene utilizzato per avere un controllo sugli estremi dello spettro delle frequenze udibili.
Frequenza di taglio (roll-off): Calcolata nel punto in cui la curva di guadagno decade di 3dB rispetto al valore massimo.
Guadagno (gain): Applica una amplificazione o una attenuazione alla banda del segnale superiore alla frequenza di taglio.
-
EQUALIZZATORI
-

In base al numero di variabili gestibili dall’utente, gli equalizzatori si suddividono in 4 ulteriori tipologie:

Parametrici
È possibile modificare tutte e tre le grandezze che caratterizzano la campana di equalizzazione: frequenza centrale (fc),
guadagno (A), fattore di merito (Q). I mixer professionali hanno su ogni canale un equalizzatore parametrico a 4 bande: bassi,
medio-bassi, medio-alti, alti.

Semi parametrici

1.5). ÷
Il fattore di merito Q non è variabile cioè la forma della campana è fissa (generalmente Q viene fissato ad un valore circa pari a
-
-

Di picco

F-
Sono fissi i valori di fc e Q ed è possibile intervenire solo sul guadagno.
installati su mixer di fascia bassa.
-
Questi EQ sono il tipo più economico e vengono
-

Grafico

÷
È composto da una serie di singoli equalizzatori a campana. La larghezza della campana e il numero di bande variano a seconda
del contesto operativo per il quale l'equalizzatore viene disegnato: commerciale, semi-professionale, professionale.

Gli equalizzatori possono inoltre essere di tipo attivo o passivo, in base alla possibilità di operare un guadagno sul segnale o
- -

meno. -
FILTRI

-
I filtri vengono utilizzati per eliminare delle bande di frequenze dal segnale originario. Generalmente vengono realizzati con una
circuiteria passiva e sono identificati da una frequenza di taglio fc (sempre calcolata nel punto in cui il guadagno subisce una
perdita pari a 3dB).

Filtri passa alto (Hi Pass Filter)


_ -

Filtri passa basso (Low Pass Filter)


Hifi: pass
IIII .IT?nterrauodi
Filtri passa banda (Band Pass Filter)
Filtri a reiezione di banda (Band Reject Filter)
- -

Filtri passa tutto (All Pass Filter) FREQUENZE


si applicatene UNO SFASAMENTO indesiderato
La pendenza di un filtro, o Slope, stabilisce quanto rapidamente l'ampiezza decada. La pendenza si misura in dB/ottava cioè
-

→ di quanti dB diminuisce il guadagno in÷un'ottava (sappiamo già che a tale termine corrisponde un raddoppio
-

fornisce la misura
della frequenza). Talvolta la pendenza è espressa in poli (oppure ordine del filtro); in entrambi i casi tale valore va moltiplicato
per 6 dB/ottava.
6 dB/oct = 1° ordine, un polo.
12 dB/oct = 2° ordine, 2 poli.
18 dB/oct = 3° ordine, 3 poli.
24 dB/oct = 4° ordine, 4 poli.
PROCESSORI DI SEGNALE
Compressore
È sicuramente il processore più importante. Il compressore agisce sulla dinamica del segnale di ingresso riducendone l'ampiezza
quando questa supera una certa soglia; la riduzione viene espressa con un rapporto, per esempio 3:1. Ciò significa che quando
il segnale supera la soglia, la parte di segnale al di sopra di questa viene ridotta di 1/3.

• Threshold (Soglia): Questo valore è espresso in dB e determina la soglia oltre la quale il compressore entra in azione.
• Ratio (Rapporto): Quantifica la riduzione di ampiezza del segnale al di sopra della soglia.
• Attack time (Tempo di attacco): Indica il tempo impiegato dal compressore per entrare in azione dopo che il segnale ha
superato la soglia e viene indicato in millisecondi.
• Release time (Tempo di rilascio): è il tempo che impiega il compressore per ritornare all'assenza di compressione ossia a un
rapporto 1:1 dopo che il segnale di ingresso è sceso al di sotto della soglia. Serve a conferire un'azione più dolce all'azione del
compressore.
=
• Hold time (Tempo di tenuta): Dopo che l'ampiezza del segnale di ingresso scende al di sotto della soglia il compressore
-
- -

riduce la sua azione durante il tempo di rilascio fino a tornare al rapporto di compressione 1:1. Il tempo di tenuta permette di
ritardare l'inizio del tempo di rilascio dopo che il segnale è sceso sotto la soglia. In pratica mantiene più a lungo il compressore
in azione.
PROCESSORI DI SEGNALE
• Side chain: Il circuito compressore può essere visto come un amplificatore controllato da una tensione in cui la tensione

e- =
controllante risulta essere quella del segnale di ingresso. Se la tensione del segnale di ingresso supera la soglia, il compressore
entra in azione. Non è necessario che il compressore sia controllato dalla tensione del segnale di ingresso, è possibile utilizzare
quasiasi segnale controllante. Questa peculiarità dei compressori permette tutta una serie di artifici molto interessanti.
Vediamone un esempio: il casoE- in cui la cassa della batteria viene coperta dalla nota di basso suonata contemporaneamente,
soprattutto sulle battute dispari (1 e 3 della musica in 4/4). Questà è una situazione abbastanza comune anche perché il
contenuto in frequenza dei due suoni è simile dunque vengono facilmente confusi.
• Curve di compressione: hard knee (ginocchio duro), soft knee (ginocchio morbido).
• Risposta del compressore: Peak (il compressore risponde ai picchi del segnale e dunque misura esattamente l'ampiezza della
tensione di ingresso) o RMS (il compressore risponde al Root Mean Square del segnale, cioè il suo valore efficace, dunque ha
un funzionamento più dolce e meno a scatti).
÷ È
ÈI
Compressore con punto di rotazione ⇐ seme
La curva di compressione in questo caso si identifica con la retta a guadagno unitario. Quando questa viene ruotata si vede che
al di sopra della soglia viene realizzata una compressione mentre il segnale al di sotto della soglia viene amplificato.

Compressore multibanda
Questo modulo è in grado di realizzare ✓ una suddivisione del segnale in bande di frequenza e di operare una diversa
- -

compressione su ciascuna banda. Per fare ciò il modulo monta un circuito crossover che suddivide il segnale in bande. Ogni
uscita del crossover viene mandata all'ingesso di un compressore diverso ognuno dotato dei propri controlli indipendenti dagli
altri.
PROCESSORI DI SEGNALE
De-esser
Il termine de-essing indica l'operazione di eliminazione di quel fastidioso fruscio che si ha in certe registrazioni vocali in
corrispondenza delle lettere con maggiore contenuto di alte frequenze come la 's'. Il fruscio dipende dal fatto che il segnale in
quel momento satura alla frequenza della lettera 's' generando una distorsione. è immediato pensare ad un'equalizzazione alla
frequenza incriminata per risolvere il problema. Questa soluzione non è tuttavia praticabile in quanto modifica il contenuto in
frequenza dell'intera registrazione alterandolo irrimediabilmente. Per realizzare un corretto de-essing si ricorre all'uso di un
compressore abbinato ad un equalizzatore.
Il funzionamento è il seguente: il segnale originario viene fatto passare in un equalizzatore in cui le 's' vengono evidenziate
ancora di più mentre tutte le altre frequenze vengono attenuate al massimo.
Il segnale che esce dall'equalizzatore ha un'ampiezza rilevante solo in presenza delle 's'. Questo segnale viene spedito
nell'ingresso sidechain del compressore con l'effetto di metterlo in azione solo in corri- spondenza delle 's'. Dunque ogni volta
che la 's' si presenta, il segnale uscito dall'equalizzatore supera la soglia fissata sul compressore che dunque entra in azione
abbassando il volume della voce ed evitando la saturazione. Finita la 's' il volume della voce torna quello originario.

Limiter
Quando in un compressore il rapporto di compressione viene portato ad un valore superiore a 10:1, questo assume il
comportamento di un limiter. Con riferimento alla figura precedente, il segnale che ha superato il valore di soglia viene
riportato al va- lore di soglia stesso. Ciò significa che il segnale non supera mai la soglia. Nonostante questa soluzione introduca
forti distorsioni, in quanto ha un comportamento equivalente alla saturazione, viene a volte impiegata per proteggere le
apparecchiature da picchi inaspettati che potrebbero danneggiarli.
PROCESSORI DI SEGNALE
Gate
Si tratta di un circuito in grado di far passare il segnale di ingresso verso l'uscita solo se l'ampiezza di questo è maggiore di una
prefissata soglia. I controlli del Gate sono simili a quelli di un compressore:

• Threshold (Soglia): al di sopra della soglia il segnale passa e arriva all'uscita. Al di sotto della soglia il segnale viene fermato o
meglio, come vedremo tra un momento, attenuato.
• Range-Floor (Intervallo di attenuazione) : determina la quantità di attenuazione introdotta dal modulo (misurata in dB). Valori
maggiori di -50 dB mantengono il gate praticamente chiuso (l'equivalente di questo controllo sul compressore è il rapporto di
compressione).
• Attack time (Tempo di attacco): tempo di apertura del gate quando il segnale supera la soglia.
•Hold time (Tempo di tenuta): Il tempo per il quale il gate viene tenuto aperto anche quando il segnale è ridisceso al di sotto
della soglia.

Expander
Il suo funzionamento è simile a quello del compressore con la differenza che invece di avere un intervallo di attenuazione
espresso in dB troviamo un rapporto di espansione.
EFFETTI
RT 660

90

Imiti al Impulse
DirectSound


Reflections 1

Reflections 2
«

GRAPPOLO di Riverberazioni

3045 →

FIG.18

Riverbero
=
Il riverbero è il suono che permane in un ambiente quando il segnale diretto si è esaurito. Per immaginarlo pensiamo ad un
esempio macroscopico: un colpo di pistola in una cattedrale. In effetti, capita raramente di udire colpi di pistola nelle cattedrali
ma è comunque una situazione facile da immaginare dal punto di vista del suono. Dopo lo sparo (il suono fuoriuscito dalla -

pistola si esaurisce quasi subito) il suono rimbomba per diversi secondi estinguendosi lentamente. Questo suono è originato
dalle riflessioni del suono originario sulle superfici che incontra. Dunque ad ogni riflessione l'onda sonora perde una parte di
energia fino a che questa non si estingue.
EFFETTI
La figura mostra l'ampiezza delle varie riflessioni e gli istanti di tempo in cui si verificano. Il primo suono che raggiunge
l'ascoltatore è sempre il segnale diretto (Direct Signal) essendo questo il percorso minimo percorso effettuato dal suono.
Dopo una breve pausa denominata ritardo iniziale (pre-delay) arrivano le prime riflessioni (early reflections) che sono quelle
che hanno incontrato una sola superficie prima di arrivare all'ascoltatore. Infine arrivano le ultime riflessioni (late reflections)
che sono quelle che hanno incontrato più di una superficie. Queste arrivano sovrapponendosi l'una con l'altra generando un
suono mediamente continuo. Le ultime riflessioni, per il loro carattere ravvicinato nel tempo, prendono anche il nome di
grappolo di riverberazione, in inglese RC: reverb cluster.
Per riprodurre un tale comportamento si sono adottate tecniche ingegnose che vengono di seguito citate in quanto sono
simulate sui moderni moduli di riverbero digitali.

• Spring (Riverbero a molla) Per simulare l'effetto del riverbero viene impiegata una molla all'interno di una cavità ai cui estremi
vengono posti due trasduttori che applicano alla molla il segnale audio. Un microfono viene impiegato per la ripresa del suono
così generato. Non è una simulazione molto realistica; la molla viene impiegata su alcuni amplificatori per chitarra mentre è
raramente utilizzata per la voce. Un modulo digitale che implementa questa modalità può essere utilizzato per conferire al
suono di una chitarra elettrica un carattere anni '60.
• Plate (Riverbero a piastra) Su una piastra, sospesa verticalmente, vengono applicati due trasduttori, uno che trasmette il
segnale di ingresso e uno che preleva la vibrazione così generata. Posizionando in punti diversi i due trasduttori è possibile
variare le caratteristiche dell'effetto. Questa tecnica ha una risposta più fedele del riverbero a molla, soprattutto alle alte
frequenze.
• Chamber (Camera di riverbero) La sorgente sonora è posta all'interno di una stanza le cui pareti hanno particolari
caratteristiche riflettenti. Anche qui viene effettuata la ripresa del suono di ambiente attraverso un microfono.
EFFETTI
Le unità di riverbero dell'ultima generazione praticamente sono tutte digitali e impiegano algoritmi di simulazione molto
sofisticati (la cui relizzazione è resa possibile
e- grazie al continuo aumento della potenza di calcolo disponibile). Di seguito viene
-

riportata una lista dei controlli fondamentali.

•! Pre Delay: Consente di modificare il tempo del Pre Delay. Ritardo iniziale
•! Early Reflections: Durata delle prime riflessioni.
•! Decay: Durata del decadimento delle ultime riflessioni.
•! Mix: La percentuale tra segnale asciutto e bagnato (riverberato).
•! Dimensioni della stanza: spesso i valori sono riferiti alle forme-dimensioni degli ambienti
(hall, room, chamber, cathedral, spring/plate).
•! HF Ratio: le alte frequenze sono le prime ad essere attenuate durante le riflessioni. Questo controllo permette di simulare le
capacità di assorbimento delle superfici.
•! Stereo width: allarga o restringe l'immagine stereo del riverbero.

Alcune unità permettono di definire un tempo di decadimento diverso a seconda della frequenza.
-
EFFETTI
Delay
- distanziate nel tempo ingenerando un 'effetto eco'. Inizialmente veniva generato utilizzando un
Aggiunge repliche del segnale
- -

registratore analogico sfruttando la distanza tra la testina di riproduzione e quella di registrazione. Mandando l'uscita del canale
sinistro all'ingresso del canale destro e viceversa e lavorando sulla velocità del nastro si riusciva a ottenere un effetto delay
-

versatile e, per l'epoca, rivoluzionario. L'era digitale ha semplificato molto la realizzazione di questo effetto consentendo inoltre
di introdurre innovazioni interessanti come il ping pong delay (le repliche sono alternate sui canali destro e sinistro) e il multi-
tap (le repliche si susseguoni con tempi diversi creando effetti di dissolvenza). Nella pratica musicale il tempo di delay viene
spesso posto pari al tempo di una battuta. In questo modo le repliche vanno a tempo con la musica creando un effetto che
contribuisce a riempire il suono. Per calcolare il tempo di delay (in millisecondi) necessario per un pezzo di n battute al minuto
(bpm - beats per minute) possiamo ricorrere alla seguente formula:

tempo di delay (ms) = 60000 ms/bpm


UN Minuto : battiti per minuto

1-
Delay
=
=
per esempio una sinusoide). Vediamo cosa succede in una tale situazione considerando un segnale sinu-
soidale:
EFFETTI

" ¥:÷÷ :
¥V;È
:

sefifaeaatomassimomexaseniondat.se '

FIG.19
Sinusoidi sfasate

La forma d'onda superiore è il nostro segnale originario che supporremo costituito da una sinusoide e

Phaser dalla prima armonica. La seconda forma d'onda è identica alla precedente ma ha un ritardo variabile che
al massimo è pari a mezza semionda. Dunque immaginiamo la seconda forma d'onda oscillare sull'asse

-
Questo effetto combina
orizzontale tra 0 e la posizione in cui si trova in figura. Quando si trova sullo 0, le due forme d'onda
il segnale originario e una sua versione ritardata in cui il ritardo viene modulato (ciò significa che varia
sono in fase e riscontriamo un rinforzo di tutte le frequenze componenti il segnale. Quando si trova nella
posizione ritardata (come in figura), notiamo una cancellazione della prima armonica e un rinforzo della
-

continuamente e l'andamento della variazione è definito da una funzione come per esempio una sinusoide).
seconda. Dunque il contenuto in frequenza del segnale originario è stato modificato. Tutte le posizioni
intermedie agiscono in misura diversa sia sulla prima che sulla seconda armonica. Riassumendo, l'effetto

- che supporremo costituito da una sinusoide e dalla prima armonica. La


phasing consiste nel sommare al segnale originario una sua replica ritardata in cui il tempo di ritardo è
La forma d'onda superiore è il nostro segnale originario
modulato secondo una determinata forma d'onda (se il ritardo non fosse modulato otterremmo una varia-
zione statica del contenuto in frequenza del segnale originario, modulando rendiamo più interessante

seconda forma d'onda è identica alla precedente l'effetto).


ma ha un ritardo variabile che al massimo è pari a mezza semionda. Dunque
Di seguito viene riportato un suono su cui è stato applicato un effetto Phaser.
immaginiamo la seconda forma d'onda oscillare sull'asse orizzontale 92
tra 0 e la posizione in cui si trova in figura.
Quando si trova sullo 0, le due forme d'onda sono in fase e riscontriamo un rinforzo di tutte le frequenze componenti il
segnale. Quando si trova nella posizione ritardata (come in figura), notiamo una cancellazione della prima armonica e un
rinforzo della seconda. Dunque il contenuto in frequenza del segnale originario è stato modificato.
Tutte le posizioni intermedie agiscono in misura= diversa sia sulla prima che sulla seconda armonica.
EFFETTI
Riassumendo, l'effetto phasing consiste nel sommare al segnale originario una sua replica ritardata in cui il tempo di ritardo è
modulato secondo una determinata forma d'onda (se il ritardo non fosse modulato otterremmo una variazione statica del
contenuto in frequenza del segnale originario, modulando rendiamo più interessante l'effetto).

I controlli tipici di cui viene dotato un effetto phaser sono i seguenti:

•! Rate: la velocità di variazione del tempo di delay (è la frequenza del modulatore LFO).
•! Mix: miscela il segnale originario e quello manipolato.
•! Feedback: controlla la quantità di phasing applicata.

Flanger
Estende l'effetto phasing aggiungendo anche un pitch shifter ossia un circuito in grado di aumentare o diminuire la tonalità del
segnale (l'esempio classico di pitch shifting è quello in cui si accelera o si rallenta lo scorrimento di un nastro magnetico). Per
dare una spiegazione pratica di questo fenomeno pensiamo (come al solito) ad una sinusoide ad una certa frequenza registrata
su un nastro magnetico. Aumentando la velocità del nastro avremo come risultato che la sinusoide viene riprodotta più
velocemente e ciò equivale alla generazione di una sinusoide a frequenza maggiore.

Chorus
Presenta un'ulteriore estensione rispetto al Phaser e al Flanger aggiungendo un modulo che introduce variazioni di ampiezza sul
segnale manipolato.Le variazioni di tempo, ampiezza e pitch restituiscono un effetto simile al suono di un coro da cui il nome
dell'effetto.
EFFETTI
Pitch Shifter
Questo effetto, come precedentemente accennato, è in grado di aumentare o diminuire la tonalità del segnale di ingresso.
Questa proprietà può essere impiegata in modi molto diversi e interessanti. Per esempio si può regolare l'effetto in modo che
restituisca la nota suonata in ingresso aumentata di un'ottava (questa modalità viene a volte usata sugli assoli di chitarra
elettrica).

Tremolo
Applica sul segnale di ingresso modulazioni di ampiezza. La frequenza del LFO controlla la rapidità della modulazione
dell'ampiezza del segnale audio.

Vibrato
Applica sul segnale di ingresso modulazioni di tono (frequenza). In questo caso un LFO modula la frequenza del segnale.

Distorsore
Non è esagerato affermare che questo effetto ha cambiato la storia della musica. La nascita del Rock infatti deve molto
all'invenzione di questo effetto scoperto per caso come risultato di un'errata amplificazione. Il principio di funzionamento del
distorsore è molto semplice. Quando l'ampiezza di un segnale supera la soglia massima consentita all'ingresso di un
amplificatore, si incorre nel fenomeno chiamato saturazione. Questo significa che quando il segnale di ingresso è minore della
soglia, l'amplificatore funziona correttamente e riproduce in uscita la forma d'onda amplificata. Quando però il segnale di
ingresso supera la soglia, l'amplificatore ha raggiunto il suo massimo e non è in grado di amplificare ulteriormente la forma
d'onda.
segnale di ingresso ridiscende al di sotto della soglia l'amplificatore ricomincia a funzionare corretta-
EFFETTI
mente. La figura seguente illustra la curva di amplificazione di un amplificatore e la sua azione su un se-
gnale di ingresso di tipo sinusoidale che presenta dei massimi al di sopra della soglia.

FIG.20
Effetto della saturazione su una sinusoide
Ciò si traduce in un'uscita costante pari al massimo consentito per l'amplificazione per tutto il tempo che il segnale di ingresso
Dunque in uscita abbiamo un segnale 'saturato'. La saturazione introduce una brusca variazione del se-
rimane al di sopra della soglia.
gnale Quando
che non segueil più segnale di ingresso
il suo andamento ridiscende
sinusoidale al disignifica
naturale e questo sottochedella soglia
il nuovo segnalel'amplificatore ricomincia a
funzionare correttamente. Lacontiene
figuranuoveseguente
frequenze piùillustra la curva
alte di quella di amplificazione
originaria. Vediamo questo fattodi dal un
puntoamplificatore
di vista della teo- e la sua azione su un se-
ria dei segnali facendo riferimento alle nozioni introdotte nella relativa sezione .
gnale di ingresso di tipo sinusoidale che presenta dei massimi al di sopra della soglia.
Dunque in uscita abbiamo unAbbiamosegnale 'saturato'. La saturazione introduce una brusca variazione del segnale che non segue più il
detto più volte che qualsiasi segnale complesso è riconducibile alla somma di sinusoidi a di-
verse frequenze (e fasi). Più brusche sono le transizioni presentate dal segnale, più frequenze sono ne-
suo andamento sinusoidale cessarie
naturale e questo
per riprodurlo significa
in termini cheGuardando
di sinusoidi. il nuovo segnale
ora la sinusoudecontiene nuove
saturata di figura frequenze più alte di quella
ci accor-
giamo che sono state introdotte delle brusche transizioni e dunque nello spettro devono essere comparse
originaria. Vediamo questo fatto dal frequenze
delle nuove punto edisono vista della
queste teoria ildei
che generano suonosegnali facendo
tipico della distorsione.riferimento
Dunque la distor-alle nozioni introdotte nella
relativa sezione .Abbiamo detto piùstatovolte
sione allo puro siche
ottienequalsiasi segnaledicomplesso
alzando il guadagno un pramplificatoreè riconducibile
in modo che parte del allasegnale
somma di sinusoidi a diverse
che poi andrà all'amplificatore finale . superi in certi punti il suo valore di soglia. Un bell'amplificatore
frequenze (e fasi). Più brusche sono
Marshall le transizioni
valvolare presentate
è in grado di generare dalsuono
un bellissimo segnale, più frequenze
di distorsione. Se non ne avetesono necessarie per riprodurlo in
uno, potete
termini di sinusoidi. Guardandousare unora la che
effetto sinusoude
simula al suo saturata di figura
interno la saturazione, ciseaccorgiamo
anche chesaràsono
la qualità dell'effetto diversa.state introdotte delle brusche

transizioni e dunque nello spettro devono essere comparse delle nuove frequenze e sono queste che generano il suono tipico
della distorsione. Dunque la distorsione allo stato puro si ottiene 96 alzando il guadagno di un pramplificatore in modo che parte
del segnale che poi andrà all'amplificatore finale . superi in certi punti il suo valore di soglia.
EFFETTI
Exciter
Questo effetto introduce leggere saturazioni sul segnale di ingresso. Come detto, una saturazione genera nuove armoniche
dipendenti dal contenuto in frequenza del segnale di ingresso. Quindi l'exciter è in grado di generare alte frequenze a partire da
segnali che ne difettano. è per esempio il caso di alcune voci, che per quanto intonate, in fase di missaggio mancano di
'mordente'. L'effetto è in grado di conferire a queste voci caratteristiche come la brillantezza e la definizione. A volte un exciter
viene impiegato su un intero mix al fine di equilibrarne il contenuto in frequenza. Un altro utilizzo è nel campo radiotelevisivo: a
volte le pubblicità vengono trattate con un exciter in modo da risaltare maggiormente ri- spetto ai suoni della normale
programmazione.

Wah-wah
Questo effetto viene applicato principalmente alle chitarre elettriche e acustiche. Consiste in un filtro passa basso che presenta
un picco in corrispondenza della frequenza di taglio.
La frequenza di taglio viene modificata manualmente anzi, per essere precisi, con il piede che aziona un potenziometro, oppure
modulata con un LFO o ancora può essere controllata dall'ampiezza del segnale di ingresso. Ciò significa che quando una corda
viene pizzicata, il segnale si trova nella fase di attacco e dunque ha l'ampiezza maggiore. Ciò si traduce in una frequenza di taglio
elevata. Man mano che l'inviluppo del suono decade, diminuisce anche la frequenza di taglio. Questa traslazione della frequenza
di taglio genera il suono tipico del Wah-Wah.
EQUALIZZATORI
Un equalizzatore è un circuito in grado di amplificare o attenuare un certa banda di frequenze e di lasciarne altre inalterate.

XX
Esistono 2 tipologie principali di equalizzatore:

Equalizzatore a campana (Peak Bell EQ)


Guadagno (attenuazione/amplificazione - cut/boost)
Agisce sull'ampiezza della campana che può essere sia positiva (amplificazione) che negativa (attenuazione). L'amplificazione
massima è un parametro che dipende dalla qualità del circuito.
Frequenza di taglio (frequenza centrale - center frequency)
È la frequenza alla quale si ha il guadagno massimo (o minimo) sulla campana. Generalmente un potenziometro ne consente la
variazione permettendo di centrare la campana esattamente nella zona di frequenze che vogliamo manipolare.
Fattore di merito Q (Q factor)
È un parametro che misura l'ampiezza della campana cioè l'ampiezza della banda di frequenze che vengono amplificate (o
attenuate). È calcolato in base alla formula Q= fc/larghezza relativa di banda, dove la larghezza relativa di banda è misurata a
3dB al di sotto del picco. Il fattore di merito Q è indipendente dalla zona di frequenze in cui lo si sta considerando.

Equalizzatore a scaffale (Shelving EQ)


Questo tipo di equalizzatore viene utilizzato per avere un controllo sugli estremi dello spettro delle frequenze udibili.
Frequenza di taglio (roll-off): Calcolata nel punto in cui la curva di guadagno decade di 3dB rispetto al valore massimo.
Guadagno (gain): Applica una amplificazione o una attenuazione alla banda del segnale superiore alla frequenza di taglio.
EQUALIZZATORI
In base al numero di variabili gestibili dall’utente, gli equalizzatori si suddividono in 4 ulteriori tipologie:

XX
Parametrici
È possibile modificare tutte e tre le grandezze che caratterizzano la campana di equalizzazione: frequenza centrale (fc),
guadagno (A), fattore di merito (Q). I mixer professionali hanno su ogni canale un equalizzatore parametrico a 4 bande: bassi,
medio-bassi, medio-alti, alti.

Semi parametrici
Il fattore di merito Q non è variabile cioè la forma della campana è fissa (generalmente Q viene fissato ad un valore circa pari a
1.5).

Di picco
Sono fissi i valori di fc e Q ed è possibile intervenire solo sul guadagno. Questi EQ sono il tipo più economico e vengono
installati su mixer di fascia bassa.

Grafico
È composto da una serie di singoli equalizzatori a campana. La larghezza della campana e il numero di bande variano a seconda
del contesto operativo per il quale l'equalizzatore viene disegnato: commerciale, semi-professionale, professionale.

Gli equalizzatori possono inoltre essere di tipo attivo o passivo, in base alla possibilità di operare un guadagno sul segnale o
meno.
FILTRI
I filtri vengono utilizzati per eliminare delle bande di frequenze dal segnale originario. Generalmente vengono realizzati con una

XX
circuiteria passiva e sono identificati da una frequenza di taglio fc (sempre calcolata nel punto in cui il guadagno subisce una
perdita pari a 3dB).

Filtri passa alto (Hi Pass Filter)


Filtri passa basso (Low Pass Filter)
Filtri passa banda (Band Pass Filter)
Filtri a reiezione di banda (Band Reject Filter)
Filtri passa tutto (All Pass Filter)

La pendenza di un filtro, o Slope, stabilisce quanto rapidamente l'ampiezza decada. La pendenza si misura in dB/ottava cioè
fornisce la misura di quanti dB diminuisce il guadagno in un'ottava (sappiamo già che a tale termine corrisponde un raddoppio
della frequenza). Talvolta la pendenza è espressa in poli (oppure ordine del filtro); in entrambi i casi tale valore va moltiplicato
per 6 dB/ottava.
6 dB/oct = 1° ordine, un polo.
12 dB/oct = 2° ordine, 2 poli.
18 dB/oct = 3° ordine, 3 poli.
24 dB/oct = 4° ordine, 4 poli.
PROCESSORI DI SEGNALE
Compressore

XX
È sicuramente il processore più importante. Il compressore agisce sulla dinamica del segnale di ingresso riducendone l'ampiezza
quando questa supera una certa soglia; la riduzione viene espressa con un rapporto, per esempio 3:1. Ciò significa che quando
il segnale supera la soglia, la parte di segnale al di so- pra di questa viene ridotta di 1/3.

• Threshold (Soglia): Questo valore è espresso in dB e determina la soglia oltre la quale il compressore entra in azione.
• Ratio (Rapporto): Quantifica la riduzione di ampiezza del segnale al di sopra della soglia.
• Attack time (Tempo di attacco): Indica il tempo impiegato dal compressore per entrare in azione dopo che il segnale ha
superato la soglia e viene indicato in millisecondi.
• Release time (Tempo di rilascio): è il tempo che impiega il compressore per ritornare all'assenza di compressione ossia a un
rapporto 1:1 dopo che il segnale di ingresso è sceso al di sotto della soglia. Serve a conferire un'azione più dolce all'azione del
compressore.
• Hold time (Tempo di tenuta): Dopo che l'ampiezza del segnale di ingresso scende al di sotto della soglia il compressore
riduce la sua azione durante il tempo di rilascio fino a tornare al rapporto di compressione 1:1. Il tempo di tenuta permette di
ritardare l'inizio del tempo di rilascio dopo che il se- gnale è sceso sotto la soglia. In pratica mantiene più a lungo il compressore
in azione.
PROCESSORI DI SEGNALE
• Side chain: Il circuito compressore può essere visto come un amplificatore controllato da una tensione in cui la tensione

XX
controllante risulta essere quella del segnale di ingresso. Se la tensione del segnale di ingresso supera la soglia, il compressore
entra in azione. Non è necessario che il compressore sia controllato dalla tensione del segnale di ingresso, è possibile utilizzare
quasiasi segnale controllante. Questa peculiarità dei compressori permette tutta una serie di artifici molto interessanti.
Vediamone un esempio: il caso in cui la cassa della batteria viene coperta dalla nota di basso suonata contemporaneamente,
soprattutto sulle battute dispari (1 e 3 della musica in 4/4). Questà è una situazione abbastanza comune anche perché il
contenuto in frequenza dei due suoni è simile dunque vengono facilmente confusi.
• Curve di compressione: hard knee (ginocchio duro), soft knee (ginocchio morbido).
• Risposta del compressore: Peak (il compressore risponde ai picchi del segnale e dunque misura esattamente l'ampiezza della
tensione di ingresso) o RMS (il compressore risponde al Root Mean Square del segnale, cioè il suo valore efficace, dunque ha
un funzionamento più dolce e meno a scatti).

Compressore con punto di rotazione


La curva di compressione in questo caso si identifica con la retta a guadagno unitario. Quando questa viene ruotata si vede che
al di sopra della soglia viene realizzata una compressione mentre il segnale al di sotto della soglia viene amplificato.

Compressore multibanda
Questo modulo è in grado di realizzare una suddivisione del segnale in bande di frequenza e di operare una diversa
compressione su ciascuna banda. Per fare ciò il modulo monta un circuito crossover che suddivide il segnale in bande. Ogni
uscita del crossover viene mandata all'ingesso di un compressore diverso ognuno dotato dei propri controlli indipendenti dagli
altri.
PROCESSORI DI SEGNALE
De-esser
Il termine de-essing indica l'operazione di eliminazione di quel fastidioso fruscio che si ha in certe registrazioni vocali in

XX
corrispondenza delle lettere con maggiore contenuto di alte frequenze come la 's'. Il fruscio dipende dal fatto che il segnale in
quel momento satura alla frequenza della lettera 's' generando una distorsione. è immediato pensare ad un'equalizzazione alla
frequenza incriminata per risolvere il problema. Questa soluzione non è tuttavia praticabile in quanto modifica il contenuto in
frequenza dell'intera registrazione alterandolo irrimediabilmente. Per realizzare un corretto de-essing si ricorre all'uso di un
compressore abbinato ad un equalizzatore.
Il funzionamento è il seguente: il segnale originario viene fatto passare in un equalizzatore in cui le 's' vengono evidenziate
ancora di più mentre tutte le altre frequenze vengono attenuate al massimo.
Il segnale che esce dall'equalizzatore ha un'ampiezza rilevante solo in presenza delle 's'. Questo segnale viene spedito
nell'ingresso sidechain del compressore con l'effetto di metterlo in azione solo in corri- spondenza delle 's'. Dunque ogni volta
che la 's' si presenta, il segnale uscito dall'equalizzatore supera la soglia fissata sul compressore che dunque entra in azione
abbassando il volume della voce ed evitando la saturazione. Finita la 's' il volume della voce torna quello originario.

Limiter
Quando in un compressore il rapporto di compressione viene portato ad un valore superiore a 10:1, questo assume il
comportamento di un limiter. Con riferimento alla figura precedente, il segnale che ha superato il valore di soglia viene
riportato al va- lore di soglia stesso. Ciò significa che il segnale non supera mai la soglia. Nonostante questa soluzione introduca
forti distorsioni, in quanto ha un comportamento equivalente alla saturazione, viene a volte impiegata per proteggere le
apparecchiature da picchi inaspettati che potrebbero danneggiarli.
PROCESSORI DI SEGNALE
Gate
Si tratta di un circuito in grado di far passare il segnale di ingresso verso l'uscita solo se l'ampiezza di questo è maggiore di una
prefissata soglia. I controlli del Gate sono simili a quelli di un compressore:

XX
• Threshold (Soglia): al di sopra della soglia il segnale passa e arriva all'uscita. Al di sotto della soglia il segnale viene fermato o
meglio, come vedremo tra un momento, attenuato.
• Range-Floor (Intervallo di attenuazione) : determina la quantità di attenuazione introdotta dal modulo (misurata in dB). Valori
maggiori di -50 dB mantengono il gate praticamente chiuso (l'equivalente di questo controllo sul compressore è il rapporto di
compressione).
• Attack time (Tempo di attacco): tempo di apertura del gate quando il segnale supera la soglia.
•Hold time (Tempo di tenuta): Il tempo per il quale il gate viene tenuto aperto anche quando il segnale è ridisceso al di sotto
della soglia.

Expander
Il suo funzionamento è simile a quello del compressore con la differenza che invece di avere un intervallo di attenuazione
espresso in dB troviamo un rapporto di espansione.
SINTESI DEL SUONO
Introduzione alla Sintesi
Negli strumenti musicali tradizionali il suono e’ prodotto dalla vibrazione di parti meccaniche. Negli strumenti sintetici, la
vibrazione e’ descritta da funzioni nel tempo, dette segnali, che esprimono la variazione nel tempo della pressione acustica.
Per costruire uno strumento musicale tradizionale e’ sufficiente realizzare un dispositivo che sfrutta uno dei tanti meccanismi
fisici per la produzione di vibrazioni. Negli strumenti musicali sintetici, invece, l’obiettivo e’ di generare una piu’ astratta funzione
nel tempo, detta segnale acustico. Allo scopo e’ necessario implementare una rappresentazione semplificata ed astratta del
modo di produzione del suono, detta modello.
Il modello del segnale, quindi, gioca il ruolo del fenomeno fisico negli strumenti tradizionali: esso costituisce il nucleo centrale
attorno al quale si sviluppa la realizzazione dello strumento musicale. Nel modello l’astrazione ha il significato di inscrivere il
meccanismo di produzione in una classe piu’ generale di cui esso rappresenta un caso particolare. La semplificazione tende a
focalizzare la descrizione sugli aspetti ritenuti significativi nel caso in esame. Spesso nella descrizione del modello si ricorre a
relazioni matematiche per legare le cause con gli effetti; in questo modo, usando il modello si puo’ prevedere il comportamento
del fenomeno in condizioni note. Le condizioni note includono i parametri del modello, eventualmente variabili nel tempo, e lo
stato iniziale da cui procede l’evoluzione.
L’algoritmo e’ il procedimento effettivo che consente di realizzare cio’. L’implementazione dell’algoritmo su un processore
consente di calcolare l’evoluzione del fenomeno, eventualmente nella sua forma semplificata. In particolare algoritmi di sintesi
dei segnali musicali, basati su modelli del segnale che si focalizzano su diverse e interessanti proprieta’ degli stessi, consentono di
ottenere l’evoluzione temporale del segnale. Al variare dei parametri si ottengono tutti i possibili segnali della classe identificata
dal modello; e’ cioe’ possibile esplorare l’insieme dei timbri descritto dal modello.
In linea di principio qualsiasi variazione dei parametri di controllo di un algoritmo e’ lecita. L’impiego per scopi musicali, tuttavia,
impone alcune limitazioni alla liberta’ di scegliere i parametri di controllo. I parametri di controllo a loro volta possono variare
nel tempo, divenendo cosi a loro volta dei segnali (di controllo).
SINTESI DEL SUONO
La variazione dei segnali di controllo acquista un diverso significato secondo la scala dei tempi su cui si attua. Se il controllo si
attua sulla scala di tempo della (frazione di) nota, parliamo di controllo della dinamica spettrale. Esso infatti viene spesso
interpretato in relazione alla variazione a tempo breve dello spettro. Se il controllo si attua nella scala di tempo
dell’organizzazione delle note in frasi o entita’ superiori, parliamo di controllo espressivo. Ad esempio la variazione del pitch
delle note rappresenta il controllo espressivo fondamentale nella musica occidentale.
La sintesi elettronica dei suoni sembra offrire una grande liberta’ nella costruzione dei suoni, sia nella imitazione di quelli
naturali, che nella produzione di sonorita’ originali. Vi sono ormai varie tecniche per riprodurre i suoni desiderati con la fedelta’
voluta. Tuttavia scopo della sintesi del suono non e’ tanto la riproduzione di un segnale voluto, quanto la realizzazione di un
generatore suonabile, caratterizzato cioe’ da una articolazione timbrica paragonabile a quella degli strumenti classici. Il problema
si sposta quindi alle possibilita’ di controllo dell’algoritmo e dell’articolazione timbrica offerte dagli strumenti sintetici.

Obiettivi della Sintesi


Lo scopo della sintesi del suono quindi dovrebbe tendere a realizzare strumenti suonabili piu’ che generatori di segnale, in
modo da preservare il rapporto di causa ed effetto che sussiste tra l’azione sul controllo ed il risultato sul suono. Si dovrebbe
cioe’ offrire al musicista uno strumento a tutti gli effetti, inteso come entita’ caratterizzata da certi requisiti di coerenza interna,
che si concretizzano in suonabilita’, qualita’ sonora, utilizzabilita’ all’interno di una partitura.
Lo strumento musicale e’ importante anche perche’, oltre a rappresentare il processo di generazione, puo’ essere visto come
astrazione di una classe di suoni caratterizzati da un timbro, un comportamento dinamico, e da certe possibilita’ espressive.
Questo fatto puo’ applicarsi oltre che agli strumenti tradizionali, anche agli strumenti sintetici. Ne risulta che si possono definire
classi astratte di suoni sintetici in base al tipo di modello (e algoritmo) usato per la sintesi e per il tipo di controllo offerto al
musicista. Una volta, la scelta dell’algoritmo di sintesi avveniva in base alla efficienza computazionale, anche a spese della sua
controllabilita’. Oggi, con lo sviluppo della tecnologia, questo problema e’ sempre meno importante.
SINTESI DEL SUONO
Acquistano quindi sempre piu’ importanza altri criteri di scelta, tra cui ”migliore” metafora per il musicista e ”migliore” risultato
acustico. Al primo criterio corrisponde il grado di suggestione che l’algoritmo opera sul musicista-compositore; ad esempio la
sintesi additiva suggerisce una visione armonica. Al secondo criterio corrisponde l’esigenza di un risultato acustico ben preciso, o
di una particolare interfaccia verso l’esecutore; ad esempio la sintesi per modulazione di frequenza puo’ riprodurre facilmente
suoni percussivi inarmonici (campane).
Gli strumenti sintetici, al pari degli strumenti classici, sono caratterizzati dal problema dell’apprendimento della tecnica di
esecuzione. Si deve infatti imparare con l’esperienza le relazioni tra i parametri di controllo e il risultato acustico. Queste
relazioni spesso non sono intuitive nel controllo a basso livello degli algoritmi e quindi limitano di fatto la versatilita’ dello
strumento. Si puo’ notare d’altra parte che la tendenza attuale e’ quella di incorporare l’esecutore nello strumento; si cerca
cioe’ di realizzare uno strumento senza problemi di manualita’ e controllabile con informazioni di alto livello, eventualmente per
mezzo di esecutori automatici (sequencer). Nell’ottica di questo approccio devono quindi essere sviluppati sofisticati modelli
del controllo timbrico che, a partire da poche e sintetiche informazioni, siano in grado di produrre un ventaglio espressivo
paragonabile a quello di un esecutore umano.
Di seguito sono presentati i principali algoritmi di sintesi con riferimento ai criteri di scelta sopra esposti. E’ tuttavia possibile
procedere ad una classificazione degli algoritmi di sintesi basata sull’analisi della loro struttura. Si puo’ infatti notare che la
complessita’ della struttura ha forti riflessi sulla controllabilita’ sia timbrica che espressiva di un algoritmo. Gli algoritmi definiti da
una struttura semplice necessitano di un flusso di segnali di controllo molto articolato, in quanto caratterizzazione ed
espressivita’ timbrica devono essere garantiti proprio dai segnali di controllo. Invece gli algoritmi con complessita’ strutturale
elevata garantiscono di base una buona caratterizzazione timbrica e una buona coerenza interna, consentendo quindi un
controllo molto piu’ semplificato.
SINTESI DEL SUONO
Metodi di Sintesi
Si possono quindi individuare le seguenti classi di algoritmi di sintesi:
• per generazione diretta: generatori di forme d’onda, campionamento, sintesi additiva, granulare;
• per trasformazione (feed-forward): sottrattiva, modulazioni, distorsione non lineare;
• per interazione (feed-back): sintesi per modelli fisici.
[Ad esempio se prendiamo in considerazione uno strumento caratterizzato da un controllo gestuale assai semplice come il pianoforte, si identificano i seguenti requisiti
per i segnali di controllo:
- sintesi additiva: supponendo di lavorare con 100 parziali la pressione del tasto attiva 100 inviluppi temporali e altrettanti inviluppi frequenziali con andamento in funzione
della velocita’ della pressione del tasto.
- sintesi FM: supponendo di lavorare con un algoritmo a 6 operatori la pressione del tasto attiva 6 inviluppi temporali e altrettanti inviluppi degli indici di modulazione con
andamento funzione della velocita’ della pressione del tasto.
- sintesi per modelli fisici: supponendo di lavorare con un algoritmo martelletto corda, la pressione del tasto fornisce l’unico parametro (la velocita’ d’impatto del
martelletto) all’algoritmo, che provvede autonomamente a generare la sonorita’ attesa.]

E’ possibile anche un’altra classificazione degli algoritmi di sintesi in base al tipo di modello con cui viene rappresentato il suono.

In questo caso si possono distinguere:


• modelli del segnale che rappresentano il suono che ci arriva all’orecchio, senza far riferimento al meccanismo fisico che
sottosta’ alla produzione del suono. La percezione del suono e’ un fenomeno complesso, che analizza il segnale sia nel tempo
che nella frequenza. Anche i modelli del segnale possono essere divisi in due classi, secondo se possono essere interpretati
dall’utente in termini di caratteristiche temporali o spettrali. Possiamo quindi includere nella prima classe il campionamento e la
sintesi granulare, mentre la sintesi additiva e sottrattiva, le modulazioni e la distorsione non- lineare sono della seconda classe
(meglio interpretabili nel dominio della frequenza).
• modelli della sorgente che ottengono il segnale acustico come sottoprodotto di un modello di simulazione del meccanismo
fisico di produzione del suono. Appartiene a questa categoria la sintesi per modelli fisici.
SINTESI DEL SUONO
SINTESI PER GENERAZIONE DIRETTA
In questa categoria troviamo i metodi che generano direttamente il segnale attraverso un’unico modello o piu’ modelli che
pero’ non si influenzano reciprocamente, nel senso che al piu’ si somma alla fine il loro risultato.
La caratteristica di molti suoni musicali e’ di essere quasi periodici o armonici. E’ questa proprieta’ che determina la sensazione di
altezza di un suono.

Generatori di forme d’onda


Il piu’ semplice metodo di sintesi consiste nel produrre un segnale periodico mediante la continua ripetizione di una certa
forma d’onda. Un algoritmo che realizza questo metodo si chiama oscillatore. L’oscillatore piu’ diffuso e’ quello a forma d’onda
tabulata (table look-up oscillator). In questo caso la forma d’onda e’ memorizzata in una tabella in punti equispaziati. Per generare
una forma d’onda periodica, basta leggere ripetutamente la tabella mandando i suoi campioni uno dopo l’altro in uscita. Se Fs e’
la frequenza di campionamento e L e’ la lunghezza della tabella, la frequenza f del suono periodico risulta f = Fs / L.
Se si volesse un suono con la stessa forma d’onda ma di frequenza diversa, occorrerebbe una tabella contenete la stessa forma
d’onda ma rappresentata con un numero diverso di valori. Si vorrebbe quindi una forma d’onda continua da cui prelevare di
volta in volta il valore all’ascissa desiderata. Il controllo della frequenza dell’oscillatore e’ utile nella produzione di variazioni di
pitch come nel portamento, inflessione della frequenza del suono come puo’ avvenire all’inizio di una nota che parte con una
frequenza leggermente inferiore raggiungendo poi ed eventualmente sorpassando la frequenza desiderata oppure la
diminuzione di frequenza che talvolta si verifica alla fine di una nota. Spesso occorrono opportune traiettorie della frequenza
per collegare in modo non brusco note di una stessa frase melodica o per produrre ornamenti come trilli, mordenti e
acciaccature. Infine il controllo della frequenza e’ utile per produrre il vibrato ed altre modulazioni di frequenza.
I suoni ottenibili dall’oscillatore numerico sono piuttosto meccanici e ripetitivi. Esso pertanto viene usato come blocco base per
costruire algoritmi piu’ complessi o per produrre segnali di controllo ad andamento voluto.
SINTESI DEL SUONO
Campionamento
Trovare un modello matematico che imiti fedelmente un suono reale e’ un compito estremamente difficile. Se pero’ esiste un
suono di riferimento, allora e’ sempre possibile riprodurlo dopo aver- lo registrato digitalmente mediante campionamento
(sampling). Tale metodo, anche se semplice nei suoi principi, e’ molto usato negli strumenti musicali digitali e, appunto, nei
campionatori. I campionatori infatti memorizzano una grande quantita’ di esempi di suoni completi, usualmente prodotti da
strumenti musicali reali. Quando si vuole sintetizzare un suono, basta scegliere uno dei suoni del repertorio memorizzati e
riprodurlo direttamente. Ne risulta quindi una alta efficienza computazionale e una grande fedelta’ al suono originale.
Le possibilita’ di modificazione sono piuttosto ridotte e sono spesso legate alla metafora del registratore a nastro o moviola. La
modificazione piu’ frequente consiste nel cambiare la frequenza del suono, variando la frequenza di lettura dei campioni. Non
sono consigliabili grandi variazioni di frequenza, in quanto la compressione o espansione temporale di una forma d’onda
produce un cambiamento inverso della scale delle frequenze e quindi un’espansione o compressione dello spettro. Tale fatto
tende a produrre un risultato innaturale dal punto di vista timbrico, esattamente come accade se viene variata la velocita’ di
lettura di un nastro magnetico. E’ pertanto necessario limitare le variazioni a pochi semitoni ed avere quindi molti suoni
campionati distribuiti lungo la scala musicale. Speciale cura va posta in questo caso per non avere suoni adiacenti troppo
diversi. Con un insieme di suoni (ad esempio tre per ottava) e con la variazione di lettura dei campioni e’ quindi possibile
riprodurre tutta la gamma di altezze desiderate.
Spesso si vuole inoltre variare il suono anche in funzione di altri parametri, ad esempio l’intensita’. Per ottenere una variazione di
intensita’ non basta infatti cambiare l’ampiezza del suono, ma bisogna anche modificare timbricamente il suono. Tipicamente i
suoni piu’ intensi sono caratterizzati da un attacco piu’ rapido e da una maggiore estensione dello spettro. In tal caso o si utilizza
un unico prototipo (ad esempio registrato fortissimo) e poi lo si trasforma (ad esempio mediante filtraggio) per ottenere le
altre intensita’, o si ricorre ad insiemi diversi di note registrate per differenti valori del parametro (ad esempio con dinamica
fortissimo, mezzo forte, pianissimo) e poi si procede a creare le varie sfumature con interpolazioni e/o ulteriori trasformazioni.
SINTESI DEL SUONO
In definitiva questa tecnica e’ caratte- rizzata da alta efficienza computazionale e alta qualita’ imitativa, ma bassa flessibilita’ per i
suoni non inizialmente previsti nel repertorio o non facilmente riconducibili a esso con semplici trasformazioni.
Per maggior efficienza nell’uso della memoria, spesso si ricorre a memorizzare solo parte del regime stazionario del suono e a
ripeterlo (looping) nella sintesi. Naturalmente la ripetizione non deve essere di un segmento troppo breve per evitare un
carattere troppo statico del suono. Ad esempio per allungare la durata di un suono, dopo che e’ passato l’attacco si puo’
ripetere ciclicamente la parte individuata finche’ non si vuole terminare il suono. A quel punto si emette la parte finale del
suono memorizzato. Per creare un ciclo senza artefatti, bisogna porre molta cura nello scegliere i punti di inizio e fine del ciclo.
In genere si sceglie un numero intero di periodi inizianti con valore nullo in modo da non avere discontinuita’ ne’ di ampiezza
ne’ di fase. Queste discontinuita’ infatti sono fastidiose all’ascolto.
Spesso si individuano nel regime alcuni brevi tratti significativi e nella sintesi si procede ad una interpolazione (cross-fade) tra i
successivi tratti. In questo modo l’evoluzione temporale lungo la durata del suono puo’ essere meglio controllata.
In molti casi tale tecnica viene presentata come un mezzo per riprodurre suoni naturali ed e’ valutata facendo riferimento agli
strumenti originali. Per questo essa e’ molto usata nelle tastiere commerciali per produrre suoni imitativi degli strumenti
meccanici, come ad esempio organo o piano elettronici. Naturalmente il metodo di campionamento non puo’ realizzare tutte le
possibilita’ espressive degli strumenti originali. D’altra parte si puo’ notare che i suoni memorizzati possono essere sintetici o
derivare da modificazioni di altri suoni. Questo amplia le possibili applicazioni del metodo.

Dal punto di vista della storia della musica, questo metodo rappresenta una versione attualizzata della Musica Concreta. Questo
tipo di musica, nata a Parigi alla fine degli anni 40 per opera di Pierre Schaeffer, inizio’ ad usare come materiale sonoro delle
composizioni musicali dei suoni di qualsiasi tipo, registrati da microfono e poi eventualmente manipolati.
SINTESI DEL SUONO
Sintesi Additiva
Per avere un suono con un andamento complesso e variabile si possono usare contemporaneamente piu’ elementi semplici. Per
esempio un’orchestra produce una sonorita’ piena e variabile mediante una sovrapposizione di molti strumenti.
Nella sintesi additiva, suoni complessi sono prodotti mediante la sovrapposizione di suoni elementari, spesso sinusoidali. In certe
condizioni (ad esempio se le frequenze sono multiple tra loro) i suoni costituenti si fondono insieme e il risultato e’ percepito
come un unico suono. Questo procedimento e’ usato anche in alcuni strumenti musicali tradizionali. Ad esempio nell’organo le
canne producono suoni relativamente semplici. Per ottenere suoni piu’ ricchi, sono usate piu’ canne che suonano
contemporaneamente a differenti altezze, tipicamente multiple della fondamentale.
Quando si analizza un suono reale quasi periodico prodotto da uno strumento musicale, si osserva che l’energia spettrale si
concentra attorno a poche righe strette. Queste righe corrispondono a sinusoidi, chiamate parziali, di frequenza all’incirca
multipla della fondamentale. L’ampiezza di ciascuna parziale non e’ proporzionalmente costante nel tempo rispetto alla
fondamentale, ma varia secondo un suo andamento. Ad esempio nell’attacco, sono significative alcune parziali, che poi diventano
trascurabili nel regime. In generale le parziali sono componenti di uno spettro a frequenza arbitraria. Le parziali cioe’ possono
essere o non essere armoniche (multipli interi) di una fondamentale. In un suono inarmonico (come quello di una campana) le
parziali non sono in rapporti interi con la fondamentale. Se scegliamo i parametri di controllo desunti dall’analisi spettrale di un
suono naturale, questa tecnica di sintesi consente un buon grado di riproduzione. La sintesi additiva fornisce anche una buona
riproduzione dei suoni non periodici o inarmonici in cui l’energia sia concentrata in poche righe spettrali. Molto meno adatta e’
invece per la parte di suono che e’ distribuita nello spettro, come le componenti rumorose.
La sintesi additiva e’ un metodo di grande generalita’ ma ha il problema che ha bisogno di un gran numero di parametri di
controllo per ciascuna nota. Devono essere specificate due funzioni di controllo per ciascuna parziale (ampiezza e frequenza).
Normalmente le funzioni sono diverse per ogni nota e dipendono dalla durata e intensita’ della nota.
SINTESI DEL SUONO
Essa pertanto e’ spesso usata per la sintesi basata sull’analisi. Infatti, come si vedra’, le trasformazioni fatte sui parametri della
sintesi additiva (come cambiamento della scala dei tempi) sono particolarmente robuste percettivamente. Inoltre e’ utile per
familiarizzare i musicisti con le caratteristiche del suono e la rappresentazione in frequenza.

In conclusione si puo’ anche osservare che questo metodo, nato per simulare suoni reali, e’ diventato per alcuni musicisti, il
fondamento metaforico per una metodologia compositiva basata sull’espansione della scala temporale e la reinterpretazione
dello spettro come struttura armonica, stimolando così la nascita della cosiddetta musica spettrale.

Sintesi Granulare
La sintesi granulare condivide con la sintesi additiva l’idea di comporre suoni complessi a partire da suoni piu’ semplici. Mentre la
sintesi additiva si basa sulla sovrapposizione temporale di sinusoidi, la sintesi granulare invece si basa sulla successione di forme
d’onda di breve durata (tipicamente da 1 a 100 msec) chiamate grani. Da questo punto di vista un grano e’ un breve evento
acustico la cui durata e’ prossima alle soglie di discriminazione della durata, frequenza e intensita’ nella percezione uditiva. E’ un
po’ come nel cinema dove la successione veloce di immagini statiche, produce la sensazione di movimento. Questa idea base si
articola poi in due casi principali a seconda della forma d’onda del grano.
Vengono cosi’ modellati suoni articolati dove non interessa controllare esattamente la microstruttura. Si evitano cosi i problemi
del controllo dettagliato delle caratteristiche temporali dei grani. La durata dei grani influenza la tessitura sonora: durate brevi
danno un carattere scoppiettante, esplosivo, mentre durate piu’ lunghe danno un’impressione molto piu’ sfumata. Quando i
grani vengono distribuiti in una larga regione frequenziale, la nuvola ha un carattere massiccio, mentre se la banda e’ stretta, ne
risulta un suono dotato di altezza propria. Densita’ sparse di grani danno un effetto puntiglistico.
SINTESI DEL SUONO
SINTESI PER TRASFORMAZIONE
In questa tipologia di tecniche di sintesi il suono viene prodotto mediante un processo generativo semplice, seguito da uno o
più processi di trasformazione.

• TRASFORMAZIONE LINEARE: Sintesi sottrattiva


Mentre la sintesi additiva costruisce suoni complessi sommando insieme semplici suoni sinusoidali tempo varianti, la sintesi
sottrattiva e’ basata sull’idea complementare di passare un segnale a larga banda attraverso un filtro tempo variante per
produrre la forma d’onda desiderata. La sintesi sottrattiva trae la sua origine nel campo analogico, dove si usava produrre
segnali a partire da forme d’onda semplici, come onde quadre o a dente di sega e poi sagomare lo spettro mediante filtraggio
eventualmente variabile. Nel campo numerico si ha il vantaggio di poter controllare in modo molto piu’ preciso i parametri dei
filtri. D’altra parte spesso conviene generare direttamente la forma d’onda voluta con altri metodi. Essa pertanto si e’ piu’
specializzata nell’uso con filtri piu’ sofisticati o i cui parametri possano essere stimati a partire da suoni reali. Invece i filtri sono
molto usati per produrre trasformazioni di suoni nel cosiddetto postprocessing. Mediante filtri cioe’ si arricchisce un segnale
sintetizzato o registrato di vari effetti, si variano le sue caratteristiche spettrali, pur mantenendo la dinamica intrinseca del
suono, si possono produrre effetti di riverberazione e spazializzazione e cosi’ via.

• TRASFORMAZIONE NON LINEARE: Sintesi per Modulazione, Sintesi per Distorsione non lineare
Le trasformazioni viste sopra non possono cambiare le frequenze delle componenti in ingresso, in quanto sono trasformazioni
lineari. Se si usano invece trasformazioni non lineari, le frequenze possono cambiare anche di molto. Ne consegue la possibilita’
di cambiare sostanzialmente la natura del suono in ingresso. Queste possibilita’ vengono anche usate nella sintesi del suono.
L’interpretazione della sintesi non lineare non e’ basata sull’acustica fisica, ma piuttosto deriva dalla teoria della modulazione
nelle comunicazioni elettriche, applicata ai segnali musicali.
SINTESI DEL SUONO
Questi metodi sono stati molto usati nella musica elettronica analogica e sono poi stati anche sviluppati nel digitale. Pertanto la
sintesi non lineare ne eredita parzialmente l’interpretazione analogica come usata nella musica elettronica e inoltre e’ diventata,
specie con la modulazione di frequenza, una nuova metafora per i musicisti informatici.
Ci sono due effetti principali legati alla trasformazione non lineari: arricchimento dello spettro e traslazione dello spettro. Il
-
f- -

primo effetto deriva dalla distorsione non lineare di un segnale e consente di controllare la brillantezza di un suono, mentre il
secondo e’ dovuto alla sua moltiplicazione per una sinusoide (portante) e sposta lo spettro attorno alla frequenza del segnale
portante, alterando il rapporto armonico tra le righe del segnale modulante. La possibilita di traslare lo spettro e’ molto efficace
nelle applicazioni musicali. A partire da semplici componenti, si possono creare suoni armonici e inarmonici e stabilire differenti
relazioni armoniche tra le parziali.

Sintesi per Modulazione


In elettronica e nella computer music per modulazione si intende che alcuni aspetti di un segnale, chiamato portante (carrier),
variano in accordo con gli aspetti di un secondo segnale, chiamato modulante (modulator); per esempio ciò che avviene nel
tremolo e nel vibrato. Quando la frequenza di modulazione sale all’interno della banda audio, appaiono dei ‘prodotti della
modulazione’ (o bande laterali) udibili; queste sono nuove frequenze aggiunte allo spettro della portante, solitamente in entrambi
i lati. Poiché ci sono molti meno parametri rispetto alla sintesi additiva e a quella sottrattiva, la modulazione è considerata una
tecnica semplice da utilizzare e cambiando i valori dei parametri nel tempo, la modulazione produce agevolmente degli spettri
variabili.
Due metodi di sintesi per modulazione correlati sono la Ring Modulation e la Amplitude Modulation; La differenza fondamentale
tra le 2 è che la RM modula 2 segnali bipolari (cioè con escursioni positive e negative intorno allo zero, osservati nel dominio
del tempo) mentre l’AM modula un segnale bipolare con uno unipolare (tra 0 e 1).
SINTESI DEL SUONO
Ring Modulation
Nei sistemi digitali la RM è semplicemente la moltiplicazione (addizione e sottrazione) di 2 segnali bipolari. Quando la frequenza
del segnale modulante è nel range uditivo (dai 20 Hz in su), il timbro della portante cambia: per ogni componente sinusoidale
nella portante, la modulante aggiunge 2 bande laterali allo spettro finale mentre la frequenza portante scompare. Queste 2
bande sono la somma e la differenza delle frequenze della portante e della modulante (Carrier e Modulator), quindi, se queste
sono in rapporto intero tra loro, le bande laterali saranno armoniche. Inoltre, quando la frequenza della modulante è maggiore
di quella della portante intervengono frequenze negative e tale cambiamento di segno apporta un cambiamento della fase del
segnale.
In generale la RM digitale suona sempre allo stesso modo, in contrasto con quella analogica che dipende dai circuiti e dai
componenti usati.
[Un pioniere della RM digitale, l’inventore Harald Bode, costruì una variazione di RM, chiamata Frequency Shifting, in cui la somma e la sottrazione hanno uscite separate;
per questo venne anche rinominata Single-Sideband Modulation.]

Amplitude Modulation
La AM è una delle più datate tecniche di modulazione; come la RM essa genera delle bande laterali per ciascuna componente
sinusoidale della portante, con la differenza che la frequenza della portante stessa non viene soppressa. L’ampiezza delle bande
laterali aumenta in proporzione dell’ammontare della modulazione ma non supera mai la metà del livello della portante.

Frequency Modulation
L’FM non è una singola tecnica ma una famiglia di metodi che condividono la proprietà comune di una lettura di wavetable in
accordo con una funzione di oscillazione non lineare; tale famiglia comprende: FM, Exponential FM, Multiple Carrier FM, Multiple
Modulator FM, Feedback FM, Phase Distorsion, Waveshaping Synthesis e Chebychev Shaping Functions.
SINTESI DEL SUONO
Frequency Modulation
Nelle tecniche di FM un oscillatore portante è modulato in frequenza da un oscillatore modulante; la differenza con la RM e
l’AM è che essa genera una serie di bande laterali che si espandono intorno alla portante ad una distanza pari a un multiplo della
frequenza modulante. Il numero delle bande dipende dall’ammontare della modulazione (o indice di modulazione, I = D/M, dove
D è il valore della deviazione dalla frequenza portante) applicata alla portante mentre la loro posizione dipende dal rapporto tra
portante e modulante (C:M Ratio); quando questo sarà intero lo spettro sarà armonico e viceversa.
Per certi valori della portante, della modulante e del valore I, le bande laterali estreme si riflettono fuori dallo spettro udibile e
possono causare effetti indesiderati come l’aliasing (quando avviene sopra lo spettro) o l’inversione di fase (quando avviene
sotto).

Sintesi per Distorsione non lineare (Waveshaping)


L’idea fondamentale della sintesi per distorsione non lineare, conosciuta anche sotto il nome di waveshaping e’ quella di passare
una sinusoide per un blocco distorcente. E’ noto infatti che se una sinusoide passa per filtro lineare viene modificata la sua
ampiezza e fase, ma non la forma d’onda. Se invece l’amplificatore e’ non lineare la forma d’onda del segnale viene modificata e
vengono create altre componenti spettrali. Questo fatto e’ ben noto nei segnali analogici, dove si cerca di evitarlo o usarlo per
creare effetti tipo amplificazione con tubi elettronici. Nel campo digitale si e’ pensato di sfruttarlo per produrre suoni periodici
di spettro variabile. Il blocco distorcente e’ realizzato mediante una funzione non lineare F (x) chiamata funzione distorcente o
shaping function memorizzata su tabella. Piu’ raramente la funzione viene calcolata direttamente. La funzione distorcente
dipende solo dal valore istantaneo dell’ingresso.
Questa tecnica è usata sia come effetto audio che come metodo di sintesi. Nel primo caso si usa una leggera distorsione,
spesso sotto forma di saturazione, su un segnale qualsiasi per arricchire un po’ lo spettro e simulare l’effetto che si verifica
sovente in strumenti meccanici o elettronici analogici.
SINTESI DEL SUONO
Se varia l’ampiezza dell’ingresso I, varia anche la distorsione e lo spettro prodotto. Questo e’ simile ad un’espansione o
contrazione della funzione, in quanto viene usato una parte maggiore o minore della funzione. L’ampiezza e l’intensita’ del
suono prodotto varia quindi con l’ampiezza dell’ingresso e deve essere pertanto compensata con un’opportuna funzione di
normalizzazione. Nel caso invece che la distorsione sia usata come effetto, questi cambiamenti spesso sono in accordo con il
fenomeno acustico che si vuole imitare e quindi non devono essere compensati.
Un’altra variazione dinamica del waveshaping che e’ facile implementare consiste nell’aggiungere una costante all’ingresso. In
questo caso la funzione viene traslata orizzontalmente. Anche in questo caso lo spettro varia, ma non e’ piu’ separabile l’effetto
della parte pari da quella dispari della funzione originaria.

SINTESI PER INTERAZIONE


In questa tipologia di sintesi il suono viene prodotto mediante l’interazione fra un processo generativo semplice (eccitatore) e
- -

un processo di trasformazione (risonatore).

Sintesi per Modelli Fisici


Gli algoritmi visti sopra si basano su modelli del segnale che arriva alle nostre orecchie. Essi appartengono quindi alla categoria
dei modelli generativi. La sintesi per modelli fisici segue invece un approccio alternativo, in cui si cerca di rappresentare la
dinamica degli oggetti (reali o virtuali) responsabili della produzione del suono. La sintesi è quindi basata sull’uso di modelli
formali di strumenti musicali tradizionali; il suono viene generato simulando numericamente la dinamica dello strumento che lo
produce. I modelli del segnale hanno fino ad oggi dominato la scena, in virtù di algoritmi efficienti e flessibili. I modelli fisici di
strumenti musicali, sebbene costituiscano da sempre un campo di indagine vivo e in evoluzione, hanno invece cominciato solo
di recente ad essere usati per la sintesi del suono.
SINTESI DEL SUONO
Nello sviluppo dei modelli è utile individuare blocchi funzionalmente distinti; ciascuno di essi può essere studiato in maniera
indipendente, e la dinamica complessiva del sistema viene data dall’interazione delle parti.
Per gli strumenti musicali, un primo livello di scomposizione e` dato dall’identificazione di due blocchi funzionali distinti:
l’eccitatore e il risonatore. Il risonatore è la parte dello strumento in cui la vibrazione ha effettivamente luogo, ed è correlato a
caratteristiche sonore quali altezza ed inviluppo spettrale. L’eccitatore provoca ed eventualmente sostiene la vibrazione nel
risonatore, immettendo energia nello strumento; da esso dipendono le proprieta` di attacco del suono, fondamentali nell’iden-
tificazione del timbro. Per fare qualche esempio, sono blocchi risonatori la corda nella chitarra, nel pianoforte, nel violino, o il
tubo acustico nei legni e negli ottoni. Sono invece eccitatori il plettro nella chitarra, l’archetto nel violino, il martelletto nel
pianoforte, l’ancia nel clarinetto. L’interazione puo` essere semplicemente feedforward, se l’eccitatore non riceve nessuna
informazione di ritorno dal risonatore, oppure feedback, se i due blocchi si scambiano informazione in entrambe le direzioni.
Nella chitarra il meccanismo di eccitazione è con buona approssimazione feedforward: il plettro pizzica la corda fornendo le
condizioni iniziali, poi il risonatore evolve in maniera libera. Strutture di tipo feedback sono invece adatte per modellizzare
strumenti persistentemente eccitati, come i fiati.
La suddivisione in blocchi può essere estesa a livelli più fini, soprattutto per i risonatori. In una chitarra, il blocco del risonatore
comprenderà la corda vibrante e la tavola armonica; in uno strumento a fiato, invece, esso sarà composto da dal tubo acustico,
dalla campana (la parte terminale) e dai fori. Ad ogni stadio ci si trova davanti ad una scelta: continuare nel raffinamento,
modellizzando la fisica del sistema fino ai livelli piu` bassi (modelli white box), oppure considerare solo le proprietà ingresso-
uscita del blocco in esame (modelli black box). E` chiaro che un modello black box risulta più semplice nella progettazione e più
efficiente nell’implementazione, riducendo il blocco funzionale ad un semplice filtro. Si rischia tuttavia di introdurre
semplificazioni eccessive nel modello, e comunque di produrre strutture i cui parametri non hanno significato fisico e sono
quindi difficilmente controllabili. Dalla parte opposta, un approccio completamente white box genera modelli che possono
rivelarsi eccessivamente pesanti dal punto di vista computazionale.
SINTESI DEL SUONO
Segnali di controllo e loro sintesi
Il problema del controllo nella sintesi fa riferimento a tutto quello che è necessario per passare dalla descrizione simbolica dei
suoni, come espressa nella partitura, al suono, utilizzando i modelli di sintesi. Tradizionalmente la partitura prevede un insieme di
note (simboli che descrivono un suono e le sue proprieta’ a livello astratto) ed è compito dell’esecutore, con l’aiuto di uno
strumento, di tradurle in suono. In generale possono essere distinti due livelli di astrazione nel controllo, cui corrispondono
scale dei tempi diverse: controllo dell’espressivita‘ dello strumento, controllo della dinamica spettrale.
Il primo, che riguarda l’esecutore inteso come interprete, fa riferimento al passaggio da simboli ad azioni nel tempo per
scegliere e rendere gli effetti espressivi voluti. In genere esso non rappresenta una semplice trasformazione di simbolo in
simbolo, ma piuttosto determina la variazione continua di un insieme di parametri. Esso consiste quindi nella generazione di
segnali che variano sulla scala dei tempi delle frasi. Con queste azioni il musicista dirige e da‘ forma al fluire del suono musicale
che costituisce l’opera.
Il secondo livello invece controlla la dinamica spettrale di una nota e determina il passaggio dai parametri espressivi all’algoritmo
sottostante. In questo caso i segnali variano durante l’evoluzione della nota e operano sulla scala di tempo della sua durata. Al
primo livello e‘ associata la proprietà di ‘suonabilità’, ossia la possibilita‘ data all‘esecutore di interagire in maniera soddisfacente
con lo strumento; al secondo livello e‘ associata l’idea di qualita‘ del timbro, ossia la capacita‘ dello strumento di produrre ”bei
suoni”. In entrambi i casi l’obiettivo e‘ comunque quello di estrarre o sintetizzare un insieme di segnali di controllo piu‘ semplici
da gestire.
Tra esecutore e strumento tradizionale esiste un’interfaccia, ad esempio tastiera o archetto, che determina e vincola le possibili
azioni. Tra l’algoritmo di sintesi e il musicista è pure presente un’interfaccia di controllo: essa costituisce ciò che il musicista
conosce dello strumento e l’oggetto con cui interagisce. L’interfaccia di controllo mappa l’insieme delle possibili azioni
dell’esecutore nei parametri dei controllo degli algoritmi sottostanti in maniera tale da presentare una coerenza e una
consequenzialità che soddisfi le aspettative del musicista.

Potrebbero piacerti anche