Documenti di Didattica
Documenti di Professioni
Documenti di Cultura
CORSO DI
INFORMATICA MUSICALE
(TRIENNIO)
docente Stefano
t←→ Alessandretti
ACUSTICA
L'acustica è una branca della fisica che studia le caratteristiche del suono e della sua propagazione.
Il suono è generato da un corpo vibrante (come una corda, una membrana, etc.) che crea un'oscillazione, o onda,
trasmessa al mezzo che lo circonda (fluido, gassoso o solido).
Onda = perturbazione che si propaga nello spazio e trasporta energia da un posto a un altro.
Le onde acustiche sono onde meccaniche longitudinali: esse si propagano, a partire dalla sorgente,
in tutte le direzioni dello spazio tridimensionale (onde sferiche).
FIG.1
Le molecole investite dall'onda vibrano lungo il raggio di propagazione e quindi nella stessa direzione di propagazione dell'onda,
provocando fasi alternate di compressione (alta densità e pressione) e di rarefazione (bassa densità e pressione) del mezzo.
FIG.2
PROPRIETÀ DEL SUONO
Una sinusoide (suono puro) è un suono generato da una variazione di pressione dell'aria
con andamento periodico e con spettro monocromatico, caratterizzato cioè da una singola frequenza di oscillazione
(non possiamo rintracciare la presenza di altre componenti), la cui forma d'onda è di conseguenza sinusoidale.
Si tratta in assoluto dello spettro acustico più povero: una sola frequenza.
Ascisse
FIG.3
y = A sin (x)
EL
Frequenza (f): numero di oscillazioni compiute in un secondo, si esprime in Hertz (Hz). T
Periodo (T): tempo impiegato per compiere un'oscillazione intera, si esprime in secondi (s). F- 1
F
Lunghezza d'onda (λ): distanza tra 2 massimi consecutivi, espressa in metri (m). < =L
F
Ampiezza (A): massima deviazione dalla posizione di equilibrio. Aere
frffitesi.li
?
Fase (φ): il ritardo di tempo rispetto ad un certo riferimento, si esprime in gradi o in radianti.
Ampiezza
Infatti
Velocità (v): velocità dell'onda, si esprime in metri al secondo (m/s).
9=2
=
SL -
T
Corso Audio FREQUENZA
Multimediale - di Marco Sacco
F- ftp.aio.ES@00 F = 1- = 2ha
Ops .
0,5 s
t t t t t F =
1- = -542
-
• a • • ai
Qf
a - - -
S .
FIG.4
Sinusoide di frequenza 5 Hz
Frequenza (f): numero di oscillazioni compiute in un secondo, si esprime in Hertz (Hz)*.
cicli
Periodo
CICLO si INTENDE composto DA UNA semi ONDA
UN positiva e UNA NEGATIVA
È il tempo impiegato per compiere un ciclo completo. Vale la relazione:
IHZ HA LUNGHEZZA D' ONDA di 344M PERCHÉ QUANDO L' ONDA HA COMPLETATO UN ciclo È PASSATO UN SECONDO
.
,
* Dal nome del fisico tedesco Heinrich Rudolf Hertz (1857-1894) che PERCORRENDO 344M
10hL IN un Equazione per
secondo 1.2.primo
Periodo di l’esistenza
dimostrò una sinusoide
delle onde elettromagnetiche.
.
FIG.5
Periodo di una sinusoide
Periodo (T): tempo impiegato per compiere un'oscillazione intera, si esprime in secondi (s).
CICLO COMPLETO
Lunghezza d'onda
F-
fa es : PERIODO dell' ONDA
4
CON FREQUENZA 440 Ha
1- =L = 0,00227 s
440hL
.
mincia a percepire suoni di frequenza superiore ai 20-30Hz quindi lunghezze d'onda di 15-18 metri.)
LUNGHEZZA D’ONDA
La figura seguente mostra la lunghezza d'onda di una sinusoide:
-
( in metri )
FIG.6
LA LUNGHEZZA DELL' ONDA È Lunghezza d'onda
INVERSAMENTE di una sinusoide
proporzionale Alla sua FREQUENZA ,
ALL'AUMENTARE DELLA frequenza
Diminuisce LA LUNGHEZZA
Lunghezza d'onda (λ): distanza tra 2 massimi consecutivi, espressa in metri (m).
.
LAMBDA
IL 5
# F- 440 ÌL 3-4445=0,781818
Velocità del suono
= es Periodico
-
: Ha =
440ha
mt.CA#-LLAVELociTADELSUONONEARA
comincia superiore ai
L' orecchio percepire suoni di frequenza
3¥ umano a
#µ = =
344mg | 20 -30ha Quindi LUNGHEZZE D' ONDA di 15 -18Mt
1/7 .
SI Definisce Valore Efficace
La figura DI
seguente mostra l'ampiezza di una sinusoide: AMPIEZZA
UNA FUNZIONE continua * ft ) A -
,
LA RADICE DELLA MEDIA Quadratica
" "
Ovvero LA RADICE DELLA Media DEI QUADRATI
A
Detto ANCHE
"
valore quadratico medio
"
RMS
"
-
Rms
EFF .
1) VIENE determinato il
Quadrato DELLA FUNZIONE
FORMA D' ONDA ( SOLITAMENTE UNA sinusoidi ) .
Square =
QUADRATA -
Fase
Vi sono diverse unità di misura dell’ampiezza; in generale sono comunque suddivise in 2 tipologie:
ampiezza
Questa grandezza di una
è sempre picco (Peak)trae due
relazione ampiezza mediaPer(Root
forme d'onda. capireMean
questoSquare).
concetto occorre spie-
Efficace
gare come viene costruita una forma d'onda0 sinusoidale. RMS riferimento alla figura se-
Per fare ciò faremo
fammene
f-
guente:
Aera = =
* oùe l' Ampiezza
715
.
radice di Due
FASE
Corso Audio Multimediale - di Marco Sacco
STA
#
'↳
900 se
•
•
•
A •
÷ . . .
• ⑧ '
2700
"
50ms ' :
vedete nel grafico (a) non è .EE?5nys
giacimento 3%
quindi quello che
÷ altro che la lunghezza della
sull'asse delle ordinate (y) al variare dell'angolo. Immaginate ora di far ruotare
360 ES : 3%6%7=1 , 00mg Grafici
rio, la sua proiezione sulle
Relazione
dare un'altra
tra
y Fase
sarà all'inizio
e tempo psiq-dtt.fi#t
negativa e avrà l'andamento della f
fase interpretazione della frequenza dicendo che sarà il numero di volte
VELOCITÀ
Un suono che si propaga all'interno di un mezzo ha una velocità di propagazione
che dipende dalle caratteristiche del mezzo stesso.
Ogni mezzo ha una sua tipica velocità del suono calcolata ad una temperatura costante di 23.24°C.
Questo serve come valore di riferimento in quanto al variare della temperatura,
variano le caratteristiche del mezzo e dunque la velocità del suono al suo interno.
Quando un mezzo viene riscaldato, alle sue particelle viene trasferita energia cinetica.
Quando vengono in contatto con un fronte d'onda, le particelle del mezzo rispondono più prontamente
alla sollecitazione e trasmettono dunque l'energia sonora ricevuta più velocemente.
Ciò si traduce nella maggiore velocità del suono nel mezzo.
Mediamente si riscontra un aumento di velocità di 0.6 m/s per ogni incremento
÷
di un grado C della temperatura del mezzo.
La velocità del suono dipende dalle proprietà elastiche e inerziali del mezzo ed è
più elevata nei mezzi solidi rispetto a quelli liquidi o gassosi.
ALCUNI ESEMPI :
aria
aria (0°C):
( 0°C ) : 331
331 m/s
mls
)
.
aria
aria (20°C):
12006 ) : 343
343 m/s
mls [1235 Km/h] incremento 0,6×20 GRADI 12 µ ,
1.235km/h =
acqua
acqua (20°C):
120°C ) 1482 m/s
:
t.482.im/sf331anjd2--343nysat20
acciaio:: 5941 m/s
acciaio 5941 mais 45
RELAZIONI MATEMATICHE
RELAZIONE TRA FREQUENZA f E DURATA DEL PERIODO T
f = 1/T
T = 1/f
s=v•t
v=s/t
t=s/v ]fisica generale
5 λ = v •T
v = λ /T
T =: λ / v
e poiché T = 1/f
λ=v/f
v=λ•f
f=v/λ
ESERCIZIO D’ESEMPIO
Calcolare la velocità del suono sapendo che il periodo dell’onda è di 0,038 secondi e la sua lunghezza è di 43 metri.
T = 0,038 s
λ = 43 mt.
v=?
oppure
(f = 1/T)
1 1/0,038
1 = 26,32 Hz
(v = f • λ) 26,32 • 43 = 1131
1.11 m/s
Calcolare ora la velocità del suono supponendo un incremento della temperatura dell’aria di 40° C.
... e in Km/h?
1155
11 • 3600 / 1000
1 = 4158
I Km/h
TEOREMA DI FOURIER*
Abbiamo visto che la sinusoide è la forma d’onda periodica più semplice, poiché possiede una sola frequenza.
Nella realtà non è così semplice imbattersi in segnali acustici così poveri, generati solitamente
in laboratorio o comunque attraverso apparecchiature elettroniche.
In natura, infatti, capitare di incontrare segnali acustici anche molto complessi...
il Teorema di Fourier afferma però che qualsiasi segnale periodico può essere scomposto
in una sommatoria finita di sinusoidi aventi fase e ampiezza opportune (le frequenze sono armoniche).
Il Teorema di Fourier, che può essere esteso con le opportune modifiche anche ai segnali non periodici,
può essere visto da 2 angolazioni diverse:
• da un lato esso afferma che qualsiasi segnale può essere visto come la sommatoria
delle sue componenti armoniche (Analisi di Fourier),
• dall’altro lato afferma che sommando un termine costante e termini sinusoidali di opportuna
frequenza, ampiezza e fase, è possibile ottenere qualsiasi segnale (Sintesi di Fourier)
* Jean Baptiste Joseph Fourier (1768 - 1830), matematico e fisico francese conosciuto per la sua famosa
trasformata e per la sua legge sulla conduzione del calore.
DOMINIO DEL TEMPO - DOMINIO DELLA FREQUENZA
Questa è forse la parte più importante per capire a fondo la natura di un suono. La trattazione matematica di questo
argomento può diventare molto complessa, qui ci basterà accennare ai dettami fondamentali tralasciando i rigori imposti dalla
divulgazione scientifica.
I grafici che abbiamo visto finora erano del tipo Ampiezza-Tempo ossia descrivevano l'andamento dell'ampiezza al variare del
tempo. Consideriamo ora un diverso approccio Corsoalla questione
Audio Multimedialee- divediamo
Marco Saccocome sia possibile rappresentare l'ampiezza in
funzione della frequenza.
io
FUNZIONE DELLA
•
IN FUNZIONE DEL IN
FIG.12
Nella realtà del mondo fisico un suono non è mai ‘statico’, ma varia continuamente nel tempo. Ciò significa che ogni sinusoide
che lo compone varia continuamente la sua ampiezza e dunque varia anche la forma del grafico dello spettro
FORME D’ONDA PIÙ COMUNI
# Onda triangolare: contiene solo armoniche dispari la cui ampiezza
-
-
È
ti A
-
ti
A DENTE di SEGA
Onda dente di sega: tutte le armoniche con energia inversamente :÷÷t÷ .
=
proporzionale al numero progressivo (2ª = 1/2 1ª, 3ª = 1/3 1ª, etc.).
. -
Se questo rapporto viene fatto variare la risultante prende il nome di onda impulsiva.
RIASSUMENDO
Quindi
Spettro inarmonico = non tutte le componenti sono in rapporto intero con la fondamentale
INVILUPPO DEL SUONO
-
L'andamento dell'ampiezza di un suono viene chiamato inviluppo ADSR, acronimo delle parole: Attack, Decay, Sustain, Release
(in italiano: Attacco, Decadimento, Sostegno, Rilascio) e ha uno schema che può essere applicato a qualsiasi suono e strumento.
A te sina.sn
, SOSTEGNO
.
& ^A
µ "
e Rilascio
*
a µ
t
FIG.13
Data la simmetria della forma d'onda, se ne considera, ai fini della valutazione dell'inviluppo, la sola parte positiva.
Generalmente la fase Attack-Decay è la più importante per caratterizzare un suono. Per esempio, un rullante avrà tempi di
Attack e Decay molto brevi mentre un violino sarà contraddistinto da una fase Attack-Decay molto più lunga.
ASCOLTO D’ESEMPIO
LOGARITMI
Il logaritmo (logos + aritmos = calcolo sui numeri), insieme alla radice, è una delle operazioni inverse dell’elevamento a potenza.
Il logaritmo di un numero secondo una certa base è quel numero per cui si deve elevare quella base per ottenere il numero
dato.
come l’esponente, il logaritmo può essere negativo log 10 0,01 = -2, perchè 10 -2 = 1/100 = 0,01
il logaritmo di 0 non esiste non esiste nessun numero per cui elevare la base 10 in modo che il risultato sia 0
[Venne introdotto nel luglio 1937, durante la prima conferenza internazionale di acustica. Va chiarito che il bel non fa parte delle unità
di misura del Sistema Internazionale, in quanto i valori così espressi sono numeri adimensionali derivati da grandezze fondamentali. Ciò
nonostante il bel è largamente utilizzato in diversi campi della fisica]
Il guadagno in bel è definito come il logaritmo in base 10 del rapporto tra 2 misure omogenee:
Si tratta quindi di una scala logaritmica definita sul rapporto tra 2 valori espressi nella stessa unità di misura. Il vantaggio di
poter rappresentare una grandezza in scala logaritmica risiede nel fatto che la percezione umana della variazione di alcune
grandezze, quali quelle acustiche, segue un andamento di tipo logaritmico-esponenziale.
À NNEARE
[ it mica
0g
FIG.14
FIG.15
Bit Rate [Samples per second • Bit per sample] es. 44100 •16 = 705,6 Kbps (mono)
IL CAMPIONAMENTO
FIG.16
FIG.17
Errore di quantizzazione
IL CAMPIONAMENTO
FIG.18
Processo di conversione:
filtraggio (SF/2) - campionamento - quantizzazione - codifica - (dithering)
⑤ RUMORE -
il RUMORE di
-
QUANTIZZAZIONE
Nell’elaborazione numerica dei segnali il dither è un rumore che viene volontariamente aggiunto (quindi calibrato e distribuito,
secondo una logica stabilita) ai campioni con l’obiettivo di minimizzare la distorsione introdotta dal troncamento nel caso di
riquantizzazione dei campioni.
http://www.earlevel.com/main/2014/03/15/dither-widget/
INFORMATICA MUSICALE: DEFINIZIONE
Con lo sviluppo delle tecnologie multimediali la musica è diventata una delle fonti d'informazione trattate dall'informatica, al pari
dei numeri, dei testi, della grafica e della visione. Ciò ha favorito lo sviluppo di importanti applicazioni in campo musicale e ha
portato i sistemi informatici a diventare uno 'strumento' musicale di riferimento, come lo fu il pianoforte nel 19° secolo.
Il termine strumento non ha qui l'accezione musicale corrente, in quanto il complesso delle funzioni svolte dai sistemi
informatici è molto più ampio di quello di uno strumento tradizionale.
L'elaboratore non genera soltanto suoni, ma elabora tutta l'informazione musicale, dal microlivello (il suono) al macrolivello (la
forma). Ciò ha comportato una sostanziale trasformazione dei metodi del fare musica, con il coinvolgimento di tutti i settori,
dalla creazione alla produzione musicale, favorendo la nascita di nuove figure professionali.
Un sistema informatico completo di opportuni programmi e periferiche svolge molte funzioni musicali. È strumento musicale
polifonico e politimbrico; simula i suoni degli strumenti acustici oppure diventa il mezzo per comporre nuove sonorità
elettroniche; svolge le funzioni di uno studio di registrazione audio per l’editing, elaborazione, montaggio di suoni e di brani
musicali, stampa di CD audio; viene utilizzato nell'editoria musicale, nella ricerca musicologica, nell'archiviazione e nell'esecuzione
automatica di partiture.
Il compositore, oltre a ciò, dispone di una grande varietà di strumenti di aiuto alla composizione che lo assistono nelle varie fasi
del processo creativo e di realizzazione dell'opera. Inoltre, con l'evoluzione dei sistemi informatici multimediali, molte di queste
funzioni possono essere messe in stretta relazione con il mondo della grafica, del video, dello spettacolo, della realtà virtuale e
delle telecomunicazioni per ottenere prodotti artistici e culturali multimediali. Infine, alcuni derivati dei progetti di ricerca o dei
programmi professionali trovano un ampio consenso nel vasto mondo dei musicisti dilettanti e dell'intrattenimento informatico,
alimentato dall'industria dei personal computer e dal successo di Internet.
INFORMATICA MUSICALE: NASCITA
Musica Informatica
seconda metà degli anni Cinquanta
Fino agli ultimi anni Settanta le principali ricerche venivano svolte in centri di ricerca scientifica utilizzando elaboratori collettivi
(mainframe) e programmi che imponevano lunghi tempi di attesa tra la formalizzazione dell'idea musicale e il suo ascolto. Nei
concerti si presentavano musiche registrate su nastro che talvolta accompagnavano solisti o piccoli ensembles di esecutori
tradizionali o cantanti.
La mancanza di un rapporto diretto e immediato con il suono ha in parte ostacolato la produzione musicale mentre, al
contrario, ha favorito lo sviluppo di solide basi teoriche e di alcuni programmi per la sintesi dei suoni ancora oggi utilizzati in
campo scientifico e musicale.
Illiac Suite (1957), Lejaren Hiller e Leonard Isaacson, ILLIAC I computer at the University of Illinois
Silver Scale (1957), Newman Guttman e Max Mathews, IBM 704 computer at the Bell Lab. in New Jersey
Bicycle built for two (1961), Max Mathews e John L. Kelly, IBM 7094 computer at the Bell Lab. in New Jersey
INFORMATICA MUSICALE: ANNI OTTANTA
Con l'avvento degli elaboratori a monoutenza (minicomputer) i tempi di attesa sono diminuiti e, grazie a essi, si sono sviluppati i
primi prototipi di sintesi e trattamento dei suoni in tempo reale, utilizzando periferiche particolari. Grazie a questi nuovi sistemi
in tempo reale la musica può rientrare nella tradizione dell'esecuzione dal vivo, anche se al mezzo informatico viene assegnato
un ruolo più ampio e soprattutto diverso da quello del singolo strumento. Si sono sviluppati i concerti di live electronics, in cui i
sistemi in tempo reale generano eventi sonori complessi o trasformano dal vivo i suoni di voci o strumenti tradizionali.
Negli anni Ottanta due innovazioni hanno contribuito alla diffusione dell'informatica nel mondo musicale, specialmente nelle sue
applicazioni più semplici: l'avvento dell'elaboratore personale (personal computer) e la definizione del codice di comunicazione
MIDI (Musical Instrument Digital Interface).
Quest'ultimo ha segnato l'ingresso dell'industria degli strumenti musicali elettronici nel mondo della musica informatica: nell'arco
di pochi anni i sintetizzatori analogici della musica elettronica sono diventati obsoleti, sono nati i campionatori, i sintetizzatori
digitali e un'ampia gamma di dispositivi accessori di ausilio al musicista (sequencer, multiprocessori di effetti). Grazie al MIDI tali
strumenti possono essere collegati fra loro creando una rete di apparecchiature digitali in cui l'elaboratore personale è spesso il
cuore del sistema. I risultati della ricerca scientifica degli anni Settanta sono stati rapidamente trasferiti dall'industria su strumenti
a basso costo e offerti a un'ampia utenza musicale.
Fixed Media
Live Electronics
Mixed
Computer aided composition
RAPPRESENTAZIONE DELL’INFORMAZIONE MUSICALE
L'informatica tratta la musica con due principali forme di rappresentazione:
• simbolica (codifica l'informazione percettiva, esecutiva e astratta, prendendo come riferimento il sistema tradizionale di
notazione musicale).
La codifica audio si realizza convertendo il segnale analogico in segnale digitale, ovvero campionando la forma d'onda del
suono. Tale operazione si basa su due fattori caratteristici: la frequenza di campionamento e il numero di bit con cui si
rappresentano i campioni. Il primo fattore incide sulla frequenza massima rappresentabile dal segnale digitale, mentre il secondo
fissa il rapporto segnale/disturbo e quindi il tasso di rumore aggiunto nella fase di conversione. I valori di riferimento sono quelli
del CD audio (44.100 c/s, 16 bit), anche se si usano valori ridotti per la codifica della voce e per i segnali di allarme, o valori
superiori per l'audio professionale di qualità. Entrambi i fattori incidono sulla quantità di informazione necessaria a
rappresentare il flusso sonoro della musica. Per ridurre il volume dei dati musicali si sono sviluppate efficaci forme di
compressione che si basano sulle caratteristiche della percezione uditiva umana.
La codifica simbolica trova nel codice MIDI il sistema più diffuso per rappresentare i gesti elementari dell'esecuzione musicale.
Per la codifica del sistema tradizionale di notazione musicale esistono vari linguaggi simbolici o sistemi grafici di scrittura che si
differenziano in base al tipo di applicazione: editoria musicale, analisi musicologica, aiuto alla composizione.
MIDI: LA NASCITA
Siamo agli inizi degli anni ottanta e una gran varietà di strumenti è disponibile per il musicista; ma subito sorge un nuovo
problema, quello di riunire tali strumenti in un sistema che ne espanda le loro potenzialità. Nasce allora un protocollo di
comunicazione che consente ai vari strumenti di ‘dialogare tra loro’ scambiandosi informazioni: il MIDI.
Nel 1981 Dave Smith e Chet Wood della Sequential Circuit propongono una prima ipotesi del protocollo MIDI, le cui
specifiche vengono definite nel 1982 in collaborazione con Roland, Korg, Kawai e Yamaha, e pubblicate sotto il nome di The
Complete SCI MIDI.
Dopo alcuni mesi di sperimentazione del nuovo protocollo, il documento SCI viene rivisto e ribattezzato MIDI Specification 1.0,
in cui sono definiti i messaggi e le caratteristiche fisiche e logiche della loro trasmissione tuttora in vigore.
Il primo sintetizzatore con porte MIDI, il Prophet 600, fu realizzato dalla Sequential Circuit nel 1983. All’inizio la maggior parte
Fa
dei produttori di strumenti fu restia nell’accettare il MIDI (anche per l’uso di reti inter-strumentali proprie).
Dal marzo 1984 tutti i produttori che equipaggiano le proprie apparecchiature con interfacce MIDI, sono obbligati a rispettare
alcune caratteristiche di base, che garantiscono la compatibilità fra gli strumenti delle diverse marche.
Negli anni che seguono questo storico accordo, il MIDI non subisce sostanziali modifiche, se non alcuni aggiornamenti e
miglioramenti.
MIDI: APPLICAZIONI
Il MIDI, acronimo di Musical Instrument Digital Interface, che significa: interfaccia digitale per strumenti musicali, è l’unione di un
linguaggio di comunicazione e una normativa di specifiche hardware che permette a strumenti musicali elettronici, controller,
computer e altre apparecchiature che ne rispettino la codifica, di comunicare tra loro consentendo l’organizzazione e
l’automazione di un sistema musicale (sintetizzatori, expander, sequencer, processori digitali, mixer, batterie elettroniche, etc.)
MIDI anche molto complesso.
Il linguaggio MIDI viene dunque utilizzato per trasformare in numeri i gesti compiuti da un musicista durante una esecuzione:
abbassare tasti, premere pedali, manovrare potenziometri, interruttori, pulsanti, rotelle, etc., in equivalenti messaggi digitali che
vengono trasmessi a tutti gli strumenti elettronici presenti sulla rete.
Questi messaggi vengono utilizzati per controllare generatori di suono e altri dispositivi che servono alla configurazione
automatica del sistema musicale. Inoltre il MIDI permette di registrare questi messaggi, mediante un apparecchio chiamato
sequencer, per essere successivamente editati, modificati e rispediti alle apparecchiature presenti sulla rete.
Nel tempo, il MIDI si è imposto come nuova tecnologia operativa in tutti i settori della produzione musicale, conquistandosi di
diritto un ruolo di primaria importanza nell’esecuzione dal vivo, nella produzione discografica e nella post-produzione audio/
video.
HOME STUDIO - STUDI DI REGISTRAZIONE - POST PRODUZIONE - CONTROLLO LUCI/EFFETTI - APPLICAZIONI MULTIMEDIALI
NUMERI DECIMALI, BINARI E ESADECIMALI
=
Ogni numero di n cifre è rappresentabile dalla somma di n moltiplicazioni effettuate tra ognuna delle cifre e altrettante potenze
di 10 a esponente progressivo (da 0 a n). Ad esempio
Nella numerazione binaria si procede allo stesso modo, solo che a disposizione si hanno solo due valori possibili (0 e 1) e le
potenze sono in base 2. Ad esempio
11001100 = (1 • 27) + (1 • 26) + (0 • 25) + (0 • 24) + (1 • 23) + (1 • 22) + (0 • 21) + (0 • 20) = 128 + 64 + 0 + 0 + 8 + 4
+ 0 + 0 = 204
Nel linguaggio digitale si ha però sempre a che fare con dei raggruppamenti di bit che ormai assurgono a vere e proprie unità
di misura: nibble (4 bit), byte (8 bit), Kilobyte (1024 bit), Megabyte (1048576 bit), word (costituita da 4, 8, 12, 16, 24, 32 bit, in
dipendenza della struttura del microprocessore).
Risultando molto difficile ricordare numeri a 8 bit espressi in codice binario, questo viene molto spesso sostituito dal codice
esadecimale (hexadecimal). Questo sistema di numerazione si fonda sulla base 16 e consiste di 16 simboli differenti: 0, 1, 2, 3, 4,
5, 6, 7, 8, 9, A, B, C, D, E, F; come visto prima per i numeri decimali, è possibile convertire i numeri esadecimali in numeri binari.
CONVERSIONE NUMERI ESADECIMALI
Sono stati divisi i numeri binari a 8 bit in due gruppi di 4 bit ciascuno, per facilitare la comprensione della conversione da
numero esadecimale a numero binario. Lo spazio tra ciascun gruppo di 4 bit non altera il valore del numero, ma ne rende più
facile la lettura ed è una rappresentazione diventata uno standard. La procedura per eseguire la conversione è costituita da tre
fasi:
Ad esempio, 01111111 (cifra a 8 bit), 0111 1111 (spezzata in due gruppi da 4 bit), 7F (sostituisco i due valori in esadecimali).
Questo metodo di suddivisione dei numeri binari in gruppi di 4 bit ciascuno, viene applicato anche a numeri di 12, 16, 24 bit e
così via.
Per evitare confusione con i numeri decimali, quelli esadecimali saranno seguiti convenzionalmente dalla lettera H, che abbrevia
il nome exadecimal!
pgogrgegggtzw.ae
Introduzione
Il termine MIDI è l'acronimo di Musical Instrument Digital Interface ed è un protocollo [45] di comuni- .
cazione, concepito nel 1983, che consente di pilotare un dispositivo musicale tramite un dispositivo con-
trollore. Vedremo come in realtà sia possibile con questo protocollo controllare tutta una serie di appa-
recchi contemporaneamente facendoli lavorare in modo sincronizzato. Introduciamo il principio di fun-
zionamento considerando una tastiera-sintetizzatore dotata di un'interfaccia [46] MIDI controllata da un
computer. Il computer è dotato di un software in grado di 'registrare' [47] gli impulsi che provengono
dalla tastiera-sintetizzatore memorizzando anche gli istanti di tempo a cui arrivano; dunque possiamo
eseguire un pezzo musicale sulla tastiera-sintetizzatore e 'registrarlo' sul computer. È importante capire
che il computer non registra il suono che esce dalla tastiera-sintetizzatore ma dei codici =corrispondenti
alle note che vengono suonate = e i loro riferimenti temporali. In fase di riproduzione il computer spedisce
alla tastiera-sintetizzatore i codici che ha memorizzato nella fase precedente e la tastiera-sintetizzatore li
interpreta esattamente come se un musicista avesse effettivamente suonato in quel momento le note cor-
rispondenti. Il protocollo non è cambiato dall'anno della sua creazione (anche se ha subito notevoli
estensioni) e questo fa sì che dispositivi molto vecchi siano in grado di comunicare con i dispositivi mo-
derni e continuino dunque ad essere utilizzabili senza problemi. Nel corso di questa sezione vedremo nel
dettaglio come funziona il protocollo MIDI e i contesti nei quali si utilizza in cui il principio di funzio-
namento appena descritto viene notevolmente esteso. Nel seguito per fissare le idee supporremo che il
nostro dispositivo MIDI sia sempre una tastiera essendo quello che racchiude in sé tutte le funzionalità
che verranno descritte, tuttavia le considerazioni fatte valgono in generale per qualsiasi dispositivo do-
tato di interfaccia MIDI.
[45] Un protocollo è un insieme di specifiche che definiscono tutti gli aspetti della comunicazione tra due entità. Per entità si in-
tende un qualsiasi apparecchio in grado di comunicare con altri apparecchi nelle modalità definite dal protocollo di comunica-
zione. Nel nostro caso le due entità che comunicano possono essere una tastiera-sintetizzatore e un computer che la pilota.
[46] Un'interfaccia è un dispositivo elettronico che converte dei segnali generati da una macchina in un formato comprensibile
dalla macchina che li deve ricevere ed elaborare. I dati che arrivano all'interfaccia sono di tipo binario ossia sotto forma di impulsi
elettrici che rappresentano i valori 0 e 1 eventualmente raggruppati in blocchi da 8, 16 o più bit. Un'interfaccia seriale trasferisce i
bit uno per uno mentre un'interfaccia parallela trasferisce gruppi di n bit alla volta e risulta dunque molto più veloce nel trasferi-
metno dei dati. Questa maggiore velocità di trasferimento implica però una maggiore complessità circuitale e di conseguenza un
prezzo più alto.
[47] Questa operazione viene effettuata per mezzo di programmi che prendono il nome di sequencer.
284
Trasmissione PARALLELA °
.
PAROLA INTERA di UN Byte
-«oDis
missione
su 8 Binari
seriale III
Ilwww.vvv
.
'
trasmissione :c
10110101
/ ) )
BinarioAETT paralleli
→ -
Velocità: 31250 baud (bit/sec) ossia 3906.25 bytes/s ossia 3.8 Kb/s
Come riferimento quantitativo si pensi che un modem per computer economico per la connessione ad
Internet ha una velocità di trasmissione di 56 Kb/s.
Le prese MIDI, che vengono anche definite porte e sono sempre di tipo femmina, sono tre: MIDI In (i
-
-
# F- -
dati MIDI entrano nel dispositivo), MIDI Out (i dati MIDI escono dal dispositivo), MIDI Thru [48] (una
copia dei dati entrati dalla porta MIDI In viene reindirizzata su questa porta). La trasmissione dei dati
avviene sempre in una sola direzione: dalla porta MIDI Out alla porta MIDI In. I cavi MIDI montano
solo connettori maschi e hanno una lunghezza non ÷ superiore a 15 metri (cavi più lughi possono causare
perdite di segnale tali da comprometterne l'integrità). La comunicazione è di tipo asincrono il che signi-
fica che non vengono impiegati segnali di temporizzazione (che appesantirebbero il carico di dati da tra-
sferire): vengono invece impiegati un bit di start, identificato da una tensione di 5 Volts (che mette in at-
÷
tesa di dati il dispositivo ricevente), e un bit di stop identificato da una tensione di 0 Volts (che comu-
-
SEGNALE -
#
SEGNALE ← SEGNALE X
X X NON utilizzate
Vengono utilizzati solo il pin 2,4 e 5. Il pin 2 è la schermatura mentre i pin 4 e 5 portano il segnale MIDI
in modalità bilanciata . Le prese MIDI sono montate sui dispositivi e tasferiscono i dati al/dal cavo dal/al
dispositivo. Ciò avviene secondo il seguente schema:
"
%
. io
iI
le
isolate ÈI ! : È ÉTÉ ,
Poi CONVERTE GLI impulsi elettrici in attici .
Per fissare le idee supponiamo di trovarci in modalità di ricezione dati. Questi arrivano dal cavo alla
presa e vengono inoltrati verso uno stadio optoisolatore. Questo ha una duplice funzionalità. La prima è
quella di isolare elettricamente il dispositivo convertendo gli impulsi elettrici in impulsi ottici: ciò viene
realizzato attraverso un fotodiodo che si illumina al passaggio di corrente e una cellula fotoelettrica che
-
285
Corso Audio Multimediale - di Marco Sacco
riconverte gli impulsi ottici in un nuovo segnale elettrico ad uso del dispositivo. In questo modo non c'è
mai una connessione elettrica fisica tra dispositivi MIDI. La seconda è quella di correggere eventuali de-
terioramenti del segnale di ingresso; tutti i valori di tensione vengono convertiti in soli due stati: luce ac-
cesa, luce spenta. Il segnale elettrico che esce dal modulo optoisolatore viene separato in due: una copia
viene, come detto, inoltrata verso la presa MIDI thru (non sempre presente) mentre l'altra copia viene
inoltrata ad un modulo definito come UART (acronimo di Universal Asynchronous Receiver Trasmitter -
Trasmettitore Ricevitore Asincrono Universale - ). Il modulo opera una conversione dei dati seriali in
parallelo e li spedisce al dispositivo vero e proprio (per esempio il circuito che genera i suoni in una ta-
stiera-sintetizzatore) gestendo anche la temporizzazione in base al contenuto dei dati che riceve. Come
vedremo meglio in seguito, il protocollo MIDI prevede l'utilizzo di 16 canali. Ogni canale identifica una
funzionalità di un dispositivo MIDI, per esempio su una tastiera-sintetizzatore può identificare un parti-
colare suono. Questo significa che se per esempio un sequencer pilota una sola tastiera-sintetizzatore,
possiamo suonare contemporaneamente fino a 16 suoni diversi, uno per ogni canale (1 per il suono di
batteria, 1 per il suono di basso, uno per il suono di violino ecc.). Notare che questo vale per suoni di-
versi, per lo stesso suono possiamo eseguire più note contemporaneamente (vedremo quante tra un mo-
mento). Dunque un pezzo di pianoforte complicatissimo suonato a due mani è riproducibile utilizzando
un solo canale MIDI. Generalmente i sistemi MIDI si integrano con gli strumenti reali che rimangono
comunque la parte più consistente della registrazione musicale (a parte i generi musicali tipicamente
elettronici come per esempio la trance, la house, la techno). Per questo motivo i 16 canali, che a prima
vista possono sembrare pochi, permettono di gestire la maggior parte delle situazioni.
Daisy chaining
Concatenazione a margherita
In questo caso abbiamo un dispositivo Master (una tastiera-sintetizzatore) e una serie di dispositivi slave
disposti in cascata (ext1 e ext2 possono essere per esempio una batteria elettronica e un modulo sintetiz-
zatore):
286
Corso Audio Multimediale - di Marco Sacco
>
A
A v % v
• -
IN ⑧ UT THRU
ESPANDERA
'
d out
AUDIO EXP 1
È
IN OUT THRU
Slave
v
:
Audio
ESPANDERE
IN 0 t
OUT AUDIO Master out
EXPZ
Share
Audio
Alhnixcr
Attenzione a non confondere le connessioni midi (in rosso) con quelle audio (in blu). I segnali audio
all'uscita di ogni dispositivo vengono prelevati e spediti al mixer per essere trasformati in musica. Il se-
gnali MIDI Out all'uscita del master viene spedito all'ingresso MIDI In dello slave Ext1; una copia di
questo segnale è presente anche sulla presa MIDI Thru di Ext1 che dunque viene spedito allo slave Ext2
(possiamo per esempio utilizzare il canale 1 per pilotare il modulo Ext1 e il canale 2 per pilotare il mo-
dulo Ext2). In questo modo il master pilota tutti i dispositivi slave in cascata. Il problema di configura-
-
zione di questo tipo è che l'operazione di trasferimento del segnale MIDI alla presa MIDI Thru di ogni
modulo introduce un piccolo di ritardo. I dispositivi sono disposti in cascata e dunque tutti i ritardi si
÷
sommano e questo rischia di compromettere la sincronizzazione tra i dispositivi quando questi diventano
troppi.
riferisce ad un canale MIDI) e di riprodurle in un secondo tempo. Per esempio su una tastiera-sin-
÷
tetizzatore potremmo eseguire una linea melodica e registrarla su un sequencer, poi potremmo sovrap-
porre a questa linea una seconda melodia e così via. Alla fine, le sequenze che abbiamo memorizzato
verranno eseguite contemporaneamente sul sequencer, ÷ ossia verrano spedite dal sequencer alla tastiera-
sintetizzatore, e in questo modo il pezzo verrà rieseguito automaticamente. La figura seguente mostra un
esempio di configurazione daisy chaining con l'impiego di un sequencer:
287
Capitolo 20. Il protocollo MIDI
Il
V IN
OUT IN OUT THRU
Audio e 1 ESPANDERA
Il M M µ
stare
*
IN out
Espandere
tttru
WITH Master z
AAUUDD :O Slave PUT
Audio
:
V Atmixcr
> I 0 7
Midi Interfaccia
> =
÷
PC
MAC
I segnali audio (viola) vengono, come prima, spediti al mixer. Vediamo la parte MIDI: il nostro sequen-
cer è un computer dotato di un'interfaccia MIDI e di un opportuno software di sequencing. La presa
MIDI Out della tastiera-sintetizzatore (sempre il nostro master) viene collegata alla porta MIDI In
dell'interfaccia MIDI del computer. Questo ci permette di 'registrare' sul computer le sequenze eseguite
sulla tastiera-sintetizzatore. La presa MIDI Out dell'interfaccia MIDI del computer viene collegata
all'ingresso MIDI In del master in modo da rieseguire le sequenze registrate. Una copia di questo se-
gnale viene poi spedita, tramite la presa MIDI Thru, ai dei dispositivi Exp1 e Exp2. Anche in questo
caso abbiamo il problema del ritardo del trasferimento dei dati. Nella prossima sezione viene mostrata
una configurazione che permette di risolvere questo problema.
288
iter
Corso Audio Multimediale - di Marco Sacco
> →
EXP 1
^ OUT Midi
→ EXP 2
→ EXP 3
Master
→ EXP a
Splinter
In questo caso tutti i dispositivi sono collegati allo splitter (il quale introduce un ritardo ma è l'unico pre-
sente nella catena dei collegamenti dunque non pregiudica la sincronizzazione tra i dispositivi).
Samp ter
EXP 3
%
µ
sinth
.mn
In questo caso ogni uscita MIDI gestisce 16 canali. Sul software di sequencing, una sequenza verrà rife-
rita, come già detto, ad un canale MIDI e inoltre verrà riferita anche ad una determinata uscita MIDI.
Nella figura vediamo che la sequenza della batteria elettronica sarà associata al canale 1 (generalmente
le batterie elettroniche hanno 1 solo canale MIDI a cui sono associati tutti i suoni identificati dalle di-
verse note) dell'uscita MIDI 2.
Messaggi MIDI
Come accennato, un messaggio MIDI è composto da una serie di bit ordinati secondo uno schema co-
mune per tutti i messaggi. La figura seguente mostra un tipico messaggio MIDI:
Lo status byte fornisce la chiave di lettura che serve allo strumento ricevente per una corretta interpretazione dei
byte di dati. - 289 aI
La seconda regola stabilisce che tutti i numeri compresi tra 128
- -
e 255 sono degli status byte. -
-
-
Il protocollo MIDI stabilisce anche quanti Data byte dovranno seguire per completare il messaggio stesso, che a
seconda dei casi può essere formato da 1, 2 o 3 byte. ÷
IL Messaggio Midi e composto da 3 BYTE Raccoltisi tra 2 Bit
010
%%÷÷:i
POLYFONIC
! :[ Éireann
status byte
Corso Audio Multimediale - di Marco Sacco
%
÷ .
AFTERTOUCH Fa
i
' ' "
00
e
ÉTÉ
64*161-8+2=90
Keith.EE?ffret I +23
° I
27128
"
Velocity
la
; Midi
100 PROGRAM CHANCE ti .at/dis#iMili
N°-3
Midi 64 Pressione DEL TASTO 90
contrassegna
(( cambiare suono Accanale
assegnato
)
}
tipo di Messaggio
101 control ( status Byte )
Un esempio di messaggio MIDI
fjjffafefeatas.ie
CHANGE PRIMO Bit posto A 1
pressione DELTASTO
( parametri tipo :) Come si vede il messaggio è composto da tre byte racchiusi tra due bit, uno iniziale di start e uno finale
VOLUME PAN
,
di stop. Il primo dei 3 byte è definito come status byte e ha la funzione indicare il tipo di messaggio.
MODULAZIONE
Uno status byte è sempre contrassegnato dal primo bit posto a 1. I bit 2,3, 4 indicano il tipo di messag-
I 10 PITCH gio, essendo 3 bit sono disponibili 8 (23)
mi
tipi diversi di messaggio. Gli ultimi 4 bit del primo byte identi-
BENDING ficano il canale midi, dunque abbiamo 16 canali disponibili. Notare che il nibble (un nibble è una se-
(
UTILIZZA ANCHE quenza di 4 bit) 0000 identifica il canale 1 e il nibble 1111 (che vale 15 in decimale) identifica il canale
itdit DELIO 16. Nel nostro messaggio di esempio stiamo trasmettendo dati sul canale 3. Dopo lo status byte abbiamo
due data byte ossia due byte che trasportano informazioni numeriche relative al messaggio definito nello
DATA Bit PER
status byte. Un data byte ha sempre il primo bit posto a 0. Gli ultimi 7 bit del primo data byte descrivono
AVERNE A la nota suonata, con 7 bit possiamo discriminare 128 (27) note (il che generalmente è sufficiente se si ama
Disposizione 14 pensa che un pianoforte, che è uno degli strumenti con l'estensione maggiore, ha 88 note). Nel nostro
PERUNBENDING esempio stiamo suonando la nota 64 (1000000). Il secondo data byte indica la velocità della nota ossia
l'intensità con cui è stata suonata. Tutte le recenti tastiere dotate di interfaccia MIDI possiedono un con- .
più Definito trollo chiamato soft touch che trasforma in un valore l'intensità con cui si è premuto un determinato ta-
ANCHE SE sto. In questo modo è possibile riprodurre il tocco della mano sui tasti ed eseguire distintamente pezzi
LENTO suonati per esempio in 'pianissimo' o 'forte'. Il valore viene associato alla velocità perché molti sistemi
) soft touch si basano sulla velocità con cui è premuto un tasto avendo come presupposto che maggiore è
la velocità, maggiore è l'intensità. Nel nostro caso il valore della velocità è pari a 90 (1011010). Ovvia-
mente il significato dei dati contenuti nei- data byte varia a seconda del tipo di status byte che stiamo= -
CHANNEL
o://messa.gg MESSAGE
Channel Voice Messages : GENERATI DA eventi Di Esecuzione
1. Note off: interrompe l'esecuzione di una nota. Ha il seguente formato:
÷
I tre bit che identificano il tipo di messaggio sono: 000
[1 0 0 0 c c c c ] [0 n n n n n n n] [0 v v v v v v v]
[1 0 0 1 c c c c ] [0 n n n n n n n] [0 v v v v v v v]
3. Polyfonic aftertouch (key pressure): dopo che un tasto è stato premuto, può essere ancora mosso .
290
Capitolo 20. Il protocollo MIDI
per creare un effetto vibrato. Questo messaggio trasporta informazioni circa questo movimento. È
raramente implementato perché richiede un sensore per ogni tasto e dunque risulta abbastanza co-
stoso.
[1 0 1 0 c c c c ] [0 n n n n n n n] [0 p p p p p p p]
4. Channel pressure (aftertouch): Come il precedente solo che viene implementato un solo sensore
per tutta la tastiera-sintetizzatore. Un movimento su un tasto applicherà una vibrazione a tutte le
note suonate in quel momento sul canale in questione. Il controllo può essere applicato anche ad al-
tre grandezze come un tremolo o la frequenza di taglio di un filtro.
[1 0 1 1 c c c c ] [0 n n n n n n n] [0 p p p p p p p]
5. Program change: Con questo comando è possibile cambiare il suono assegnato ad un canale con un
-
altro suono.
[1 1 0 0 c c c c ] [0 p p p p p p p] [0 - - - - - - -]
6. Control change: utilizzato per controllare parametri relativi al canale in questione come: volume, -
modulazione (applicata dal joystick presente su molte tastiere), pan. Per esempio per realizzare un
volume crescente su un certo strumento suonato su un certo canale, possiamo mandare una serie di
questi messaggi con valori di volume sempre crescenti.
[1 1 0 1 c c c c ] [0 n n n n n n n] [0 v v v v v v v]
dove: c = canale midi (4 bit), n = codice del controllo (volume, pan ecc) (7 bit), v = valore (7 bit)
7. Pitch Bending: permette di eseguire il bending (se non sapete cos'è, chiedete al vostro chitarrista di
fiducia) di una nota. In questo caso 128 diverse sfumature di bending sono poche soprattutto in un
bending lento e potrebbero generare un effetto 'scaletta'. Per questo vengono impiegati anche i 7 bit
del secondo data byte portando la risoluzione del bending a 14 bit ossia a 16384 gradazioni diverse.
[1 1 1 0 c c c c ] [0 B B B B B B B] [0 b b b b b b b]
dove: c = canale midi (4 bit), B = primi 7 bit del valore di bending, b = ultimi 7 bit
Kazama
Channel Mode Messages
291
CHANNEL MESSAGE
121 - Reset all controllers : tutti i parametri del dispositivi vengono posti pari al loro valore iniziale
=
.
122 - Local control on/off : Per spiegare il funzionaemto di questo tipo di messaggio riferiamoci alla fi-
gura seguente:
t
È
TÌ
È *
;
'
' e
non È
*
← out
Local control
In una tastiera-sintetizzatore, la pressione di un tasto agisce su un circuito che accede ad un suono resi-
dente nella memoria e lo trasferisce all'uscita audio dove diventa un suono. Il segnale generato dal tasto
verso i circuiti della tastiera-sintetizzatore prende il nome di local control. Se la tastiera-sintetizzatore
viene anche collegata via MIDI, alla pressione di un tasto, una copia del segnale, che indica quale tasto è
stato premuto viene spedita tramite la porta MIDI Out. Questo segnale però rientra nella tastiera-
sintetizzatore dall'ingresso MIDI In andando ad agire di nuovo sul banco dei suoni. In questo modo si
genera un fastidioso effetto eco perché l'esecuzione di una nota viene generata da due eventi diversi: di-
rettamente dalla pressione dal tasto della tastiera-sintetizzatore e dallo stesso segnale che però fa il giro
passando dall'interfaccia MIDI del sequencer. Come si vede dalla figura, In una connessione MIDI il se-
gnale local control viene disattivato eliminando il problema.
123 - All notes off : su alcuni sequencer viene chiamato anche 'panic' o 'reset devices'. Può accadere che
alcuni messaggi MIDI non vengano ricevuti correttamente e dunque per esempio che non venga ricevuto
un messaggio di 'note off' lasciando una nota suonare indefinitamente. Questo messaggio manda un se-
gnale di tipo 'note off' a tutte le note.
124-125-126-127 : Gli ultimi 4 messaggi definiscono il cosiddetto MIDI mode ossia il modo in cui la
tastiera-sintetizzatore interpreta i comandi MIDI.
124-125 Omni mode off-on : Questi due messaggi attivano o disattivano la modalità Omni. Questa, se
attivata, fa in modo che nei messaggi MIDI venga ignorata l'informazione relativa al canale e dunque
ogni messaggio viene applicato a tutti i canali. Viceversa, quando la modalità è disattivata, ogni messag-
gio viene applicato al canale indicato nello status byte.
126-127 Mono On - Poly On : la modalità Mono on impone sul canale la possibilità di eseguire una
sola nota per volta. La modalità Poly on consente di eseguire più note contemporaneamente sul singolo
- -
canale [49].
292
Corso Audio Multimediale - di Marco Sacco
Messaggi di sistema
|
Questi messaggi sono spediti contemporaneamente su tutti i canali MIDI. Il messaggio ha la forma se-
guente:
[1 1 1 1 t t t t ] [0 d d d d d d d] [0 d d d d d d d]
Questi comprendono:
• MTC: Midi Time Code (temporizzazione), per una dettagliata descrizione di questo argomento rife-
rirsi alla sezione relativa alla sincronizzazione .
• ⇐
End of exclusive: Fine della trasmissione di dati di sistema, viene descritto più avanti.
⇐
la sincronizzazione tra i sistemi collegati via MIDI. Questi messaggi vengono spediti contiuamente ad
un ritmo di 24 ogni quarto di nota quindi il numero di messaggi spediti nell'unità di tempo aumenta col
bpm del brano. Se la mole di dati MIDI da spedire è ingente, può convenire spedire i messaggi di tempo-
_
(PARAMETRI Di
)
System Exclusive : LINGUAGGIO INTERNO di tipo di APPARECCHIATURA Sintesi ,
CONTROLLO E
- Funzionamento specifici di
Questi messaggi trasportano dati specifici del dispositivo in uso. Ogni dispositivo MIDI professionale è IG ?
dotato di questa funzionalità che permette di scaricare via MIDI tutta la memoria (come si dice: eseguire
un dump [50]). In questo modo tutti i settaggi che sono stati fatti sul dispositivo per un certo lavoro ven-
-
gono spediti per esempio su un computer dove vengono a- memorizzati. Nella necessità di impostare il di-
spositivo su configurazioni completamente diverse è molto utile e immediato utilizzare i settaggi salvati
su computer sotto forma di file ritrasferendoli nel dispositivo sempre via MIDI.
[49] Vale la pena di puntualizzare la differenza tra i termini polifonico e multitimbrico che indicano caratteristiche diverse di una
tastiera-sintetizzatore. Con il termine polifonico si intende che la tastiera-sintetizzatore è in grado di suonare più note contempora-
neamente sullo stesso canale MIDI. Multitimbrico significa che una tastiera-sitetizzatore è in grado di suonare più di uno stru-
mento contemporaneamente (ovviamente su canali MIDI diversi) mentre monotimbrico significa che può essere suonato un solo
strumento alla volta.
[50] In ambito informatico questo termine indica la generazione di una copia di riserva dei dati.
293
Capitolo 20. Il protocollo MIDI
Il protocollo GM definisce una mappatura dei suoni associando ad ogni suono un determinato canale
MIDI. In questo modo una partitura MIDI ricavata utilizzando un certo tipo di tastiera o modulo potrà
essere suonata da un altro modulo senza che la corrispondenza dei suoni venga alterata. Senza questa
specifica ogni canale MIDI può riferirsi ad un qualsiasi strumento e dunque succede che per esempio un
pattern di batteria che viene spedito sul canale 1 venga suonato dal modulo in questione come un piano-
forte... Con il protocollo GM si definisce dunque uno standard che, se rispettato, permette di evitare que-
sti inconvenienti. All'interno del protocollo vengono inoltre definite altre specifiche riguardanti
l'aftertouch e altri parametri del protocollo MIDI. Una lista della mappatura degli strumenti è consulta-
bile nell'appendice relativa al GM .
294
MIDI: SINTASSI DEI MESSAGGI -
DÈI Databile
1 0 O I 0 I 0 0 0 1 I 0
%
" mai mai
%:
" "
iii. .
FIG.15
byte fornisce la chiave di lettura che serve allo strumento ricevente per una corretta interpretazione dei byte di dati.
La seconda regola stabilisce che tutti i numeri compresi tra 128 e 255 sono degli Status byte, viceversa quelli compresi tra 0 e
-
127 sono dei Data byte. E- -
-
Il protocollo MIDI stabilisce anche quanti Data byte dovranno seguire per completare il messaggio stesso, che a seconda dei
casi può essere formato da 1, 2 o 3 byte.
STATUS BYTE
STATUS BYTE - DATA BYTE
STATUS BYTE - DATA BYTE 1 - DATA BYTE 2
MIDI: CATEGORIE DEI MESSAGGI
I messaggi MIDI sono suddivisi in 2 grandi categorie: CHANNEL MESSAGE e SYSTEM MESSAGE, i quali a loro volta sono
suddivisi in altre 5 categorie.
Channel Voice Message: comprendono tutti quei messaggi generati da eventi di esecuzione, per esempio quale tasto è stato
premuto, quale interruttore o pulsante è stato selezionato, quale controller si sta utilizzando, oppure la dinamica della tastiera
(velocity) o informazioni relative ai cambi di programma (program change).
NOTE ON - NOTE OFF - POLYPHONIC KEY PRESSURE (AFTERTOUCH POLIFONICO) - CONTROL CHANGE - PROGRAM CHANGE -
CHANNEL PRESSURE (AFTERTOUCH) - PITCH BEND CHANGE
Channel Mode Message: non sono altro che una categoria all’interno dei messaggi di CONTROL CHANGE; dal punto di vista
della sintassi sono assolutamente identici, ma da quello del contenuto risultano completamente differenti. Infatti, questi
riguardano principalmente il controllo generale di una apparecchiatura e non un singolo parametro, per questa ragione
vengono definiti separatamente.
⇐ =
RESET ALL CONTROLLER - LOCAL CONTROL (ON-OFF) - ALL NOTES OFF (PANIC BUTTON) - OMNI MODE (ON-OFF) - MONO MODE
(CHANNEL ALLOCATION) - POLY MODE (ON-OFF)
-
MIDI: CATEGORIE DEI MESSAGGI
SYSTEM MESSAGE (ricevuti da tutti gli strumenti collegati!)
System Common Message: è un piccolo gruppo di messaggi che viene utilizzato per espletare particolari funzioni MIDI (tipo la
sincronia audio/video) specialmente quando nel sistema sono presenti apparecchiature quali: master keyboard, sequencer e
batterie elettroniche.
MIDI TIME CODE QUARTER FRAME (SMPTE TO MIDI) - SONG POSITION (POINTER) - SONG SELECT (NUMBER) - TUNE REQUEST (IN
DISUSO, ACCORDATURA SYNTH ANALOGICI)
System Real Time Message: riguardano il sincronismo del MIDI scambiato tra sequencer, sincronizzatori e batterie elettroniche
per rispettare il “tempo”; sono costituiti da un solo byte e possono essere inviati in qualsiasi momento, anche inframezzandosi ai
byte di altri messaggi.
TIMING CLOCK* - START - CONTINUE - STOP - ACTIVE SENSING (300 MS) - SYSTEM RESET
[Clock Per Quarter Note, la scansione in 24esimi consente una risoluzione fino alla terzina di 64esimi]
System Exclusive Message: si tratta di messaggi circoscritti al linguaggio interno di ciascun tipo di apparecchiatura e sono
utilizzati per programmare i parametri di sintesi, controllo e funzionamento, specifici di un determinato strumento; vengono
infatti scambiati tra modelli uguali o compatibili della stessa marca, tra software o inviati da master keyboard in grado di pilotare
qualsiasi apparecchiatura MIDI.
SYSTEM EXCLUSIVE - END OF EXCLUSIVE
MIDI: TRASMISSIONE DEI DATI
Trasmissione parallela: un’interfaccia parallela trasmette un’intera parola di un byte, in un unico ciclo di trasmissione su otto
÷ =
binari paralleli; questo consente di trasferire le informazioni molto velocemente, ma comporta una serie di svantaggi. I circuiti
che la compongono sono costosi e c’è un limite alla lunghezza dei cavi di collegamento che non possono superare la lunghezza
di 3 metri per garantire l’affidabilità della trasmissione.
10110101
Trasmissione seriale: un’interfaccia seriale trasmette le informazioni digitali un bit alla volta, cioè su un unico binario; questo la
rende più lenta
-
-
di quella parallela. La velocità di trasferimento di una parola di un singolo byte infatti è più lenta di otto volte e
viene quantificata in Baud (bit per secondo). I circuiti che compongono l’interfaccia seriale sono poco costosi e i cavi di
* ÷
collegamento possono raggiungere un massimo di quindici metri di lunghezza.
10110101
L’interfaccia MIDI è seriale con una velocità di 31,25 KBaud, un bit ogni 32 microsecondi (milionesimi di secondo). La
÷÷
trasmissione è asincrona; questo significa che l’inizio e la fine di ogni byte devono essere indicati da due bit speciali, lo start bit e
lo stop bit. Ogni byte MIDI inviato produce in effetti la trasmissione di 10 bit che in termini di tempo richiederà 320
.
microsecondi. La trasmissione inizia con l’invio di un bit uguale a zero ed è seguita dagli 8 bit che formano la parola da
trasmettere; per ultimo viene inviato il bit di stop che è uguale a 1 e che ripristina la tensione al valore alto normale.
MIDI: I CAVI
FIG.16
La trasmissione seriale dei dati viene effettuata lungo cavi a cinque fili ai cui estremi sono saldati dei connettori DIN 5 pin (poli).
-7--7
PIN 2: collegamento della massa, previene da interferenze.
PIN 4: collegamento che assicura che la corrente (tensione 5 V) fluisca nella giusta direzione.
PIN 5: collegamento che trasporta i dati MIDI.
Il MIDI utilizza un solo filo all’interno del cavo di collegamento per trasferire informazioni in una sola direzione.
MIDI: LE PORTE
FIG.17
Tutte le apparecchiature MIDI-compatibili sono equipaggiate da porte MIDI che si presentano come normali connettori DIN
femmina a cinque poli. Tranne qualche vecchio modello, generalmente sono presenti 3 tipi di porte: IN, OUT e THRU.
MIDI OUT
I messaggi MIDI sono inviati tramite questa porta ai dispositivi collegati.
MIDI IN
⇐
I messaggi MIDI sono ricevuti tramite questa porta dai dispositivi collegati.
MIDI THRU
←
I messaggi MIDI che giungono alla porta MIDI IN sono duplicati e trasmessi ai dispositivi collegati. Si tratta di un utile
connessione per collegare strumenti in cascata.
MIDI SEQUENCE EDITING
I principali criteri di organizzazione sui sequencer MIDI sono 3:
- A tracce: si riferiscono solitamente a riprese di registrazioni separate o strati di una composizione.
- A canali: vengono registrati i dati assegnati ai diversi canali midi su un unica traccia.
- A pattern: i dati vengono divisi in sottosequenze.
Il trasferimento delle sequenze midi tra due programmi è possibile sia in tempo differito che in tempo reale. Il primo avviene
F-
tramite il formato standard midi file (SMF, suddiviso in tre tipi: 0, 1 e 2), il secondo avviene tramite i driver che consentono lo
scambio tra 2 programmi midi utilizzati in simultanea; questo consente anche la trasformazione dei dati.
→_e=⇐=⇐
La rappresentazione delle informazioni midi include i seguenti metodi principali:
- Event list: è una lista alfanumerica dei dati in ordine cronologico; una rappresentazione molto dettagliata e completa.
- Piano roll: deriva dal 1° metodo di notazione; in verticale ci sono le altezze mentre in orizzontale i tempi di start e durata.
- Common music notation: trascrizione in notazione tradizionale.
- Metrical grids: usato soprattutto per drum machines; l‘asse orizzontale rappresenta il tempo, diviso a seconda dell’unità ritmica
che si intende editare.
- Controller envelopes: utile per i controlli continui, rappresentati graficamente come inviluppi.
- Graphic faders: rappresentazione come fader grafici.
e audio. E-
- Digital audio waveforms: rappresentazione temporale della forma d’onda affiancata ai dati midi, utile per il confronto tra midi
-
-
Inoltre le principali operazioni di editing includono: time, pitch, amplitude, channel, program change e continuous controller
-
-
- - -
editing.
-
CENNI SULL’ OSC OPEN SOUD CONTROL
-
Da quel lontano 1983 ad oggi l’informatica musicale si è evoluta, i nostri computer hanno centuplicato la loro potenza e la loro
capacità di creare suoni. Ma il protocollo MIDI è sempre lo stesso, 16 canali, messaggi di nota ON e nota OFF, Control
Change… tante possibilità operative ma non più sufficienti ai fini musicali del nostro tempo. Il limite, dovuto al tipo di cavo
usato per i collegamenti e al tipo di connettore (DIN- 5/180), è principalmente sulla quantità di informazioni che due o più
apparati possono scambiarsi contemporaneamente. -
Per ovviare a questo problema, uno degli istituti musicali più conosciuti al mondo, il Center for New Music and Audio
Technology (CNMAT) di Berkeley, ha studiato un nuovo tipo di protocollo÷
chiamato Open Sound Control (OSC).
-
Questo rivoluzionario sistema, basato sulla connettività e sul concetto di networking applicato a strumenti musicali, computer,
controller e multimedia device offre una banda per lo scambio di dati molto più ampia, 1024 messaggi simultanei contro i 128
del MIDI, minore latenza e risoluzione dei dati a 32bit. Inoltre, proprio per
- -
-7ITL
come è concepito, si presta a ‘viaggiare’ nativamente
su differenti tipologie di reti, dalla comune ethernet, all’usb, dal bluetooth al wireless alla firewire e anche sulle vecchie RS232
-
seriali. -
- -
-
e- - -
Tra tutti questi ‘mezzi di locomozione’ per i nostri dati il più interessante per i nostri scopi è forse il wireless che ci permette di
interfacciare con i nostri computer dispositivi quali iphone, ipod touch e wiimote aprendo la strada ad un’ampia varietà di
scenari possibili.
GESTURAL INPUT
Uno strumento è la più tradizionale interfaccia per musicisti, che media la gestualità e il suono, ma la tecnologia elettronica ha
dato vita alla progettazione di nuovi strumenti musicali, i controller o input device. Le input device trasformano i gesti umani in
forma elettrica, sia essa analogica o digitale; questa trasduzione provvede a 2 vantaggi principali:!
Un modello semplice di controller è un sensore connesso ad un circuito di interfaccia elettronica. Il sensore risponde ad uno
stimolo fisico, come la pressione su di un tasto, la pressione dell’aria etc. Questa azione è traslata dal circuito di interfaccia in un
segnale di controllo continuo (faders, pedali, ruote) o discreto (pulsanti, funzioni on/off).
Il sensore è tipicamente meccanico o analogico, e ad un certo punto l’interfaccia trasforma la sua uscita in forma digitale, di
solito un messaggio MIDI.
La domanda principale nel disegnare controller per sintetizzatori è se modellarli o meno su strumenti già esistenti. I vantaggi di
usare strumenti tradizionali come modello sono innumerevoli; ma i controlli tradizionali hanno uno svantaggio: la potenza
complessiva di un sintetizzatore rimane limitata al controllo di uno strumento tradizionale; per esplorare la complessa tavolozza
timbrica degli strumenti elettronici di oggi, abbiamo bisogno di controller speciali confezionati sulle loro capacità uniche.
GESTURAL INPUT
Numerosi sono state le performance con strumenti elettronici analogici che hanno preceduto i primi esperimenti nel campo
delle interfacce gestuali digitali.
Theremin (1919, Lev S. Termen) - Ondes Martenot (1928, Maurice Martenot) - Croix Sonore (1934, Nicolai Obukhov) -
-
http://www.120years.net
http://www.mathieubosi.com/zikprojects/120YearsOfElectronicMusic.pdf
http://www.indiana.edu/~emusic/elechist.htm
Il percorso storico della progettazione delle interfacce gestuali può essere così riassunto:
⇐
Strumenti elettronici analogici tipicamente basati su interfacce gestuali tradizionali
Strumenti elettronici digitali tipicamente basati su interfacce gestuali tradizionali
Strumenti elettronici digitali basati su interfacce gestuali innovative
Iper-strumenti: strumenti tradizionali equipaggiati di sensori
...
Performance interattive gestuali
Motion capture (kinect, myo, leap, etc.)
EQUALIZZATORI
Un equalizzatore è un circuito in grado di amplificare o attenuare un certa banda di frequenze e di lasciarne altre inalterate.
÷ - -
variazione permettendo di centrare la campana esattamente nella zona di frequenze che vogliamo manipolare.
Fattore di merito Q (Q factor)
È un parametro che misura l'ampiezza della campana cioè l'ampiezza della banda di frequenze che vengono amplificate (o
attenuate). È calcolato in base alla formula Q= fc/larghezza relativa di banda, dove la larghezza relativa di banda è misurata a
HTAdibaF
3dB al di sotto del picco. Il fattore di merito Q è indipendente dalla zona di frequenze in cui lo si sta considerando.
In base al numero di variabili gestibili dall’utente, gli equalizzatori si suddividono in 4 ulteriori tipologie:
Parametrici
È possibile modificare tutte e tre le grandezze che caratterizzano la campana di equalizzazione: frequenza centrale (fc),
guadagno (A), fattore di merito (Q). I mixer professionali hanno su ogni canale un equalizzatore parametrico a 4 bande: bassi,
medio-bassi, medio-alti, alti.
Semi parametrici
1.5). ÷
Il fattore di merito Q non è variabile cioè la forma della campana è fissa (generalmente Q viene fissato ad un valore circa pari a
-
-
Di picco
F-
Sono fissi i valori di fc e Q ed è possibile intervenire solo sul guadagno.
installati su mixer di fascia bassa.
-
Questi EQ sono il tipo più economico e vengono
-
Grafico
÷
È composto da una serie di singoli equalizzatori a campana. La larghezza della campana e il numero di bande variano a seconda
del contesto operativo per il quale l'equalizzatore viene disegnato: commerciale, semi-professionale, professionale.
Gli equalizzatori possono inoltre essere di tipo attivo o passivo, in base alla possibilità di operare un guadagno sul segnale o
- -
meno. -
FILTRI
-
I filtri vengono utilizzati per eliminare delle bande di frequenze dal segnale originario. Generalmente vengono realizzati con una
circuiteria passiva e sono identificati da una frequenza di taglio fc (sempre calcolata nel punto in cui il guadagno subisce una
perdita pari a 3dB).
→ di quanti dB diminuisce il guadagno in÷un'ottava (sappiamo già che a tale termine corrisponde un raddoppio
-
fornisce la misura
della frequenza). Talvolta la pendenza è espressa in poli (oppure ordine del filtro); in entrambi i casi tale valore va moltiplicato
per 6 dB/ottava.
6 dB/oct = 1° ordine, un polo.
12 dB/oct = 2° ordine, 2 poli.
18 dB/oct = 3° ordine, 3 poli.
24 dB/oct = 4° ordine, 4 poli.
PROCESSORI DI SEGNALE
Compressore
È sicuramente il processore più importante. Il compressore agisce sulla dinamica del segnale di ingresso riducendone l'ampiezza
quando questa supera una certa soglia; la riduzione viene espressa con un rapporto, per esempio 3:1. Ciò significa che quando
il segnale supera la soglia, la parte di segnale al di sopra di questa viene ridotta di 1/3.
• Threshold (Soglia): Questo valore è espresso in dB e determina la soglia oltre la quale il compressore entra in azione.
• Ratio (Rapporto): Quantifica la riduzione di ampiezza del segnale al di sopra della soglia.
• Attack time (Tempo di attacco): Indica il tempo impiegato dal compressore per entrare in azione dopo che il segnale ha
superato la soglia e viene indicato in millisecondi.
• Release time (Tempo di rilascio): è il tempo che impiega il compressore per ritornare all'assenza di compressione ossia a un
rapporto 1:1 dopo che il segnale di ingresso è sceso al di sotto della soglia. Serve a conferire un'azione più dolce all'azione del
compressore.
=
• Hold time (Tempo di tenuta): Dopo che l'ampiezza del segnale di ingresso scende al di sotto della soglia il compressore
-
- -
riduce la sua azione durante il tempo di rilascio fino a tornare al rapporto di compressione 1:1. Il tempo di tenuta permette di
ritardare l'inizio del tempo di rilascio dopo che il segnale è sceso sotto la soglia. In pratica mantiene più a lungo il compressore
in azione.
PROCESSORI DI SEGNALE
• Side chain: Il circuito compressore può essere visto come un amplificatore controllato da una tensione in cui la tensione
e- =
controllante risulta essere quella del segnale di ingresso. Se la tensione del segnale di ingresso supera la soglia, il compressore
entra in azione. Non è necessario che il compressore sia controllato dalla tensione del segnale di ingresso, è possibile utilizzare
quasiasi segnale controllante. Questa peculiarità dei compressori permette tutta una serie di artifici molto interessanti.
Vediamone un esempio: il casoE- in cui la cassa della batteria viene coperta dalla nota di basso suonata contemporaneamente,
soprattutto sulle battute dispari (1 e 3 della musica in 4/4). Questà è una situazione abbastanza comune anche perché il
contenuto in frequenza dei due suoni è simile dunque vengono facilmente confusi.
• Curve di compressione: hard knee (ginocchio duro), soft knee (ginocchio morbido).
• Risposta del compressore: Peak (il compressore risponde ai picchi del segnale e dunque misura esattamente l'ampiezza della
tensione di ingresso) o RMS (il compressore risponde al Root Mean Square del segnale, cioè il suo valore efficace, dunque ha
un funzionamento più dolce e meno a scatti).
÷ È
ÈI
Compressore con punto di rotazione ⇐ seme
La curva di compressione in questo caso si identifica con la retta a guadagno unitario. Quando questa viene ruotata si vede che
al di sopra della soglia viene realizzata una compressione mentre il segnale al di sotto della soglia viene amplificato.
Compressore multibanda
Questo modulo è in grado di realizzare ✓ una suddivisione del segnale in bande di frequenza e di operare una diversa
- -
compressione su ciascuna banda. Per fare ciò il modulo monta un circuito crossover che suddivide il segnale in bande. Ogni
uscita del crossover viene mandata all'ingesso di un compressore diverso ognuno dotato dei propri controlli indipendenti dagli
altri.
PROCESSORI DI SEGNALE
De-esser
Il termine de-essing indica l'operazione di eliminazione di quel fastidioso fruscio che si ha in certe registrazioni vocali in
corrispondenza delle lettere con maggiore contenuto di alte frequenze come la 's'. Il fruscio dipende dal fatto che il segnale in
quel momento satura alla frequenza della lettera 's' generando una distorsione. è immediato pensare ad un'equalizzazione alla
frequenza incriminata per risolvere il problema. Questa soluzione non è tuttavia praticabile in quanto modifica il contenuto in
frequenza dell'intera registrazione alterandolo irrimediabilmente. Per realizzare un corretto de-essing si ricorre all'uso di un
compressore abbinato ad un equalizzatore.
Il funzionamento è il seguente: il segnale originario viene fatto passare in un equalizzatore in cui le 's' vengono evidenziate
ancora di più mentre tutte le altre frequenze vengono attenuate al massimo.
Il segnale che esce dall'equalizzatore ha un'ampiezza rilevante solo in presenza delle 's'. Questo segnale viene spedito
nell'ingresso sidechain del compressore con l'effetto di metterlo in azione solo in corri- spondenza delle 's'. Dunque ogni volta
che la 's' si presenta, il segnale uscito dall'equalizzatore supera la soglia fissata sul compressore che dunque entra in azione
abbassando il volume della voce ed evitando la saturazione. Finita la 's' il volume della voce torna quello originario.
Limiter
Quando in un compressore il rapporto di compressione viene portato ad un valore superiore a 10:1, questo assume il
comportamento di un limiter. Con riferimento alla figura precedente, il segnale che ha superato il valore di soglia viene
riportato al va- lore di soglia stesso. Ciò significa che il segnale non supera mai la soglia. Nonostante questa soluzione introduca
forti distorsioni, in quanto ha un comportamento equivalente alla saturazione, viene a volte impiegata per proteggere le
apparecchiature da picchi inaspettati che potrebbero danneggiarli.
PROCESSORI DI SEGNALE
Gate
Si tratta di un circuito in grado di far passare il segnale di ingresso verso l'uscita solo se l'ampiezza di questo è maggiore di una
prefissata soglia. I controlli del Gate sono simili a quelli di un compressore:
• Threshold (Soglia): al di sopra della soglia il segnale passa e arriva all'uscita. Al di sotto della soglia il segnale viene fermato o
meglio, come vedremo tra un momento, attenuato.
• Range-Floor (Intervallo di attenuazione) : determina la quantità di attenuazione introdotta dal modulo (misurata in dB). Valori
maggiori di -50 dB mantengono il gate praticamente chiuso (l'equivalente di questo controllo sul compressore è il rapporto di
compressione).
• Attack time (Tempo di attacco): tempo di apertura del gate quando il segnale supera la soglia.
•Hold time (Tempo di tenuta): Il tempo per il quale il gate viene tenuto aperto anche quando il segnale è ridisceso al di sotto
della soglia.
Expander
Il suo funzionamento è simile a quello del compressore con la differenza che invece di avere un intervallo di attenuazione
espresso in dB troviamo un rapporto di espansione.
EFFETTI
RT 660
90
Imiti al Impulse
DirectSound
←
Reflections 1
Reflections 2
«
GRAPPOLO di Riverberazioni
3045 →
FIG.18
Riverbero
=
Il riverbero è il suono che permane in un ambiente quando il segnale diretto si è esaurito. Per immaginarlo pensiamo ad un
esempio macroscopico: un colpo di pistola in una cattedrale. In effetti, capita raramente di udire colpi di pistola nelle cattedrali
ma è comunque una situazione facile da immaginare dal punto di vista del suono. Dopo lo sparo (il suono fuoriuscito dalla -
pistola si esaurisce quasi subito) il suono rimbomba per diversi secondi estinguendosi lentamente. Questo suono è originato
dalle riflessioni del suono originario sulle superfici che incontra. Dunque ad ogni riflessione l'onda sonora perde una parte di
energia fino a che questa non si estingue.
EFFETTI
La figura mostra l'ampiezza delle varie riflessioni e gli istanti di tempo in cui si verificano. Il primo suono che raggiunge
l'ascoltatore è sempre il segnale diretto (Direct Signal) essendo questo il percorso minimo percorso effettuato dal suono.
Dopo una breve pausa denominata ritardo iniziale (pre-delay) arrivano le prime riflessioni (early reflections) che sono quelle
che hanno incontrato una sola superficie prima di arrivare all'ascoltatore. Infine arrivano le ultime riflessioni (late reflections)
che sono quelle che hanno incontrato più di una superficie. Queste arrivano sovrapponendosi l'una con l'altra generando un
suono mediamente continuo. Le ultime riflessioni, per il loro carattere ravvicinato nel tempo, prendono anche il nome di
grappolo di riverberazione, in inglese RC: reverb cluster.
Per riprodurre un tale comportamento si sono adottate tecniche ingegnose che vengono di seguito citate in quanto sono
simulate sui moderni moduli di riverbero digitali.
• Spring (Riverbero a molla) Per simulare l'effetto del riverbero viene impiegata una molla all'interno di una cavità ai cui estremi
vengono posti due trasduttori che applicano alla molla il segnale audio. Un microfono viene impiegato per la ripresa del suono
così generato. Non è una simulazione molto realistica; la molla viene impiegata su alcuni amplificatori per chitarra mentre è
raramente utilizzata per la voce. Un modulo digitale che implementa questa modalità può essere utilizzato per conferire al
suono di una chitarra elettrica un carattere anni '60.
• Plate (Riverbero a piastra) Su una piastra, sospesa verticalmente, vengono applicati due trasduttori, uno che trasmette il
segnale di ingresso e uno che preleva la vibrazione così generata. Posizionando in punti diversi i due trasduttori è possibile
variare le caratteristiche dell'effetto. Questa tecnica ha una risposta più fedele del riverbero a molla, soprattutto alle alte
frequenze.
• Chamber (Camera di riverbero) La sorgente sonora è posta all'interno di una stanza le cui pareti hanno particolari
caratteristiche riflettenti. Anche qui viene effettuata la ripresa del suono di ambiente attraverso un microfono.
EFFETTI
Le unità di riverbero dell'ultima generazione praticamente sono tutte digitali e impiegano algoritmi di simulazione molto
sofisticati (la cui relizzazione è resa possibile
e- grazie al continuo aumento della potenza di calcolo disponibile). Di seguito viene
-
•! Pre Delay: Consente di modificare il tempo del Pre Delay. Ritardo iniziale
•! Early Reflections: Durata delle prime riflessioni.
•! Decay: Durata del decadimento delle ultime riflessioni.
•! Mix: La percentuale tra segnale asciutto e bagnato (riverberato).
•! Dimensioni della stanza: spesso i valori sono riferiti alle forme-dimensioni degli ambienti
(hall, room, chamber, cathedral, spring/plate).
•! HF Ratio: le alte frequenze sono le prime ad essere attenuate durante le riflessioni. Questo controllo permette di simulare le
capacità di assorbimento delle superfici.
•! Stereo width: allarga o restringe l'immagine stereo del riverbero.
Alcune unità permettono di definire un tempo di decadimento diverso a seconda della frequenza.
-
EFFETTI
Delay
- distanziate nel tempo ingenerando un 'effetto eco'. Inizialmente veniva generato utilizzando un
Aggiunge repliche del segnale
- -
registratore analogico sfruttando la distanza tra la testina di riproduzione e quella di registrazione. Mandando l'uscita del canale
sinistro all'ingresso del canale destro e viceversa e lavorando sulla velocità del nastro si riusciva a ottenere un effetto delay
-
versatile e, per l'epoca, rivoluzionario. L'era digitale ha semplificato molto la realizzazione di questo effetto consentendo inoltre
di introdurre innovazioni interessanti come il ping pong delay (le repliche sono alternate sui canali destro e sinistro) e il multi-
tap (le repliche si susseguoni con tempi diversi creando effetti di dissolvenza). Nella pratica musicale il tempo di delay viene
spesso posto pari al tempo di una battuta. In questo modo le repliche vanno a tempo con la musica creando un effetto che
contribuisce a riempire il suono. Per calcolare il tempo di delay (in millisecondi) necessario per un pezzo di n battute al minuto
(bpm - beats per minute) possiamo ricorrere alla seguente formula:
1-
Delay
=
=
per esempio una sinusoide). Vediamo cosa succede in una tale situazione considerando un segnale sinu-
soidale:
EFFETTI
" ¥:÷÷ :
¥V;È
:
sefifaeaatomassimomexaseniondat.se '
FIG.19
Sinusoidi sfasate
La forma d'onda superiore è il nostro segnale originario che supporremo costituito da una sinusoide e
Phaser dalla prima armonica. La seconda forma d'onda è identica alla precedente ma ha un ritardo variabile che
al massimo è pari a mezza semionda. Dunque immaginiamo la seconda forma d'onda oscillare sull'asse
-
Questo effetto combina
orizzontale tra 0 e la posizione in cui si trova in figura. Quando si trova sullo 0, le due forme d'onda
il segnale originario e una sua versione ritardata in cui il ritardo viene modulato (ciò significa che varia
sono in fase e riscontriamo un rinforzo di tutte le frequenze componenti il segnale. Quando si trova nella
posizione ritardata (come in figura), notiamo una cancellazione della prima armonica e un rinforzo della
-
continuamente e l'andamento della variazione è definito da una funzione come per esempio una sinusoide).
seconda. Dunque il contenuto in frequenza del segnale originario è stato modificato. Tutte le posizioni
intermedie agiscono in misura diversa sia sulla prima che sulla seconda armonica. Riassumendo, l'effetto
•! Rate: la velocità di variazione del tempo di delay (è la frequenza del modulatore LFO).
•! Mix: miscela il segnale originario e quello manipolato.
•! Feedback: controlla la quantità di phasing applicata.
Flanger
Estende l'effetto phasing aggiungendo anche un pitch shifter ossia un circuito in grado di aumentare o diminuire la tonalità del
segnale (l'esempio classico di pitch shifting è quello in cui si accelera o si rallenta lo scorrimento di un nastro magnetico). Per
dare una spiegazione pratica di questo fenomeno pensiamo (come al solito) ad una sinusoide ad una certa frequenza registrata
su un nastro magnetico. Aumentando la velocità del nastro avremo come risultato che la sinusoide viene riprodotta più
velocemente e ciò equivale alla generazione di una sinusoide a frequenza maggiore.
Chorus
Presenta un'ulteriore estensione rispetto al Phaser e al Flanger aggiungendo un modulo che introduce variazioni di ampiezza sul
segnale manipolato.Le variazioni di tempo, ampiezza e pitch restituiscono un effetto simile al suono di un coro da cui il nome
dell'effetto.
EFFETTI
Pitch Shifter
Questo effetto, come precedentemente accennato, è in grado di aumentare o diminuire la tonalità del segnale di ingresso.
Questa proprietà può essere impiegata in modi molto diversi e interessanti. Per esempio si può regolare l'effetto in modo che
restituisca la nota suonata in ingresso aumentata di un'ottava (questa modalità viene a volte usata sugli assoli di chitarra
elettrica).
Tremolo
Applica sul segnale di ingresso modulazioni di ampiezza. La frequenza del LFO controlla la rapidità della modulazione
dell'ampiezza del segnale audio.
Vibrato
Applica sul segnale di ingresso modulazioni di tono (frequenza). In questo caso un LFO modula la frequenza del segnale.
Distorsore
Non è esagerato affermare che questo effetto ha cambiato la storia della musica. La nascita del Rock infatti deve molto
all'invenzione di questo effetto scoperto per caso come risultato di un'errata amplificazione. Il principio di funzionamento del
distorsore è molto semplice. Quando l'ampiezza di un segnale supera la soglia massima consentita all'ingresso di un
amplificatore, si incorre nel fenomeno chiamato saturazione. Questo significa che quando il segnale di ingresso è minore della
soglia, l'amplificatore funziona correttamente e riproduce in uscita la forma d'onda amplificata. Quando però il segnale di
ingresso supera la soglia, l'amplificatore ha raggiunto il suo massimo e non è in grado di amplificare ulteriormente la forma
d'onda.
segnale di ingresso ridiscende al di sotto della soglia l'amplificatore ricomincia a funzionare corretta-
EFFETTI
mente. La figura seguente illustra la curva di amplificazione di un amplificatore e la sua azione su un se-
gnale di ingresso di tipo sinusoidale che presenta dei massimi al di sopra della soglia.
FIG.20
Effetto della saturazione su una sinusoide
Ciò si traduce in un'uscita costante pari al massimo consentito per l'amplificazione per tutto il tempo che il segnale di ingresso
Dunque in uscita abbiamo un segnale 'saturato'. La saturazione introduce una brusca variazione del se-
rimane al di sopra della soglia.
gnale Quando
che non segueil più segnale di ingresso
il suo andamento ridiscende
sinusoidale al disignifica
naturale e questo sottochedella soglia
il nuovo segnalel'amplificatore ricomincia a
funzionare correttamente. Lacontiene
figuranuoveseguente
frequenze piùillustra la curva
alte di quella di amplificazione
originaria. Vediamo questo fattodi dal un
puntoamplificatore
di vista della teo- e la sua azione su un se-
ria dei segnali facendo riferimento alle nozioni introdotte nella relativa sezione .
gnale di ingresso di tipo sinusoidale che presenta dei massimi al di sopra della soglia.
Dunque in uscita abbiamo unAbbiamosegnale 'saturato'. La saturazione introduce una brusca variazione del segnale che non segue più il
detto più volte che qualsiasi segnale complesso è riconducibile alla somma di sinusoidi a di-
verse frequenze (e fasi). Più brusche sono le transizioni presentate dal segnale, più frequenze sono ne-
suo andamento sinusoidale cessarie
naturale e questo
per riprodurlo significa
in termini cheGuardando
di sinusoidi. il nuovo segnale
ora la sinusoudecontiene nuove
saturata di figura frequenze più alte di quella
ci accor-
giamo che sono state introdotte delle brusche transizioni e dunque nello spettro devono essere comparse
originaria. Vediamo questo fatto dal frequenze
delle nuove punto edisono vista della
queste teoria ildei
che generano suonosegnali facendo
tipico della distorsione.riferimento
Dunque la distor-alle nozioni introdotte nella
relativa sezione .Abbiamo detto piùstatovolte
sione allo puro siche
ottienequalsiasi segnaledicomplesso
alzando il guadagno un pramplificatoreè riconducibile
in modo che parte del allasegnale
somma di sinusoidi a diverse
che poi andrà all'amplificatore finale . superi in certi punti il suo valore di soglia. Un bell'amplificatore
frequenze (e fasi). Più brusche sono
Marshall le transizioni
valvolare presentate
è in grado di generare dalsuono
un bellissimo segnale, più frequenze
di distorsione. Se non ne avetesono necessarie per riprodurlo in
uno, potete
termini di sinusoidi. Guardandousare unora la che
effetto sinusoude
simula al suo saturata di figura
interno la saturazione, ciseaccorgiamo
anche chesaràsono
la qualità dell'effetto diversa.state introdotte delle brusche
transizioni e dunque nello spettro devono essere comparse delle nuove frequenze e sono queste che generano il suono tipico
della distorsione. Dunque la distorsione allo stato puro si ottiene 96 alzando il guadagno di un pramplificatore in modo che parte
del segnale che poi andrà all'amplificatore finale . superi in certi punti il suo valore di soglia.
EFFETTI
Exciter
Questo effetto introduce leggere saturazioni sul segnale di ingresso. Come detto, una saturazione genera nuove armoniche
dipendenti dal contenuto in frequenza del segnale di ingresso. Quindi l'exciter è in grado di generare alte frequenze a partire da
segnali che ne difettano. è per esempio il caso di alcune voci, che per quanto intonate, in fase di missaggio mancano di
'mordente'. L'effetto è in grado di conferire a queste voci caratteristiche come la brillantezza e la definizione. A volte un exciter
viene impiegato su un intero mix al fine di equilibrarne il contenuto in frequenza. Un altro utilizzo è nel campo radiotelevisivo: a
volte le pubblicità vengono trattate con un exciter in modo da risaltare maggiormente ri- spetto ai suoni della normale
programmazione.
Wah-wah
Questo effetto viene applicato principalmente alle chitarre elettriche e acustiche. Consiste in un filtro passa basso che presenta
un picco in corrispondenza della frequenza di taglio.
La frequenza di taglio viene modificata manualmente anzi, per essere precisi, con il piede che aziona un potenziometro, oppure
modulata con un LFO o ancora può essere controllata dall'ampiezza del segnale di ingresso. Ciò significa che quando una corda
viene pizzicata, il segnale si trova nella fase di attacco e dunque ha l'ampiezza maggiore. Ciò si traduce in una frequenza di taglio
elevata. Man mano che l'inviluppo del suono decade, diminuisce anche la frequenza di taglio. Questa traslazione della frequenza
di taglio genera il suono tipico del Wah-Wah.
EQUALIZZATORI
Un equalizzatore è un circuito in grado di amplificare o attenuare un certa banda di frequenze e di lasciarne altre inalterate.
XX
Esistono 2 tipologie principali di equalizzatore:
XX
Parametrici
È possibile modificare tutte e tre le grandezze che caratterizzano la campana di equalizzazione: frequenza centrale (fc),
guadagno (A), fattore di merito (Q). I mixer professionali hanno su ogni canale un equalizzatore parametrico a 4 bande: bassi,
medio-bassi, medio-alti, alti.
Semi parametrici
Il fattore di merito Q non è variabile cioè la forma della campana è fissa (generalmente Q viene fissato ad un valore circa pari a
1.5).
Di picco
Sono fissi i valori di fc e Q ed è possibile intervenire solo sul guadagno. Questi EQ sono il tipo più economico e vengono
installati su mixer di fascia bassa.
Grafico
È composto da una serie di singoli equalizzatori a campana. La larghezza della campana e il numero di bande variano a seconda
del contesto operativo per il quale l'equalizzatore viene disegnato: commerciale, semi-professionale, professionale.
Gli equalizzatori possono inoltre essere di tipo attivo o passivo, in base alla possibilità di operare un guadagno sul segnale o
meno.
FILTRI
I filtri vengono utilizzati per eliminare delle bande di frequenze dal segnale originario. Generalmente vengono realizzati con una
XX
circuiteria passiva e sono identificati da una frequenza di taglio fc (sempre calcolata nel punto in cui il guadagno subisce una
perdita pari a 3dB).
La pendenza di un filtro, o Slope, stabilisce quanto rapidamente l'ampiezza decada. La pendenza si misura in dB/ottava cioè
fornisce la misura di quanti dB diminuisce il guadagno in un'ottava (sappiamo già che a tale termine corrisponde un raddoppio
della frequenza). Talvolta la pendenza è espressa in poli (oppure ordine del filtro); in entrambi i casi tale valore va moltiplicato
per 6 dB/ottava.
6 dB/oct = 1° ordine, un polo.
12 dB/oct = 2° ordine, 2 poli.
18 dB/oct = 3° ordine, 3 poli.
24 dB/oct = 4° ordine, 4 poli.
PROCESSORI DI SEGNALE
Compressore
XX
È sicuramente il processore più importante. Il compressore agisce sulla dinamica del segnale di ingresso riducendone l'ampiezza
quando questa supera una certa soglia; la riduzione viene espressa con un rapporto, per esempio 3:1. Ciò significa che quando
il segnale supera la soglia, la parte di segnale al di so- pra di questa viene ridotta di 1/3.
• Threshold (Soglia): Questo valore è espresso in dB e determina la soglia oltre la quale il compressore entra in azione.
• Ratio (Rapporto): Quantifica la riduzione di ampiezza del segnale al di sopra della soglia.
• Attack time (Tempo di attacco): Indica il tempo impiegato dal compressore per entrare in azione dopo che il segnale ha
superato la soglia e viene indicato in millisecondi.
• Release time (Tempo di rilascio): è il tempo che impiega il compressore per ritornare all'assenza di compressione ossia a un
rapporto 1:1 dopo che il segnale di ingresso è sceso al di sotto della soglia. Serve a conferire un'azione più dolce all'azione del
compressore.
• Hold time (Tempo di tenuta): Dopo che l'ampiezza del segnale di ingresso scende al di sotto della soglia il compressore
riduce la sua azione durante il tempo di rilascio fino a tornare al rapporto di compressione 1:1. Il tempo di tenuta permette di
ritardare l'inizio del tempo di rilascio dopo che il se- gnale è sceso sotto la soglia. In pratica mantiene più a lungo il compressore
in azione.
PROCESSORI DI SEGNALE
• Side chain: Il circuito compressore può essere visto come un amplificatore controllato da una tensione in cui la tensione
XX
controllante risulta essere quella del segnale di ingresso. Se la tensione del segnale di ingresso supera la soglia, il compressore
entra in azione. Non è necessario che il compressore sia controllato dalla tensione del segnale di ingresso, è possibile utilizzare
quasiasi segnale controllante. Questa peculiarità dei compressori permette tutta una serie di artifici molto interessanti.
Vediamone un esempio: il caso in cui la cassa della batteria viene coperta dalla nota di basso suonata contemporaneamente,
soprattutto sulle battute dispari (1 e 3 della musica in 4/4). Questà è una situazione abbastanza comune anche perché il
contenuto in frequenza dei due suoni è simile dunque vengono facilmente confusi.
• Curve di compressione: hard knee (ginocchio duro), soft knee (ginocchio morbido).
• Risposta del compressore: Peak (il compressore risponde ai picchi del segnale e dunque misura esattamente l'ampiezza della
tensione di ingresso) o RMS (il compressore risponde al Root Mean Square del segnale, cioè il suo valore efficace, dunque ha
un funzionamento più dolce e meno a scatti).
Compressore multibanda
Questo modulo è in grado di realizzare una suddivisione del segnale in bande di frequenza e di operare una diversa
compressione su ciascuna banda. Per fare ciò il modulo monta un circuito crossover che suddivide il segnale in bande. Ogni
uscita del crossover viene mandata all'ingesso di un compressore diverso ognuno dotato dei propri controlli indipendenti dagli
altri.
PROCESSORI DI SEGNALE
De-esser
Il termine de-essing indica l'operazione di eliminazione di quel fastidioso fruscio che si ha in certe registrazioni vocali in
XX
corrispondenza delle lettere con maggiore contenuto di alte frequenze come la 's'. Il fruscio dipende dal fatto che il segnale in
quel momento satura alla frequenza della lettera 's' generando una distorsione. è immediato pensare ad un'equalizzazione alla
frequenza incriminata per risolvere il problema. Questa soluzione non è tuttavia praticabile in quanto modifica il contenuto in
frequenza dell'intera registrazione alterandolo irrimediabilmente. Per realizzare un corretto de-essing si ricorre all'uso di un
compressore abbinato ad un equalizzatore.
Il funzionamento è il seguente: il segnale originario viene fatto passare in un equalizzatore in cui le 's' vengono evidenziate
ancora di più mentre tutte le altre frequenze vengono attenuate al massimo.
Il segnale che esce dall'equalizzatore ha un'ampiezza rilevante solo in presenza delle 's'. Questo segnale viene spedito
nell'ingresso sidechain del compressore con l'effetto di metterlo in azione solo in corri- spondenza delle 's'. Dunque ogni volta
che la 's' si presenta, il segnale uscito dall'equalizzatore supera la soglia fissata sul compressore che dunque entra in azione
abbassando il volume della voce ed evitando la saturazione. Finita la 's' il volume della voce torna quello originario.
Limiter
Quando in un compressore il rapporto di compressione viene portato ad un valore superiore a 10:1, questo assume il
comportamento di un limiter. Con riferimento alla figura precedente, il segnale che ha superato il valore di soglia viene
riportato al va- lore di soglia stesso. Ciò significa che il segnale non supera mai la soglia. Nonostante questa soluzione introduca
forti distorsioni, in quanto ha un comportamento equivalente alla saturazione, viene a volte impiegata per proteggere le
apparecchiature da picchi inaspettati che potrebbero danneggiarli.
PROCESSORI DI SEGNALE
Gate
Si tratta di un circuito in grado di far passare il segnale di ingresso verso l'uscita solo se l'ampiezza di questo è maggiore di una
prefissata soglia. I controlli del Gate sono simili a quelli di un compressore:
XX
• Threshold (Soglia): al di sopra della soglia il segnale passa e arriva all'uscita. Al di sotto della soglia il segnale viene fermato o
meglio, come vedremo tra un momento, attenuato.
• Range-Floor (Intervallo di attenuazione) : determina la quantità di attenuazione introdotta dal modulo (misurata in dB). Valori
maggiori di -50 dB mantengono il gate praticamente chiuso (l'equivalente di questo controllo sul compressore è il rapporto di
compressione).
• Attack time (Tempo di attacco): tempo di apertura del gate quando il segnale supera la soglia.
•Hold time (Tempo di tenuta): Il tempo per il quale il gate viene tenuto aperto anche quando il segnale è ridisceso al di sotto
della soglia.
Expander
Il suo funzionamento è simile a quello del compressore con la differenza che invece di avere un intervallo di attenuazione
espresso in dB troviamo un rapporto di espansione.
SINTESI DEL SUONO
Introduzione alla Sintesi
Negli strumenti musicali tradizionali il suono e’ prodotto dalla vibrazione di parti meccaniche. Negli strumenti sintetici, la
vibrazione e’ descritta da funzioni nel tempo, dette segnali, che esprimono la variazione nel tempo della pressione acustica.
Per costruire uno strumento musicale tradizionale e’ sufficiente realizzare un dispositivo che sfrutta uno dei tanti meccanismi
fisici per la produzione di vibrazioni. Negli strumenti musicali sintetici, invece, l’obiettivo e’ di generare una piu’ astratta funzione
nel tempo, detta segnale acustico. Allo scopo e’ necessario implementare una rappresentazione semplificata ed astratta del
modo di produzione del suono, detta modello.
Il modello del segnale, quindi, gioca il ruolo del fenomeno fisico negli strumenti tradizionali: esso costituisce il nucleo centrale
attorno al quale si sviluppa la realizzazione dello strumento musicale. Nel modello l’astrazione ha il significato di inscrivere il
meccanismo di produzione in una classe piu’ generale di cui esso rappresenta un caso particolare. La semplificazione tende a
focalizzare la descrizione sugli aspetti ritenuti significativi nel caso in esame. Spesso nella descrizione del modello si ricorre a
relazioni matematiche per legare le cause con gli effetti; in questo modo, usando il modello si puo’ prevedere il comportamento
del fenomeno in condizioni note. Le condizioni note includono i parametri del modello, eventualmente variabili nel tempo, e lo
stato iniziale da cui procede l’evoluzione.
L’algoritmo e’ il procedimento effettivo che consente di realizzare cio’. L’implementazione dell’algoritmo su un processore
consente di calcolare l’evoluzione del fenomeno, eventualmente nella sua forma semplificata. In particolare algoritmi di sintesi
dei segnali musicali, basati su modelli del segnale che si focalizzano su diverse e interessanti proprieta’ degli stessi, consentono di
ottenere l’evoluzione temporale del segnale. Al variare dei parametri si ottengono tutti i possibili segnali della classe identificata
dal modello; e’ cioe’ possibile esplorare l’insieme dei timbri descritto dal modello.
In linea di principio qualsiasi variazione dei parametri di controllo di un algoritmo e’ lecita. L’impiego per scopi musicali, tuttavia,
impone alcune limitazioni alla liberta’ di scegliere i parametri di controllo. I parametri di controllo a loro volta possono variare
nel tempo, divenendo cosi a loro volta dei segnali (di controllo).
SINTESI DEL SUONO
La variazione dei segnali di controllo acquista un diverso significato secondo la scala dei tempi su cui si attua. Se il controllo si
attua sulla scala di tempo della (frazione di) nota, parliamo di controllo della dinamica spettrale. Esso infatti viene spesso
interpretato in relazione alla variazione a tempo breve dello spettro. Se il controllo si attua nella scala di tempo
dell’organizzazione delle note in frasi o entita’ superiori, parliamo di controllo espressivo. Ad esempio la variazione del pitch
delle note rappresenta il controllo espressivo fondamentale nella musica occidentale.
La sintesi elettronica dei suoni sembra offrire una grande liberta’ nella costruzione dei suoni, sia nella imitazione di quelli
naturali, che nella produzione di sonorita’ originali. Vi sono ormai varie tecniche per riprodurre i suoni desiderati con la fedelta’
voluta. Tuttavia scopo della sintesi del suono non e’ tanto la riproduzione di un segnale voluto, quanto la realizzazione di un
generatore suonabile, caratterizzato cioe’ da una articolazione timbrica paragonabile a quella degli strumenti classici. Il problema
si sposta quindi alle possibilita’ di controllo dell’algoritmo e dell’articolazione timbrica offerte dagli strumenti sintetici.
E’ possibile anche un’altra classificazione degli algoritmi di sintesi in base al tipo di modello con cui viene rappresentato il suono.
Dal punto di vista della storia della musica, questo metodo rappresenta una versione attualizzata della Musica Concreta. Questo
tipo di musica, nata a Parigi alla fine degli anni 40 per opera di Pierre Schaeffer, inizio’ ad usare come materiale sonoro delle
composizioni musicali dei suoni di qualsiasi tipo, registrati da microfono e poi eventualmente manipolati.
SINTESI DEL SUONO
Sintesi Additiva
Per avere un suono con un andamento complesso e variabile si possono usare contemporaneamente piu’ elementi semplici. Per
esempio un’orchestra produce una sonorita’ piena e variabile mediante una sovrapposizione di molti strumenti.
Nella sintesi additiva, suoni complessi sono prodotti mediante la sovrapposizione di suoni elementari, spesso sinusoidali. In certe
condizioni (ad esempio se le frequenze sono multiple tra loro) i suoni costituenti si fondono insieme e il risultato e’ percepito
come un unico suono. Questo procedimento e’ usato anche in alcuni strumenti musicali tradizionali. Ad esempio nell’organo le
canne producono suoni relativamente semplici. Per ottenere suoni piu’ ricchi, sono usate piu’ canne che suonano
contemporaneamente a differenti altezze, tipicamente multiple della fondamentale.
Quando si analizza un suono reale quasi periodico prodotto da uno strumento musicale, si osserva che l’energia spettrale si
concentra attorno a poche righe strette. Queste righe corrispondono a sinusoidi, chiamate parziali, di frequenza all’incirca
multipla della fondamentale. L’ampiezza di ciascuna parziale non e’ proporzionalmente costante nel tempo rispetto alla
fondamentale, ma varia secondo un suo andamento. Ad esempio nell’attacco, sono significative alcune parziali, che poi diventano
trascurabili nel regime. In generale le parziali sono componenti di uno spettro a frequenza arbitraria. Le parziali cioe’ possono
essere o non essere armoniche (multipli interi) di una fondamentale. In un suono inarmonico (come quello di una campana) le
parziali non sono in rapporti interi con la fondamentale. Se scegliamo i parametri di controllo desunti dall’analisi spettrale di un
suono naturale, questa tecnica di sintesi consente un buon grado di riproduzione. La sintesi additiva fornisce anche una buona
riproduzione dei suoni non periodici o inarmonici in cui l’energia sia concentrata in poche righe spettrali. Molto meno adatta e’
invece per la parte di suono che e’ distribuita nello spettro, come le componenti rumorose.
La sintesi additiva e’ un metodo di grande generalita’ ma ha il problema che ha bisogno di un gran numero di parametri di
controllo per ciascuna nota. Devono essere specificate due funzioni di controllo per ciascuna parziale (ampiezza e frequenza).
Normalmente le funzioni sono diverse per ogni nota e dipendono dalla durata e intensita’ della nota.
SINTESI DEL SUONO
Essa pertanto e’ spesso usata per la sintesi basata sull’analisi. Infatti, come si vedra’, le trasformazioni fatte sui parametri della
sintesi additiva (come cambiamento della scala dei tempi) sono particolarmente robuste percettivamente. Inoltre e’ utile per
familiarizzare i musicisti con le caratteristiche del suono e la rappresentazione in frequenza.
In conclusione si puo’ anche osservare che questo metodo, nato per simulare suoni reali, e’ diventato per alcuni musicisti, il
fondamento metaforico per una metodologia compositiva basata sull’espansione della scala temporale e la reinterpretazione
dello spettro come struttura armonica, stimolando così la nascita della cosiddetta musica spettrale.
Sintesi Granulare
La sintesi granulare condivide con la sintesi additiva l’idea di comporre suoni complessi a partire da suoni piu’ semplici. Mentre la
sintesi additiva si basa sulla sovrapposizione temporale di sinusoidi, la sintesi granulare invece si basa sulla successione di forme
d’onda di breve durata (tipicamente da 1 a 100 msec) chiamate grani. Da questo punto di vista un grano e’ un breve evento
acustico la cui durata e’ prossima alle soglie di discriminazione della durata, frequenza e intensita’ nella percezione uditiva. E’ un
po’ come nel cinema dove la successione veloce di immagini statiche, produce la sensazione di movimento. Questa idea base si
articola poi in due casi principali a seconda della forma d’onda del grano.
Vengono cosi’ modellati suoni articolati dove non interessa controllare esattamente la microstruttura. Si evitano cosi i problemi
del controllo dettagliato delle caratteristiche temporali dei grani. La durata dei grani influenza la tessitura sonora: durate brevi
danno un carattere scoppiettante, esplosivo, mentre durate piu’ lunghe danno un’impressione molto piu’ sfumata. Quando i
grani vengono distribuiti in una larga regione frequenziale, la nuvola ha un carattere massiccio, mentre se la banda e’ stretta, ne
risulta un suono dotato di altezza propria. Densita’ sparse di grani danno un effetto puntiglistico.
SINTESI DEL SUONO
SINTESI PER TRASFORMAZIONE
In questa tipologia di tecniche di sintesi il suono viene prodotto mediante un processo generativo semplice, seguito da uno o
più processi di trasformazione.
• TRASFORMAZIONE NON LINEARE: Sintesi per Modulazione, Sintesi per Distorsione non lineare
Le trasformazioni viste sopra non possono cambiare le frequenze delle componenti in ingresso, in quanto sono trasformazioni
lineari. Se si usano invece trasformazioni non lineari, le frequenze possono cambiare anche di molto. Ne consegue la possibilita’
di cambiare sostanzialmente la natura del suono in ingresso. Queste possibilita’ vengono anche usate nella sintesi del suono.
L’interpretazione della sintesi non lineare non e’ basata sull’acustica fisica, ma piuttosto deriva dalla teoria della modulazione
nelle comunicazioni elettriche, applicata ai segnali musicali.
SINTESI DEL SUONO
Questi metodi sono stati molto usati nella musica elettronica analogica e sono poi stati anche sviluppati nel digitale. Pertanto la
sintesi non lineare ne eredita parzialmente l’interpretazione analogica come usata nella musica elettronica e inoltre e’ diventata,
specie con la modulazione di frequenza, una nuova metafora per i musicisti informatici.
Ci sono due effetti principali legati alla trasformazione non lineari: arricchimento dello spettro e traslazione dello spettro. Il
-
f- -
primo effetto deriva dalla distorsione non lineare di un segnale e consente di controllare la brillantezza di un suono, mentre il
secondo e’ dovuto alla sua moltiplicazione per una sinusoide (portante) e sposta lo spettro attorno alla frequenza del segnale
portante, alterando il rapporto armonico tra le righe del segnale modulante. La possibilita di traslare lo spettro e’ molto efficace
nelle applicazioni musicali. A partire da semplici componenti, si possono creare suoni armonici e inarmonici e stabilire differenti
relazioni armoniche tra le parziali.
Amplitude Modulation
La AM è una delle più datate tecniche di modulazione; come la RM essa genera delle bande laterali per ciascuna componente
sinusoidale della portante, con la differenza che la frequenza della portante stessa non viene soppressa. L’ampiezza delle bande
laterali aumenta in proporzione dell’ammontare della modulazione ma non supera mai la metà del livello della portante.
Frequency Modulation
L’FM non è una singola tecnica ma una famiglia di metodi che condividono la proprietà comune di una lettura di wavetable in
accordo con una funzione di oscillazione non lineare; tale famiglia comprende: FM, Exponential FM, Multiple Carrier FM, Multiple
Modulator FM, Feedback FM, Phase Distorsion, Waveshaping Synthesis e Chebychev Shaping Functions.
SINTESI DEL SUONO
Frequency Modulation
Nelle tecniche di FM un oscillatore portante è modulato in frequenza da un oscillatore modulante; la differenza con la RM e
l’AM è che essa genera una serie di bande laterali che si espandono intorno alla portante ad una distanza pari a un multiplo della
frequenza modulante. Il numero delle bande dipende dall’ammontare della modulazione (o indice di modulazione, I = D/M, dove
D è il valore della deviazione dalla frequenza portante) applicata alla portante mentre la loro posizione dipende dal rapporto tra
portante e modulante (C:M Ratio); quando questo sarà intero lo spettro sarà armonico e viceversa.
Per certi valori della portante, della modulante e del valore I, le bande laterali estreme si riflettono fuori dallo spettro udibile e
possono causare effetti indesiderati come l’aliasing (quando avviene sopra lo spettro) o l’inversione di fase (quando avviene
sotto).