Sei sulla pagina 1di 269

1.

La filosofia del mix

Ispirato a una storia vera…

INTRODUZIONE
È difficile stabilire con precisione l’epoca di nascita
dell’arte del mix, possiamo tuttavia considerare la
strumentazione dei pezzi orchestrali come un’ operazione
molto primitiva di mix, diversi strumenti, suonando
insieme, rischiavano di mascherarsi l’un l’altro. I
compositori ne erano consapevoli e avevano preso in
considerazione questo problema.
Prima dei registratori multitraccia, un produttore avrebbe
disposto i musicisti in una camera, ottenendo così la
registrazione finale. Equalizzatori, compressori ed
emulatori di reverbero non erano ancora stati inventati;
non c’erano ingegneri di mix, ma l’idea di combinare
diversi strumenti in un attraente maestro era già una
pratica ricercata.
Come molte altre nuove forme d’arte che emersero nel
ventesimo secolo, il mix era destinato alle innovazioni
tecnologiche. È stato il registratore multitraccia, a partire
dal 1960, a dare il via al mix come lo conosciamo oggi.
Ci sono stati momenti in cui la possibilità di registrare
otto strumenti separatamente era un sogno che si
avverava. La registrazione multitraccia ci ha dato la
possibilità di gestire singolarmente le tracce del materiale
registrato, prima di impegnarsi nell’intero trattamento
sonoro – in sostanza, il nostro mix. Equalizzatori,
compressori ed emulatori di reverbero divennero ben
presto familiari in studio; la console audio è cresciuta in
dimensioni per ospitare più tracce e strutture, da otto si è
passati a sedici, quindi a ventiquattro, determinando un
controllo più preciso sulle singole tracce.
È stato il 1990 ad aver rimodellato gran parte della
musica, in cui si è fatto strada il prodotto registrato,
mixato e anche distribuito – computer compreso. Plug-in
audio in tempo reale sono stati introdotti con l’uscita di
Pro Tools III nel 1994; tuttavia, questi potevano
funzionare solo su una scheda Dsp dedicata.
Era Steinberg, e il suo rilascio nel 1996 di Cubase VST,
che apriva la strada ai plug-in audio così come li
conosciamo oggi, un software in grado di eseguire calcoli
audio in tempo reale utilizzando la cpu del computer. Il
project studio termine che è stato coniato principalmente
per i computer a prezzi accessibili e tecnologie adeguate.
Per la prima volta la registrazione multitraccia e il
mixaggio non hanno richiesto l’assunzione di studi
costosi. Tuttavia, la potenza di elaborazione dei computer
nel 1990 non poteva competere con la qualità e la quantità
di mix trovati in uno studio professionale.
Le cose sono cambiate quando su una moderna Daw
(Digital Audio Workstation) è stato possibile mandare in
esecuzione, allo stesso tempo, dieci reverberi di qualità.
La qualità e la quantità dei plug-in audio sta migliorando
di giorno in giorno e le nuove tecnologie, come la
convoluzione, potrebbero suggerire un futuro ancora più
luminoso.
Gli studi professionali avranno sempre alcuni vantaggi
rispetto agli studi di progettazione, se non altro per la loro
superiorità acustica. Tuttavia, le Daw offrono un
eccellente rapporto qualità prezzo con costante
miglioramento della qualità e più ampie possibilità.
Quindi è tutto verde nel campo del mix? Non proprio. I
nuovi computer hanno aperto le porte a un pubblico ben
più vasto, coinvolgendo trasversalmente tanto gli studi
costosi quanto le camere da letto, ma solo pochi possono
dire di essere veri ingegneri di mix. Il mix si intende
utilizzato per essere fatto da esperti ingegneri, che da
tempo hanno realizzato uno studio familiare e il
relativamente piccolo set di dispositivi costosi al suo
interno. Dal mix proviene il loro lavoro quotidiano, per
molti la vita stessa. Al contrario, i proprietari di progetto
dello studio fanno molto di più che la specifica
operazione di mix, per molti è solo un altro stadio in una
catena di produzione indipendente. In tali condizioni,
come possono questi ultimi progredire in un campo così
specifico?
Nonostante la profonda importanza del mix, le risorse
sono sempre state carenti. I numerosi articoli di riviste,
contrapposti alla manciata di libri sul tema, forniscono un
disordine completo di tutto, meno informazioni utili per
coloro che desiderano imparare i veri concetti e le
tecniche fondamentali di questo affascinante settore.
Questo libro è stato concepito per colmare tale lacuna.
Vorrei, a questo punto, fugare il più grande e nocivo
malinteso circa il mix: alcuni prendono il nostro lavoro
come un servizio tecnico, fino ad arrivare a supporre che
il mix sia unicamente il risultato del risanamento delle
registrazioni imperfette. Senza dubbio, il mix comporta
aspetti tecnici – un bilanciamento del livello
problematico, dinamiche incontrollate e risposta in
frequenza carente sono solo alcuni problemi da risolvere
tecnicamente.
Altre competenze tecniche possono essere sicuramente
acquisite, ma (sebbene queste siano rilevanti) la vera
essenza dell’arte in questione non risiede in tali abilità.
Molti mix sono tecnicamente fantastici, ma non sono nulla
più di questo; altre volte dei mix non sono tecnicamente
perfetti, ma offrono un’esperienza di ascolto immensa.
È puramente per ragioni creative che alcuni ingegneri di
mix sono ritenuti visionari del suono. Le qualità sonore
della musica sono inseparabili dalla musica stessa. Il mix,
in larga misura, comporta gli aspetti sonori della musica.
Noi modelliamo suoni, cristallizziamo paesaggi sonori,
stabiliamo l’armonia sonora tra gli strumenti e
fabbrichiamo l’impatto sonoro stesso: tutto ciò è il
risultato di molte decisioni artistiche e creative che siamo
chiamati a prendere, tutte aventi una profonda influenza
sul modo in cui la musica è percepita.
Non esiste il modo corretto di fare le cose, nel senso che
non ne esiste soltanto uno. Il suono di un kick, di una
chitarra acustica o di qualsiasi altro strumento può essere
mixato in cento modi diversi e tutti avrebbero parimenti
diritto di essere considerati tecnicamente corretti. Eppure,
solo alcuni saranno davvero mozzafiato!
Un mix è un ritratto sonoro della musica. In pittura,
ritratti diversi della stessa persona, possono essere tra loro
molto lontani e proiettare con sapienza un’impressione
unica e originale della medesima figura. Similmente
avviene nell’arte del mixaggio, laddove mix differenti
possono cogliere, elaborare e trasmettere essenze
alternative rispetto a una stessa musica di partenza. Siamo
a tutti gli effetti artisti del mix.
Ecco che questo libro nasce con l’intento di fornire un
metodo chiaro per operare in questa direzione. Un po’ di
esperienza è tutto ciò che serve al fine di individuare i
problemi in un mix. Ad esempio si impara rapidamente a
individuare una voce troppo bassa o una risposta in
frequenza carente. Ci accorgeremo presto che una volta
che un mix è senza problemi, rimangono ancora molte
azioni che possiamo fare per renderlo migliore. La
domanda chiave è: che cosa è meglio?
La maggior parte di noi non conserva nella testa uno
standard sonoro permanente, perciò un mix è solo
migliore o peggiore rispetto a uno già eseguito. Il
medesimo lavoro può sembrare noioso rispetto a un
determinato mix, ma brillante se paragonato a un altro
ancora. Con l’accumularsi dell’esperienza, sviluppiamo
una certa capacità critica di valutare i mix senza necessità
di riferimento. Tuttavia di solito siamo solo in grado di
farlo in un ambiente di ascolto familiare.
Il nostro sistema uditivo ha un rapido settle-in tempo, e
si abitua a differenti qualità sonore purché queste
rimangano costanti per un certo lasso temporale.
In sostanza, tutti i nostri sensi funzionano in questo
modo. Una scena in bianco e nero in un film a colori è più
evidente e significativa rispetto alla totale mancanza di
colore di una tv in bianco e nero. La ragione per cui il set
del brano è così buono nel rivelare differenze risiede nel
non lasciare al cervello la possibilità di stabilizzarsi.
Quando mix contrastanti vengono riprodotti
susseguendosi in rapida successione, si tende a notare
meglio le differenze sonore tra loro. La verità è che è
difficile trovare due album che condividono
completamente mix identici.
Tanto per cominciare, generi diversi si mixano in modo
altrettanto vario: jazz, heavy metal e trance raramente
condividono la stessa filosofia di mix.
Ogni canzone coinvolge uno speciale spettro emotivo,
richiamando diversi paesaggi sonori.
La qualità e la natura dei brani grezzi variano da un
progetto all’altro. Probabilmente ciò deriva dal fatto che
ogni ingegnere di mix è un artista a pieno titolo, e
ciascuno ha la propria visione e un autonomo
immaginario sonoro. Chiedere cos’è un mix perfetto è
come chiedere chi è il più grande scrittore di tutti i tempi,
o chi è il più forte giocatore di basket di sempre; si tratta
di una questione complessa e in buona parte soggettiva,
aperta alla discussione e al confronto.
Per questo motivo, questo libro si propone di fare
chiarezza circa un metodo operativo universale, valido per
tutti i generi musicali. Comunque sia, è necessario
prendere un brano di riferimento per tutte le nostre
produzioni; personalmente, in studio utilizzo I.G.Y. di
Donald Fagen (1982) e Beyond dei Duft Punk (2013).
2. Preparativi

I progetti presentati per il mix di solito sono corredati di


una documentazione:

note di sessione;
fogli pista;
note di modifica e quant’altro.

Tutto deve essere ispezionato prima di procedere col


mix.
I clienti hanno comprensibilmente le loro idee, delle
linee guida o alcuni requisiti relativi al mix – spesso
vengono discusse in questa fase di approccio. In aggiunta,
vi sono varie mansioni tecniche che potrebbero avere
bisogno di essere realizzate.
Il mix è raramente una questione di improvvisazione. È
fondamentale programmare un piano con cui operare e
assicurarsi di avere identificato ciò che è importante.

IL POSIZIONAMENTO IDEALE DEGLI SPEAKERS IN UNO STUDIO


DI REGISTRAZIONE
La qualità dell’ascolto in studio è fondamentale, poiché
essa influenza in modo diretto tutte le decisioni che
vengono prese. Per questo motivo, nessun dettaglio va
sottovalutato quando si tratta di ottimizzarlo, perché
spesso sono proprio i dettagli a comprometterlo.
L’ascolto deve avvenire uscendo dal computer a 0 dB,
per poi essere modulato da una Control Room analogica.
Esistono, a tale proposito, una serie di consuetudini
riguardanti il posizionamento ideale dei monitor per poter
avere un ascolto più fedele possibile. Prima di tutto
bisogna figurarsi una sorta di triangolo immaginario
composto dalle due casse e dalla testa dell’ascoltatore: in
questo triangolo – che può essere equilatero o
quantomeno isoscele – il vertice è rappresentato
dall’ascoltatore e deve essere il più vicino possibile al
cosiddetto hot spot (punto caldo), definito dai costruttori
delle casse.
Attorno a questo hot spot viene a realizzarsi l’ascolto
ideale, cioè il più lineare possibile lungo tutto lo spettro
della risposta in frequenza dei monitor, associato con una
bilanciata immagine stereofonica che permette di vedere
in tre dimensioni il panorama sonoro. Il triangolo deve
essere assolutamente isoscele, mentre la distanza
dell’ascoltatore può variare, e spesso viene indicata dalle
aziende produttrici dei monitor stessi. Facendo
riferimento a classiche casse di piccole dimensioni, come
le Yamaha NS10M o Genelec 1031A, una distanza tra le
casse di tre o quattro metri va benissimo, mentre
l’ascoltatore può posizionarsi al centro della linea
immaginaria che unisce le due casse.
La posizione dell’hot spot varia molto a seconda
dell’ambiente circostante, quindi per ogni stanza sarà
necessario trovarlo empiricamente. È consigliato abituare
l’orecchio a individuarlo con un semplice esercizio:
variare il posizionamento stereo (pan) di una traccia audio
molto lentamente, dall’estrema sinistra all’estrema destra,
per prendere confidenza con la stereofonia e lasciare poi
la traccia audio centrata al momento di cercare il punto
caldo, che dovrà a questo punto provenire frontalmente.
Un altro dettaglio importante da considerare è l’altezza
dal suolo: idealmente i due monitor devono essere alla
stessa altezza delle orecchie dell’ascoltatore seduto, in
modo da indirizzare il suono direttamente in quella
direzione.
Oltre al posizionamento, anche l’inclinazione riveste una
importanza fondamentale, infatti le casse non devono
essere poste in maniera parallela, ma leggermente
inclinate verso il centro e cioè verso la testa
dell’ascoltatore; un angolo del 10-15% sarà spesso
sufficiente per lo scopo, sebbene anche questo dato sia
assolutamente indicativo e ogni situazione abbia bisogno
di essere testata e verificata sul campo. È necessario
posizionare i monitor sopra dei piedistalli indipendenti.

CONVERTITORI ANALOGICO/DIGITALE (A/D) E


DIGITALE/ANALOGICO (D/A)

Nella lunga catena della registrazione audio ogni


elemento è ugualmente importante, infatti si usa dire che
la qualità di un sistema è sempre limitata dal suo elemento
più debole, il quale crea il famoso effetto a collo di
bottiglia.
Usare un microfono di altissima qualità accoppiato con
un preamplificatore di bassa qualità, otterrà probabilmente
risultati mediocri, perché l’uno influenza l’altro nel bene e
nel male. In questo caso, la bassa qualità del
preamplificatore trascina verso il basso l’alta qualità del
microfono. Così succede spesso che si tenda a prestare
parecchia attenzione a quegli anelli della catena della
registrazione audio più evidenti come i microfoni e gli
outboards, tralasciandone altri di eguale importanza come
i convertitori analogico/digitale (A/D) e digitale/analogico
(D/A).
I convertitori A/D sono di fondamentale importanza
potendo compromettere in maniera drastica la fedeltà
della nostra registrazione nel caso non posseggano una
qualità adeguata. Purtroppo è molto difficile giudicare la
loro bontà, perché in realtà influenzano il suono in
minima parte (10% circa), lasciando una specie di
“impronta”sull’audio registrato che non si nota facilmente
su di una singola traccia, ma che diventa evidente e
udibile quando si ascoltano più tracce
contemporaneamente.
La prova di verifica è sempre quella di valutare con le
proprie orecchie più tracce contemporaneamente, perché
le differenze tra i suoni dei convertitori usati per registrare
un’unica fonte possono essere enormi.
Altrettanta importanza rivestono i convertitori D/A,
perché questi influenzano in maniera decisiva ciò che
ascoltiamo, cioè il suono proveniente dai monitor. Da
questo punto di vista ricordiamo che l’ascolto è la chiave
per prendere tutte le decisioni in studio, ma se l’ascolto è
falsato dai convertitori, allora anche le decisioni prese
saranno falsate.

IL LIVELLO DEL SUONO NELLA REGISTRAZIONE DIGITALE


Uno degli aspetti che più di ogni altro può trarre in
inganno nella registrazione audio digitale è la misurazione
del segnale nella quale, spesso per associazione, vengono
trasposti concetti che valevano per la registrazione
analogica, ma che non hanno più significato nel mondo
digitale.
La routine nel mondo analogico era obbligatoriamente
quella di cercare di registrare al volume più alto possibile,
con picchi anche oltre la soglia di 0 dB, senza ovviamente
arrivare a distorcere il suono, in modo da minimizzare il
rapporto tra suono e fruscio di fondo.
In questo senso i VU meter dell’equipaggiamento
analogico avevano proprio la funzione di segnalare i
livelli, nei vari passaggi della catena audio, in modo da
ottimizzarne il flusso (per esempio dal preamplificatore al
mixer, infine al registratore a nastro) impedendo
saturazioni involontarie, o addirittura distorsioni, ma
anche tenendo il più lontano possibile il temibile fruscio
di fondo. Sembra incredibile a dirsi, ma c’è stato un lungo
periodo nella storia della musica in cui la qualità
professionale di una registrazione si misurava anche dalla
presenza o assenza di rumore di fondo! Tutto quanto detto
finora, nel mondo digitale non vale più.
Nel vostro software preferito, che sia un plug-in o una
applicazione di mix, la soglia degli 0 dB è assolutamente
invalicabile, e rappresenta un limite oltre il quale
l’insieme software-convertitori ADAC non funziona più
correttamente. In pratica, spingere il segnale digitale oltre
gli 0 dB significa produrre distorsione di una natura molto
diversa da quella analogica, una distorsione del segnale
derivante da calcoli che per il computer non hanno senso,
influenzando l’audio in maniera pesantemente negativa.
Il consiglio, visto quanto appena detto, è di tenersi
lontani dalla soglia di 0 dB sia durante la registrazione,
evitando così di mandare in clip i convertitori, sia durante
qualsiasi processo successivo. Va ricordato che una volta
inseriti errori nella vostra catena audio digitale, essi non
possono più essere eliminati. Un esempio classico è
quello del clip che può avvenire, ad esempio, all’interno
di un plug-in che passa inosservato perché la sua
interfaccia non è visibile nella schermata principale – e
quindi non viene monitorato per tutto il corso della
canzone in cui è inserito. Un modo semplice e veloce per
assicurarsi che il plug-in non vada oltre 0 dB è quello di
controllare le sezioni più alte di volume della canzone: se
quelle sono a posto, anche tutto il resto del pezzo non
eccederà la soglia temuta. L’ascolto effettivo del lavoro si
deve aggirare attorno a 75 dB SPL nei pressi dell’hot
spot.

L’IMPORTANZA DI UNA VISIONE


La composizione può comportare diversi approcci. Uno
di essi consiste nell’utilizzare uno strumento, diciamo un
piano, mediante il quale si opera per tentativi ed errori,
sulla base di una teoria musicale, tipo una struttura
armonica e linee melodiche. Un altro approccio consiste
nell’immaginare o nel pensare un suono o una melodia
specifica e solo allora suonare – o, nel caso di autori
addestrati, di scriverlo direttamente sulla carta. Molti
compositori e cantautori impiegano il secondo approccio
come processo compositivo: prima immaginare, poi
suonare o scrivere.
Possiamo fare un’analogia tra questi due diversi metodi
compositivi e il mix. Se prendiamo il processo di
equalizzazione di un loop, per esempio, il primo
approccio consiste nello scorrere attraverso le varie
frequenze, scegliendo qualsiasi frequenza sembri
attraente. Il secondo approccio consiste prima
nell’immaginare il suono desiderato e solo allora
avvicinare l’EQ per il suo raggiungimento. In altre parole,
nel primo approccio si pensa: “Proviamo ad aumentare
questa frequenza per vedere cosa succede”; mentre nel
secondo: “Questo loop starebbe bene con meno corpo, ma
il suono più frizzante”.
Proprio come i compositori immaginano la musica prima
che venga suonata, un ingegnere di mix può immaginare i
suoni prima di intraprendere qualsiasi azione. Una parte
imprescindibile del lavoro di mix è presente in maniera
latente sotto forma di quella che definiamo “visione”. La
visione di mix riguarda principalmente la domanda
fondamentale: come voglio farlo suonare? Le risposte
potrebbero essere molte: morbido, potente, pulito e
intenso sono solo alcuni esempi. Ma la visione di mix non
può essere definita a parole. È un immaginario sonoro che
successivamente si cristallizza attraverso il processo di
mix vero e proprio.
La gamma delle modifiche che è possibile applicare ai
suoni è notevole: equalizzazione, compressione, gate,
distorsione, reverbero, chorus e molti altri…
Quindi, quale tipo di trattamento bisogna scegliere? Vi
sono a loro volta molteplici strategie di elaborazione dei
suoni all’interno di ogni categoria. La frequenza, il
guadagno e i controlli EQ su un equalizzatore parametrico
offrono milioni di combinazioni possibili. Allora perché è
necessario scegliere una combinazione specifica e non
un’altra? Sicuramente, copiare l’equalizzazione di altri
lavori non porta a risultati certi e adeguati. Una corretta
visione di mix consente di dare una risposta a tali quesiti:
“Sono riuscito a farlo suonare come l’ho immaginato?
Volevo che suonasse proprio così?”.
Uno degli inconvenienti dei tecnici alle prime armi
potrebbe essere la mancanza di immaginazione. Il
processo di mix è per loro necessariamente una questione
empirica di prova ed errore che alterna la riproduzione e
la sua valutazione, ma come si può valutare criticamente
qualcosa senza una chiara idea di ciò che si vuole? Non
avendo una visione di mix si finisce inevitabilmente in un
circolo vizioso hit-and-miss molto frustrante.

I TRE PASSI
In primis, la parte creativa del mix ruota attorno ai tre
passaggi illustrati in Figura 2. La capacità di passare con
successo attraverso queste fasi può condurre a un mix
eccezionale. Ma un grande ingegnere di mix avrà bisogno
di una tacca in più. Questi passaggi sono illustrati assieme
alle qualità richieste a un vero ingegnere di mix, nelle
seguenti sezioni: visione (come voglio che suoni?),
valutazione (suona come voglio io? Suona bene? Cosa c’è
di sbagliato?) e azione (quale attrezzatura devo usare?
Come si usa l’apparecchio?).
L’approccio novizio alla parte creativa del mix, potrebbe
mancare appunto di una visione globale e quindi di una
delle tre fasi fondamentali.
La visione è ciò che differenzia il principiante dal
veterano. Mentre il novizio modella i suoni per tentativi
ed errori, il veterano immagina i suoni e poi li realizza nel
mix.
L’abilità di creare un buon mix si basa su innumerevoli
valutazioni. Una domanda di base, che spesso ci si pone
all’inizio del processo di mix, è: “Cosa c’è che non va?”.
Possibili risposte potrebbero essere: “Gli alti sui piatti
sono duri” o “Lo spettro di frequenza del mix è troppo
pesante per i medi”. Tenendo conto della quantità infinita
di possibilità di trattamento che abbiamo a disposizione,
si deve sempre fare particolare attenzione in primo luogo
a considerare e rettificare gli elementi negativi della
registrazione. Tutto ciò aiuta a impedire che il novizio
agisca senza una buona ragione o senza una finalità
specifica – come l’equalizzazione di qualcosa che in
realtà non lo richiede affatto.
Soffermarsi unicamente sui punti cruciali del brano
potrebbe non essere sufficiente per stabilire che cosa è
sbagliato con il mix, nel qual caso la nostra visione
fornisce una guida generale per le nostre azioni.
Dopo l’applicazione di un trattamento specifico, il
novizio potrebbe chiedersi: “Suona bene?”, laddove il
veterano potrebbe porsi un quesito ben più preciso:
“Suona nel modo in cui voglio io?”. Chiaramente, il
veterano ha il vantaggio di avere a che fare con una
domanda meno astratta.
L’approccio di serie A parte da poche tracce, ascoltate in
isolamento prima di iniziare il mix, per poi aggiungere
sempre più tracce. Questo approccio dividi et impera ci
permette di mettere a fuoco meglio i singoli elementi. Il
pericolo, altrimenti, è che vengano introdotte fin
dall’inizio troppe tracce, lasciando meno spazio nel mix.
Il ritmo, l’armonia e la melodia è l’ordine da seguire
nell’inserimento delle tracce. Per prima cosa si parte
mixando le tracce ritmiche in isolamento (drums, bass,
percussion), poi gli strumenti armonici (rhythm guitars e
keys) e infine le tracce melodiche (voice, instruments).
Questo metodo segue spesso quello che potrebbe essere
l’ordine di sovraincisione. Si può anche avvertire un
senso di stranezza nel sentire una batteria e una voce
senza il supporto armonico, dunque può essere utile un
ascolto di questo tipo. Ma senza dubbio, dal punto di vista
del mix, non ha molto senso ascoltare ed elaborare una
voce solista prima di un organo.
In questo modo, le tracce vengono mixate per ordine di
importanza. Così, per esempio, un mix di hip-hop
potrebbe iniziare dal beat, per poi proseguire con la voce
e infine con le voci supplementari, oltre a eventuali tracce
aggiuntive. Il vantaggio è che le tracce importanti,
venendo mixate nelle fasi iniziali, si ritagliano uno spazio
più ampio e gestibile nel mix per manovrarle con
chiarezza. Le tracce meno importanti saranno
inevitabilmente elaborate in un mix più affollato,
penalizzando tuttavia le tracce meno strutturali.
L’approccio parallelo è un tipo di approccio che prevede
tutti i fader a 0 dB, impostando il bilanciamento pan
centrale e le region singole con il massimo rendimento,
così da operare con il mix nell’ordine che si desidera.
Questo approccio evita il mix in isolamento, può
funzionare bene con piccole composizioni, ma può essere
problematico se sono coinvolte molte tracce. Può essere
molto difficile concentrarsi sui singoli elementi o anche
dare un senso al mix complessivo nelle sue fasi iniziali.
Per analogia, si sta come un giocatore di calcio con 8
palle sul campo.
Ci sono infinite varianti di questi approcci. Alcuni, ad
esempio, iniziano con i suoni percussivi (la colonna
vertebrale ritmica), per passare alle parti vocali (le più
importanti) ed elaborare il resto del mix intorno a questi
due elementi fondamentali. Un altro approccio è più
probabile che venga adottato quando si ha a che fare con
un mix elettronico per rendere forte l’utilizzo della
profondità di campo, e consiste nel mix con gli strumenti
anteriori, aggiungendo poi gli strumenti gli strumenti
posteriori del mix con relativo pan.
Ci sono anche diversi approcci per il mix dei suoni
percussivi. Qui vi sono alcuni elementi da considerare.
Gli overheads sono una forma di riferimento per tutti i
suoni percussivi. Molti ingegneri preferiscono iniziare dal
kick (cassa), a seguire lo snare (rullante) e solo allora si
mixano gli overheads. Dunque talvolta gli overheads
risultano l’ultima traccia di batteria considerata.
Essendo il kick l’elemento ritmico predominante nella
maggior parte delle produzioni, esso è spesso mixato
prima di ogni altro elemento percussivo individuale e
talvolta anche prima degli overheads. A seguito del kick,
potrebbe essere mixato il basso e solo allora altri drums.
Lo snare è il secondo elemento più importante del ritmo
nella maggior parte delle produzioni ed è spesso mixato
dopo il kick.
I tom rappresentano il contributo meno importante della
batteria, tuttavia sono importanti per creare un movimento
interno al suono della batteria.
Hi-hat, ride, crash, splash e altri piatti potrebbero avere
una sufficiente presenza negli overheads. Spesso, in
questi casi, gli overheads vengono utilizzati per
riprendere i piatti, o vengono mixati solo in specifiche
sezioni della canzone.
Con rare eccezioni, il processo di mix comprende
lavorare separatamente sulle varie sezioni (strofa,
ritornello). Ogni sezione può comportare una sfida a sé –
e quindi una relativa strategia risolutiva. E così, gli
ingegneri di mix di solito circoscrivono una parte, la
mixano, e passano alla sezione successiva basandosi su
quanto già elaborato.
La domanda allora diventa: “Da quale sezione
cominciare?”. Ci sono due approcci anche qui. Il più
intuitivo è senza dubbio lavorare cronologicamente, a
partire dalla prima sezione (intro) e lentamente avanzando
nelle sezioni (strofa, ritornello).
Sembra molto logico lavorare in questo modo, poiché
questo è l’ordine con cui la musica viene suonata e
registrata. Tuttavia, mentre si potrebbe mescolare il verso
nel miglior modo, creando un mix ricco ed equilibrato, ci
sarà ben poco posto nel mix per i nuovi strumenti
introdotti durante l’apertura del ritornello.
Esiste dunque un altro tipo di approccio che consiste nel
considerare l’ordine di importanza: la parte più importante
della canzone è presa in considerazione per prima, seguita
dalle sezioni meno importanti.
Per una produzione registrata, questa sezione è di solito
il ritornello; per alcune produzioni elettroniche sarà il pick
(picco).
Molto spesso, queste importanti sezioni sono anche
quelle più frequenti, quindi prenderle in considerazione
per prime può essere utile.
Ovviamente, c’è una logica nell’ordine sopra descritto.
Se evitiamo di considerare il pan e facciamo il mix in
mono, ne perdiamo sia in larghezza sia in profondità.
Tuttavia, dal momento che il mascheramento è più
profondo in mono, alcuni ingegneri scelgono di risolvere
il mascheramento durante l’ascolto in mono. Questo
potrebbe essere fatto prima del pan.
Su questa stessa base, generalmente si desidera avere un
suono adeguatamente effettato alla fine del mix, piuttosto
che comporre il mix su suoni già effettati.
Dato che il reverbero è generalmente un effetto naturale,
di conseguenza è più piacevole averne uno naturale; i
reverberi trattati sono da considerarsi come effetti
creativi.
Vi è anche l’approccio a dry-wet, in cui tutte le tracce
vengono prima mixate con trattamento dry (ossia senza
alcun effetto di modulazione) e solo allora si applica il
trattamento wet (ad esempio delay, reverb). In questo
modo, abbiamo a che fare con tutti i suoni esistenti prima
di aggiungere nuovi suoni per il mix. Inoltre, si lascia
modo al tecnico di operare la migliore profondità, o altre
manipolazioni, nella fase successiva, semplificando il
processo di mix.

L’APPROCCIO INTERATTIVO
Oggi tutto può essere modificato in qualunque momento.
Questo significa, in pratica, che tutto può essere
modificato in qualunque fase del processo, e nulla deve
essere obbligatoriamente congelato prima della stampa
del mix finale.
La flessibilità nel modificare le decisioni in qualsiasi
punto del processo di mix è una grande risorsa,
normalmente utilizzata per ospitare l’introduzione di
nuove tracce. Ad esempio, non importa quanto bene le
percussion suonino quando sono mixate isolatamente, dal
momento che l’introduzione di chitarre distorte nel mix
potrebbe richiedere un conseguente trattamento delle
medesime percussion (il kick potrebbe perdere il suo
attacco, i piatti la loro incisività e così via).
In secondo luogo, qualsiasi trattamento sonoro potrebbe
richiedere un successivo trattamento. Per esempio,
quando si schiarisce la voce, stimolando gli alti, le alte
frequenze possono soffermarsi sulla coda del reverbero in
maniera indesiderata; il controllo di release del reverbero
richiede allora di essere regolato. L’equalizzazione
potrebbe anche far sembrare la voce più forte nel mix e
così potrebbe essere necessario un aggiustamento del
relativo fader. Se la voce viene prima regolata e poi
compressa, la compressione potrebbe risultare alterata e
richiedere un secondo intervento col fader.

AUDIO METERING (MISURAZIONE AUDIO)


C’è un problema nella scala dei decibel. Riferendoci alla
loudness nel mondo reale, o nell’aria attorno a noi,
misuriamo i decibel della pressione sonora (dBSPL).
Nella scala SPL, lo 0 è il volume di soglia di ciò che
possiamo ascoltare, fino a 140, causa del dolore fisico
dell’ascoltatore. Il suono professionale di post produzione
degli altoparlanti deve essere impostato a 82 dBSPL,
utilizzando un suono a 1 Khz.
Questa è la pienezza della loud che possiamo percepire
avendo una risposta flat nello spettro sonoro, ma bassa
abbastanza da non causare danni alle orecchie.
Quando invece ci riferiamo alla scala dei decibel in Pro
Tools, utilizziamo i dBFS.
Nell’audio digitale gli 0 dB sono detti full scale, dove
non possiamo andare oltre. Tutti i valori dei decibel coi
quali si lavora, sono inferiori a questo punto.
La misurazione è in decibel negativi.
Si potrà pensare che i fader in Pro Tools vadano al
massimo a 0 dB. La misurazione in decibel è soggetta a
variazioni, e i fader seguono nell’aumentare il livello.
Quindi non si va mai oltre i +12 dB.
Il superamento dei livelli per questo audio digitale
concluso, aumenterà di livello nel master, quindi
cambiando scala in dBSPL.
In conclusione, se si alza il fader e l’audio nella traccia è
già a 0 dBFS, si sta distorcendo il suono.
Qual è il vero mondo dei dBSPL in relazione al mondo
digitale dei dBFS?
È necessario calibrare con un rumore rosa a 82 dBSPL,
quando Pro Tools è impostato a -20 dBFS RMS. Non c’è
da preoccuparsi troppo della matematica che sta dietro gli
RMS. Si misurano i decibel nel modo più vicino
approssimativamente a come li percepiamo in media, in
scala SPL (in contrasto con il valore di picco assoluto che
si possa misurare con un microfono di prova).
Così, non appena calibrati i nostri monitor, consentiremo
al nostro mix di avere 20 dB di headroom nella scala
dBFS. Vedremo come i decibel in Pro Tools sono
equivalenti a quelli del mondo reale:
dBFS = dBSPL
L’ importante è regolare a -20 dB la risposta del
programma in generale e non i fader di lavorazione mix.
Noi calibriamo ogni misuratore analogico, per esempio
VU meter o Dorrough meters a 0 dB, mentre su Pro Tools
sta suonando a -20 dBFS. Ciò significa che in fase di
master avremo 20 dB di headroom (pienezza del suono)
da recuperare.
Tali -20 dB non sono il totale di ciò che è possibile
richiedere dal prodotto finale, ma si possono guadagnare
ulteriori dBSPL in analogico, l’importante è non superare
mai in digitale -8 dBFS o -6 dBFS, in quanto ci si trova
già al limite della distorsione RMS (questo vale sempre in
digitale). I limiter certamente costituiscono il massimo
livello che possiamo raggiungere con il segnale.
Preferibile è l’utilizzo del limiter Waves L2, per tenere a
bada il mix; questo limiter ha il vantaggio di un controllo
del release automatico (ARC), ciò significa che non ci si
deve preoccupare del settaggio, a parte la regolazione del
threshold (-0.1) e la regolazione di uscita.

Il tempo di attacco e di rilascio sono già preimpostati.


Calibrare in modo preciso il limite di uscita in verità è
un’operazione un po’ più delicata e complessa. Questo è
un limiter utile per attenuare i picchi di molti decibel
senza distorsione del suono. È uno dei motivi per i quali
tale limiter è particolarmente funzionale.
A partire dal termine della stagione televisiva 2010, il
valore di volume più accettato dagli operatori televisivi è
-24 dBFS, più o meno -2dBSPL, con picchi limitati a
-6dBFS.
Questa può sembrare una gamma incredibilmente stretta,
ma ricordate che si tratta di una misura di persistenza nel
tempo, il che significa che è solo una media RMS.
Per riassumere, un preciso meter in Pro Tools è una
combinazione di Waves Dorrough Meter e meter nativi.
Con questo si può mantenere il vostro mix in uno sweet
spot tale da essere sicuri di non essere respinti da un
network ed essere fuori per le gare!
3. Il Mix in the box

Ci riferiamo di norma al digitale PCM, ovvero pulse-


code modulation (modulazione a codice d’impulso) non
floating point (virgola mobile) in quanto estremamente
diffuso.
Ha caratteristiche diverse da quelle del sonoro
magnetico analogico: a basso volume abbiamo la
distorsione di quantizzazione, una sorta di
accartocciamento del suono su sé stesso, immaginabile
come la deformazione di una figura quando le tessere del
mosaico che la rappresentano sono troppo poche, mentre
ad alto volume la distorsione, invece di aumentare
gradatamente col livello, diminuisce per poi peggiorare
istantaneamente e brutalmente non appena si cerchi di
superare il soffitto degli 0 dBFS (ossia il 100% della
piena scala digitale codificabile).
Nel caso di Pro Tools viene segnalato un overflow
(distorsione) ogni tre campioni audio che superano la
soglia degli 0 dBFS.
Così si rende necessario fissare un’equivalenza tra il
livello di riferimento analogico e quello digitale, tenendo
conto che in quest’ultimo livello statico è meglio lavorare
con una decina di decibel sotto gli 0 dBFS per i picchi
rapidi e qualche ulteriore decibel di tolleranza per errori
umani, per non parlare dell’ulteriore margine necessario
agli algoritmi di codifica e decodifica (codec) audio
distruttiva come VmpS.
Nel broadcast (radiofonico) (norme EBU R-68, del
1992) è stato definito come segnale di riferimento un tono
sinusoidale a 1 kHz con picco pari a -18 dBFS, mentre nel
cinema si usa una sinusoide con picco pari a -20 dBFS.
Tuttavia la limitazione sul massimo livello permesso si è
pian piano discostata in certi casi dai circa -10 dB
inizialmente concessi, per giungere anche a permetterci di
sfiorare gli 0 dBFS, ovvero salendo di ben 18 dB (20 dB
per il cinema) sopra il tono di allineamento.
Un limite molto conservativo, valido pressoché in tutti i
casi ma limitante la dinamica, è rappresentato da 6 dB
oltre il tono di allineamento, mentre il limite più in uso
nel broadcast è di 9 dB oltre il tono di riferimento,
utilizzando un misuratore QPPM.
Quando i computer funzionano con l’audio devono
capire come prendere la forma d’onda di un suono e
ridurla a una serie di numeri. Compiono questo
campionamento alla forma d’onda. Ciò significa che,
quando si registra un segnale audio nel computer, si
procede misurando l’ampiezza istantanea della forma
d’onda a intervalli regolari. Queste singole misurazioni
sono chiamate campioni. Questo processo di
campionamento trasforma il continuo della forma d’onda
analogica, in un numerico di approssimazione digitale che
assomiglia a una scala (suono discreto). Il valore
numerico di un campione rappresenta la sua ampiezza.
Una delle limitazioni dei sistemi digitali è che hanno un
limite assoluto massimo di ampiezza per i segnali che
possono essere rappresentati; il computer non potrà
oltrepassare quel valore massimo di ampiezza. Tutte le
ampiezze superiori alla massima ampiezza numerabile
saranno semplicemente tagliate fuori.
Come si può immaginare il clip digitale suona
generalmente abbastanza male ed è da evitare nella
maggior parte dei casi. Ogni volta che si lavora con il
digitale audio, è necessario assicurarsi che non superi mai
la fatidica ampiezza massima.
Oltre al clip, il processo di conversione da analogico a
digitale può avere altri effetti negativi sulla qualità
dell’audio. Inoltre, l’elaborazione audio quando è in
forma digitale può degradare ulteriormente la qualità a
causa degli errori di arrotondamento negli algoritmi di
elaborazione digitale numeriche.
Ci sono due attributi di un sistema audio digitale che
determinano la sua infedeltà: la frequenza di
campionamento e la risoluzione. Se entrambi questi
attributi sono sufficientemente buoni, la registrazione e
l’elaborazione digitale creeranno poco o nessun degrado
udibile nella qualità del suono.
La risoluzione di campionamento di un sistema risiede
nella precisione numerica. Maggiore è il campionamento,
maggiore è la risoluzione. Poiché i computer lavorano nel
sistema binario, la risoluzione di campionamento è
tipicamente descritta in termini di bit. Un sistema digitale
a 4 bit ha 16 possibili valori numerici per ogni campione.
Un sistema a 8 bit ha 256 valori possibili. A 16-bit il
sistema ha 65.536 valori possibili, e un sistema a 24-bit ha
16.777.216 possibili valori per ciascun campione. In
generale, un sistema di n bit ha 2n possibili valori
numerici per ciascun campione.
Una risoluzione di campionamento bassa degraderà la
qualità dell’audio con l’introduzione di “rumore di
quantizzazione”. Tale rumore di quantizzazione è
l’artefatto sonoro che risulta dagli errori di
arrotondamento inerenti alla conversione da analogico a
digitale, manifestandosi sotto forma di un sibilo a basso
volume, in qualche modo simile al suono ascoltato in
sezioni silenziose su nastri analogici e vinile. Questo
sibilo maschererà i dettagli sottili nel suono.
Maggiore è la risoluzione in bit di un sistema digitale,
minore è il rumore di quantizzazione. Il livello del rumore
di quantizzazione è quello che determina il sistema di
totale gamma dinamica, cioè il rapporto tra il suono più
silenzioso possibile e il suono più forte possibile. Il suono
più silenzioso possibile è limitato dal livello di rumore di
quantizzazione, e il suono più forte possibile è limitato
dalla soglia di clip.
Un sistema digitale ha una gamma dinamica di 6 dB
volte la risoluzione di bit. In altre parole, ogni bit di
risoluzione di campionamento aggiunge circa 6 dB di
gamma dinamica. Così, la gamma dinamica di un sistema
a 16 bit è di circa 96 dB.
Attualmente viene preferito l’utilizzo dei 24 bit nei DVD
e nei montaggi audio, producendo 144 dB dinamici; oltre
i 24 bit/96 kHz l’apprezzamento del suono per l’orecchio
umano si ferma, dunque risulta superfluo per la qualità del
suono spingersi oltre questa soglia, ad esempio i 32 bit.
I livelli di volume nel mondo digitale sono misurati in
decibel scala reale o dBFS (Full Scale). Il sistema di
misurazione digitale su larga scala misura il volume di
picco, non il volume medio. Il punto di riferimento 0 dB
rappresenta la massima ampiezza; in altre parole 0 dBFS è
il volume del suono più forte possibile. Tutti gli altri
livelli di volume sono negativi; un suono con un livello di
-6 dBFS ha un picco di livello di 6 dB sotto il massimo
digitale, per esempio.
Ci sono due risoluzioni di campionamento comunemente
utilizzate: a 16 bit e a 24 bit. I 16 bit sono la risoluzione
dei CD audio e della maggior parte degli MP3. È usato
tipicamente per la distribuzione di musica mista. La sua
gamma dinamica è sufficiente per la maggior maggior
parte della musica.
Nel processo di mix attuale è preferibile utilizzare 24 bit,
avendo più range dinamico dei 16 bit. Ciò può fare la
differenza nel processo di mix, perché la gamma dinamica
in più introdotta dall’elaborazione digitale apporta
significativi effetti udibili.
Alcuni DAW hanno anche una risoluzione di 32 bit.
Questo di solito si riferisce alla rappresentazione di audio
digitale floating point, in contrasto con la solita
rappresentazione a fixed point (punto fisso), quello
discusso finora.
Dunque, la virgola mobile a 32 bit e un 24 bit a punto
fisso sono, in un certo senso, la stessa cosa. Senza entrare
nelle specifiche tecniche tra i due, con 32 bit a virgola
mobile si ha la stessa gamma dinamica audio del punto
fisso a 24 bit, con l’ulteriore vantaggio di non tagliare
l’audio al di sopra della soglia degli 0 dBFS. Tuttavia la
virgola mobile accumula il rumore di quantizzazione, pur
aumentando anche la massima ampiezza rappresentabile,
con un effetto netto di aumento della gamma dinamica.
In generale non è una buona idea sfruttare la capacità di
virgola mobile al fine di superare il massimale di 0 dBFS,
perché anche nelle DAW che supportano completamente
la virgola mobile, molti plug-in convertiranno il loro
ingresso audio a punto fisso interno; quindi, anche se si
sta lavorando a virgola mobile, è meglio agire come se
non lo fosse, mantenendo tutti i livelli al di sotto degli 0
dBFS.
FREQUENZA DI CAMPIONAMENTO
La frequenza di campionamento di un sistema esprime il
numero di campioni al secondo che utilizza per
rappresentare l’audio. Ad esempio, i CD audio impiegano
44.1001 campioni al secondo.
La frequenza di campionamento è misurata in hertz
(Hz), proprio come le frequenze. Così, la frequenza di
campionamento audio CD potrebbe essere scritta come
44.100 Hz o 44,1 kHz.
Intuitivamente, ci si potrebbe aspettare che una
frequenza di campionamento superiore garantisca una
maggiore qualità audio e questa intuizione è corretta. In
particolare, la frequenza di campionamento influenza la
“risposta in frequenza” del sistema digitale, cioè la
gamma di frequenze che può rappresentare.
I sistemi digitali hanno una frequenza minima
rappresentabile; possono andare tutti fino a 0 Hz. Essi,
tuttavia, hanno un valore di frequenza massima
rappresentabile e viene determinato dalla frequenza di
campionamento. In particolare, la massima frequenza
rappresentabile è la metà della velocità di
campionamento.
Così, con una frequenza di campionamento di 44,1 kHz,
la frequenza massima rappresentabile è 22.05 kHz.
Questo valore massimo di frequenza viene indicato come
“frequenza di Nyquist”.
Le frequenze di campionamento più comuni sono 44.1
kHz, 48 kHz, 96 kHz e 192 kHz. Dal momento che questa
frequenza di campionamento può rappresentare tutte le
frequenze udibili, ci si potrebbe chiedere perché
dovremmo mai usare una frequenza di campionamento
più elevata. La risposta è che, oltre a consentire alte
frequenze, le frequenze di campionamento più elevate
possono anche fare alcuni processi audio sonoro più
performanti, con meno artefatti sonori ed errori di calcolo.
Tali processi sono ad esempio l’equalizzazione e la
compressione, alcuni aspetti di sintesi come il filtraggio e
la sintesi della forma d’onda, e alcuni aspetti del
campionamento; lo svantaggio di frequenze di
campionamento più elevate è che implicano l’utilizzo
superiore della CPU. Ad esempio, passando da 48 kHz a
96 kHz, ci si può aspettare che la maggior parte dei
processi utilizzino il doppio della CPU, poiché elaborano
il doppio dei campioni nel stessa quantità di tempo.

I SUONI
Prima di tuffarsi nei dettagli di mix, abbiamo bisogno di
guardare alcune proprietà sui suoni in generale. Questa
sezione è costituita da informazioni di base, ma è
necessario comprenderne il contenuto al fine di cogliere i
principi base del mix.
Un suono è un’onda di pressione che viaggia attraverso
l’aria. Ogni azione capace di mettere l’aria in moto creerà
un suono.
Il nostro sistema uditivo trasforma sistematicamente le
onde di pressione che colpiscono le nostre orecchie in
suoni distinti, come i fotoni che colpiscono i nostri occhi
si trasformano in oggetti. Ma, proprio come la nostra
visione può dividere oggetti visivi in oggetti più piccoli
(una persona può essere divisa in braccia, gambe, una
testa, ecc...), il nostro cervello può analiticamente dividere
i suoni in segnali sempre più specifici (per esempio, la
parola parlata “gatto” può essere divisa in una consonante
“g”, una vocale “a”, e così via). Allo stesso modo, proprio
come la nostra visione può raggruppare piccoli oggetti in
grandi oggetti (un insieme di singoli individui può
diventare una “folla”), il nostro cervello può condensare
un insieme di singoli suoni in un unico elemento sonoro
globale (una coincidenza di singoli battiti di mani diventa
un applauso).
Se si continua a suddividere gli oggetti fisici in pezzi via
via sempre più piccoli, e più piccoli (e ancora più piccoli),
si finirà per arrivare ad atomi non ulteriormente
suddivisibili. C’è un’unità indivisibile del suono e cioè la
frequenza.
Tutti i suoni possono essere ridotti a un gruppo di
frequenze. La differenza è che, dove un oggetto può
essere composto da miliardi di atomi, un suono consiste
tipicamente in non più di alcune migliaia di frequenze.
Quindi, le frequenze sono un modo molto pratico di
analizzare i suoni nel contesto quotidiano della musica
elettronica.
Ma che cosa è una frequenza? Una frequenza è
semplicemente una forma sinusoidale di disturbo
nell’aria, un’ oscillazione. Le frequenze sono in genere
espresse numericamente tramite la misura alla quale
oscillano, in cicli al secondo (Hz). La scienza ci dice che
l’orecchio umano può sentire le frequenze comprese nella
gamma da 20 Hz a 20.000 Hz, anche se molte persone
sembrano essere in grado sentire di più in entrambe le
direzioni. In ogni caso, questa gamma di 20 Hz-20.000 Hz
comprende comodamente tutte le frequenze che noi
comunemente udiamo nelle ore del giorno. Non si
comprende perché, diverse frequenze di suoni diversi,
abbiano diversi effetti sulla psiche umana. Vi è un
continuo cambio di percezione, anche se, per esempio, 60
Hz e 61 Hz hanno più o meno lo stesso sapore, ma
quando si arriva a 200 Hz, ci si trova in un territorio
molto diverso.
Vale la pena notare che percepiamo le frequenze in
modo logaritmico. In altre parole, la differenza tra 40 Hz
e 80 Hz è paragonabile alla differenza tra 2.000 Hz e
4.000 Hz. Questa differenza si chiama ottava. Gli esseri
umani possono sentire una gamma di frequenza di circa
dieci ottave.
Possiamo ora tentare di descrivere i vari sapori delle
diverse gamme di frequenze. È necessario tenere a mente
che le parole sono altamente inadeguate per questo lavoro.
In primo luogo perché non abbiamo parole per riferirci ai
sapori di suoni, quindi è utile semplicemente tentare di
descriverli. Secondo perché tutti questi sapori si fondono
l’uno nell’altro, non ci sono nette divisioni tra loro.
Tenendo questo in mente, cominciamo:

20 HZ-40 HZ “SUBSONICS” (SUONI SUBSONICI)


Queste frequenze, residenti agli estremi dell’udito
umano, non sono quasi mai nella musica, perché
richiedono un volume estremamente alto per essere
ascoltato. In particolare, se vi sono altri suoni che
suonano allo stesso tempo, allora non sono più sentiti
dall’udito. Inoltre, la maggior parte dei diffusori non
possono riprodurli.
Detto questo, i subsonics possono avere effetti fisici e
mentali molto potenti sulle persone. Anche se
l’ascoltatore non è a conoscenza che queste frequenze
sono loro sottoposte, possono provare sentimenti di
disagio, nausea, e la pressione sul torace.
I subsonics possono muovere l’aria dentro e fuori dai
polmoni ad un tasso di velocità molto rapido, che può
portare anche alla mancanza di respiro. A 18 Hz, che è la
frequenza di risonanza del bulbo oculare, la gente può
iniziare ad avere allucinazioni. Si sospetta che le
frequenze in questa gamma, possano essere presenti in
molti locali presumibilmente stregati, in quanto creano
sensazioni di disagio. Inoltre, le frequenze intorno a 18
Hz possono essere responsabili di molti avvistamenti di
fantasmi. Tra l’altro, molti film dell’orrore usano
subsonics per creare sentimenti di paura e disorientamento
nel pubblico.

40 HZ-100 HZ “SUB-BASS” (SUB-BASSI)


Questa gamma relativamente stretta di frequenze si trova
all’inizio del suono musicale, ed è ciò che la maggior
parte della gente pensa quando si inizia a pensare ai bass.
Essa rappresenta il potere forte di una grancassa. Queste
frequenze sono una esperienza di tutto il corpo, e portano
il peso della musica. La musica priva di sub-bass si
sentirà magra e floscia; all’opposto, con un eccesso di
sub-bass si sente gonfia e ingombrante.

100 HZ-300 HZ “BASS” (BASSI)


Portando ancora un pizzico di sentimento della gamma
sub-bass, questa gamma di frequenza evoca sensazioni di
calore e di pienezza. È il corpo, ciò implica anche che le
gamme di frequenza precise fornite per ogni sapore sono
molto inesatte e un po’ arbitrarie.
È un errore comune dei principianti mixare con troppo
sub-bass. Questo può produrre un piacevole effetto a
breve termine, ma nel lungo termine diventerà evidente
che l’eccesso di sub-bass sta danneggiando la musica,
distruggendo il suo senso di equilibrio e rendendo faticoso
l’ascolto. È anche la fonte dell’impatto della batteria.
L’assenza di queste frequenze fa sentire la musica fredda
e disagiosa. Un eccesso di queste frequenze rende la
musica fangosa e indistinta.

300 HZ-1.000 HZ “MID-BASS” (MEDIO-BASSI)


Questa gamma di frequenza è piuttosto neutrale nel
carattere. Serve ad ancorare e stabilizzare le altre bande di
frequenza. Senza di essa la musica si sente schiacciata e
squilibrata.

1.000 HZ-8.000 HZ “MID-HIGH” (MEDIO-ALTI)


Queste frequenze attirano l’attenzione. L’orecchio
umano è abbastanza sensibile in questa gamma, e quindi è
probabile che ponga particolare attenzione a ciò che si
mette in essa. Queste frequenze sono importanti per la
presenza, la chiarezza, e il punch. L’assenza di fascia mid-
high fa sentire la musica noiosa e senza vita. Un eccesso
di questa fascia fa sentire la musica pungente, prepotente
e faticosa.

8.000 HZ-20.000 HZ “HIGH” (ACUTI)


Un altro estremo nella gamma dell’udito umano. Queste
frequenze sono i dettagli, la scintilla sfrigolante del suono.
L’assenza di suoni acuti fa sentire una musica soffocata e
noiosa. Un eccesso di acuti restituisce un suono aspro e
scomodo da ascoltare. Queste frequenze, con la loro
presenza e assenza, rendono la musica eccitante o
rilassante. La musica, che è destinata a essere eccitante,
come la musica da ballo, contiene grandi quantità di suoni
acuti; la musica che è destinata ad essere rilassante
contiene basse quantità di acuti. Le persone in età, a poco
a poco perdono la loro capacità di ascoltare frequenze in
questa gamma acuta.
Così ora abbiamo capito gli effetti delle frequenze
individuali sulla psiche umana. Raramente i suoni sono
costituiti da singole frequenze, sono composti da
moltitudini di frequenze, e il modo in cui tali frequenze
sono organizzate ha anche un effetto sulla psiche umana.
Quando più frequenze si verificano simultaneamente
nella stessa gamma di frequenza, le loro lunghezze d’onda
contrastanti provocano oscillazioni periodiche note come
battimenti. Nella gamma sub-bass, ogni battimento
diventa dominante, spesso inquietante, mentre nella
gamma alta, le frequenze sono in genere dense e senza
alcun effetto nocivo.
Il battimento è anche il principio alla base della
formazione di accordi musicali.
Combinazioni di suoni che producono un sottile
distanziamento sonoro sono considerati consonanti,
mentre le combinazioni di toni che producono
schiacciamento pronunciato sono considerati
“dissonanti”. Quando si considerano gli accordi in termini
percussivi, è importante notare che lo schiacciamento si
verifica non solo tra le frequenze fondamentali dei toni
coinvolti, ma anche tra le loro armoniche. Così, il battito
contribuisce anche al carattere di molti suoni non tonali.
Per esempio, il suono di un cembalo è in parte dovuto al
battito delle innumerevoli frequenze che esso contiene.
Analogamente, il suono thumpy del corpo di una
grancassa acustica è in parte dovuto al pestaggio di
frequenze basse.
La struttura organizzativa della frequenza più semplice è
il tono. I toni sono molto comuni in natura, e il nostro
cervello è appositamente costruito per percepirli. Un tono
è una serie di frequenze disposte in particolare maniera
secondo un modello matematicamente semplice.
La frequenza più bassa nel tono è chiamata root note
(fondamentale), e le frequenze sopra di essa sono
chiamate armoniche. La prima armonica è il doppio della
frequenza della fondamentale; la seconda armonica è tre
volte la frequenza e così via.
Il carattere di un tono particolare, spesso chiamato il suo
“timbro”, è parzialmente determinato dai relativi volumi
delle armoniche, queste differenze rappresentano la
grande parte di ciò che differenzia un clarinetto da un
violino. Per esempio, un tono cavo di un clarinetto è in
parte dovuto a una maggiore enfasi su armoniche dispari,
mentre il tono di un violino deve il suo carattere a una più
equa distribuzione di armoniche. Il tono luminoso di una
tromba è dovuto all’elevato volume delle sue armoniche
superiori, mentre il tono più dolce di un corno francese ha
armoniche superiori tenui.
I toni sono il pane e il burro di molta musica. Tutti gli
strumenti musicali, fatta eccezione per gli strumenti a
percussione, producono principalmente toni. Anche i
sintetizzatori producono principalmente dei toni.
La voce umana produce toni, ma essa è molto di più che
un semplice strumento come i precedenti, e dal momento
che la voce dell’essere umano ricopre una così importante
classe di suono, centrale in tanta musica, vale la pena
esaminarla più da vicino.
La voce umana può fare una grande varietà di suoni, ma
i più importanti per la musica sono quelli che vengono
utilizzati nel discorso e nel canto: in particolare, vocali e
consonanti.
Una vocale è un tono. La vocale specifica che viene
intonata è definita dal relativo volume delle diverse
armoniche; la differenza tra un ‘ehh’ e un ‘ahh’ è una
questione di equilibrio armonico. Nel discorso, i toni delle
vocali, raramente rimangono alla stessa intonazione,
scivolano su e giù. Questo perché il discorso non suona
“tono su tono” per noi, anche se tecnicamente lo è. Il
canto è concettualmente uguale al parlato, con la
differenza che le vocali sono prolungate ed eseguite a
precise intonazioni.
Una consonante è un suono breve. I rumori non tonali,
come ‘t’, ‘s’, ‘d’, o ‘k’, si trovano nella gamma media
superiore. Il fatto che le consonanti trasportino la maggior
parte del contenuto informativo del linguaggio umano può
ben spiegare il cervello umano e i pregiudizi di orecchio
verso le frequenze mid-high.
Quindi, possiamo vedere che la voce umana, come si usa
nel linguaggio e il canto, è composta da due parti: le
vocali e le consonanti tonali e non tonali. Detto questo, la
voce umana è molto versatile e molte delle sue possibili
modalità di espressione non sono coperte da queste due
categorie di suono. Il fischio, ad esempio, sostituisce i
toni vocali con suoni sospirati, il rumore non tonale, con
consonanti prodotte nel modo normale. Inoltre, molti dei
rumori fatti, per esempio, nei beat boxer, sfidano analisi
in termini di vocali e consonanti.
LA BATTERIA
Finora abbiamo esaminato i toni e la voce umana. La
voce umana è abbastanza tonale in natura, quindi in un
certo senso stiamo ancora trattando di toni. Ora dovremo
ragionare sui suoni percussivi, i quali, sebbene non siano
tecnicamente considerabili come toni, lo sono ancora un
po’ in natura.
I tamburi sono costituiti da una membrana di qualche
tipo allungata su un corpo risonante. Quest’ultimo
produce il suono quando la membrana è colpita. Un
tamburo produce un suono complesso, la maggior parte
del quale risiede nel bass e nel mid-bass.
Questo componente inferiore del suono, che io chiamo il
“corpo”, non è adatto tecnicamente alla disposizione
frequenziale di un tono, ma di solito porta una maggiore o
una minore somiglianza con una tale disposizione.
In aggiunta alla componente del corpo del suono, che
viene creato dalle vibrazioni della membrana, parte del
suono di un tamburo è creato dall’impatto tra la
membrana e l’oggetto che la colpisce. Questa parte del
suono, alla quale mi riferirò chiamandola il “battente”, ha
energia in tutto lo spettro di frequenze, ma di solito è
centrato nella gamma mid-high e high.

I PIATTI
Ora, avendo esaminato i toni in generale, la voce umana
e tamburi, si arriva al primo (e unico) suono
completamente non tonale che esamineremo: i piatti.
I piatti sono sottili lastre di metallo, colpiti, come i
tamburi, con dei battitori. Le vibrazioni delle piastre
colpite creano modelli estremamente complessi di
frequenze, da qui la natura non tonale di piatti.
I piatti hanno energia lungo l’intero spettro di frequenza,
ma il grosso di detta energia è tipicamente situata nella
gamma alta, oppure nel midrange nel caso di grandi piatti
come il gong. Vi è anche ragione di credere che i piatti
diffondano energia sonora significativa al di sopra del
range dell’udito umano, dal momento che la loro energia
non mostra segni di annullamento vicino ai 20 kHz. In
ogni caso, grazie alla tanta energia negli acuti, sono un
tipo molto emozionante di suono.

DOMINIO DEL TEMPO


Abbiamo analizzato suoni in termini di frequenze e,
questo tipo di analisi chiamata analisi sul dominio della
frequenza, è un modo molto utile per analizzarli. Ma c’è
un altro modo di analizzare i suoni che è importante
capire ai fini del mix ed è in termini di forme d’onda.
Questo tipo di analisi basata sulla forma d’onda è
chiamata analisi nel dominio del tempo.
Analisi nel dominio del tempo significa essenzialmente
guardare un suono non in termini di onde sinusoidali che
lo compongono, ma in termini di modelli di disturbo che
provoca il viaggio attraverso un qualsiasi mezzo: le
molecole d’aria, il timpano di un essere umano, un cono,
o il segnale elettrico in un cavo audio, per esempio.
L’intensità del disturbo che provoca il suono in un dato
istante è chiamato la sua ampiezza.
Quando si combinano due suoni (cioè, giocano
simultaneamente attraverso lo
stesso mezzo), i loro disturbi nel dominio del tempo si
sommano. L’ampiezza istantanea del suono risultante in
un dato momento è una semplice somma matematica delle
ampiezze istantanee dei suoni separati, questo perché la
fase finale di mix (cioè, combinando le tracce del mixer
separate in un unico master traccia) è talvolta chiamata
somma. È letteralmente una questione di prendere la
somma di tutto.
È importante comprendere che qualsiasi suono può
essere analizzato sia nel dominio della frequenza sia nel
dominio del tempo. Si può guardare il suono come una
raccolta di onde sinusoidali, o lo si può guardare come un
modello di disturbo in un mezzo. Entrambe le prospettive
sono utili per cose diverse.
LA PERCEZIONE DEL VOLUME
Il volume è un tema importante per il mix, sembra
opportuno a questo punto parlare della percezione del
volume in generale.
La loudness si misura in decibel (dB). I decibel sono un
modo comune per misurare il volume del suono. I decibel
sono un’unità logaritmica a base 10: significa che un
incremento del suono di 10 decible produce un suono
forte il doppio rispetto a quello di partenza. In termini
generali, il valore in db di suono è dato dalla formula
10Log10(I/10-12)
dove I = intensità del suono in Watt/m2.
In altre parole, l’ampiezza di un aumento sonoro di 10
dB moltiplica la sua amplificazione per dieci.
Accrescendo la sonorità di un suono di 20 dB moltiplica
la sua ampiezza per cento. La diminuzione del volume di
un suono di 30 dB moltiplica la sua ampiezza per un
millesimo. E così via.
I decibel sono una misura relativa in quanto non vi dice
esattamente quanto forte suoni, si può dire solo quanto
forte sia rispetto a una certa quantità di riferimento,di
solito designato come 0 dB. Così, per esempio, un livello
di 3 dB è di tre decibel più forte rispetto al livello di
riferimento, e una diminuzione di 3 dB è di tre decibel più
tranquilla rispetto al livello di riferimento.
Quando si parla del mondo reale, per esempio i suoni
che viaggiano attraverso l’aria, il volume è spesso
misurato in dBSPL, o decibel di livello di pressione
sonora. Questo è un’unità di misura basata sul decibel,
con il livello di riferimento di 0 dBSPL essendo il suono
più tranquillo che è udibile da un giovane adulto con
l’udito intatto.
La soglia del dolore è generalmente collocata intorno ai
140 dBSPL. Questa gamma da 0 a 140 dBSPL ci dà la
gamma dinamica dall’udito umano. 80 dBSPL, 75 dBFS
per il mix e 83 dBSPL per il master è un buon livello di
ascolto per la musica.
La Loudness può essere misurata in due modi: può
essere misurata in termini di picco loudness, o in termini
di volume medio. Loudness Picco misura l’ampiezza delle
cime istantanee più alte nel suono.
RMS (Root mean square - valore efficace di un segnale,
soprattutto elettrico) misura il livello di ampiezza medio
complessivo, tenendo conto di cime e quiete in spazi
intermedi.
Il volume medio, è bene sapere che riflette, in modo più
accurato, la percezione del volume reale. I misuratori di
livello misurano, nella maggior parte, il volume di picco.
Il volume medio misurato come descritto sopra, non sarà
ancora una misurazione di monitoraggio accurata della
percezione umana.
4. Obiettivi del mix

Ci sono quattro obiettivi principali per la maggior parte


dei mix: mood, balance, definition e interest.
Dovendo valutare la qualità di un mix, di solito iniziamo
considerando come coerente e accattivante ogni dominio e
quindi valutiamo quanto bene è stato compiuto ogni
obiettivo. Un tale approccio potrebbe sembrare
estremamente tecnico, ma comprende molti concetti
importanti di mix. Gli aspetti creativi del mix sono
veramente una questione artistica e sono legati al talento
individuale di ogni ingegnere in seguito ad attenti studi
specifici e musicali.
In primo luogo, si discuteranno ciascuno degli obiettivi,
per poi vedere come possano venire cristallizzati in ogni
dominio.

MOOD
Il mood si occupa di riflettere il contesto emotivo della
musica. Gran parte degli aspetti creativi di un mix si
stabiliscono tenendo presente questo obiettivo
fondamentale. È quello che fa la differenza tra un buon
mix e un mix approssimativo. La compressione pesante,
l’equalizzazione aggressiva, la distorsione sporca e uno
snare incisivo e potente distruggeranno con ogni
probabilità qualsiasi contenuto emotivo di un brano jazz
morbido. Allo stesso modo, una dolce voce reverberata,
drums contenuti e guitars tranquille annulleranno una
canzone heavy-metal arrabbiata. Gli ingegneri che si
specializzano in un solo genere si ritroveranno a mixare
un genere diverso con la stessa difficoltà di mangiare una
zuppa con una forchetta.

BALANCE
Di solito cerchiamo il balance (bilanciamento) in tre
settori: il bilanciamento della frequenza, il bilanciamento
dell’immagine stereo e il bilanciamento del livello
(relativo e assoluto, che spiegheremo più avanti). Ad
esempio, un deficit nei medio-alti può restituire un mix
dal suono fangoso, confuso e distante. Per quanto riguarda
la profondità, di solito cerchiamo la coerenza.

DEFINITION
In primo luogo, la definition è sinonimo di un suono
distinto e di suoni ben riconoscibili. Maggiormente ci si
riferisce alla definition degli strumenti, ma si può
tranquillamente parlare della definition di un reverbero.
Non ogni elemento del mix richiede un alto grado di
definition; in realtà, alcuni elementi sono volutamente
nascosti, come un pad a bassa frequenza che riempie una
gamma di frequenze mancante, ma non gioca alcun ruolo
musicale importante. Un sottoinsieme di definition si
occupa anche di quanto bene ogni strumento si presenta in
relazione al suo timbro: si sente il pluck (pizzicato) al
contrabbasso o si tratta di una esecuzione energica?

INTEREST
In una sera eccezionalmente fredda, in ritardo nel 1806,
un certo giovane seduto al Theater an der Wien, in attesa
del ministro per il primo concerto per violino di
Beethoven in Re maggiore... Poco dopo l’inizio del
concerto, una serie di quattro Do diesis dissonanti sono
stati suonati dalla prima sezione di violino e una frase
nascosta veniva dall’orchestra. Questa vicenda si è
ripetuta ancora una volta; solo che questa volta è stata la
seconda sezione dei violini, anche accompagnati dalle
viole, a suonare la stessa serie di Do diesis. Questo evento
successivamente si sposta verso il centro dell’orchestra
con una tonalità leggermente diversa. “Interessante!”
pensò il giovane.
Abbiamo già stabilito che le nostre orecchie si abituano
molto rapidamente ai suoni, e se non ci sono
cambiamenti, ci annoiamo e perdiamo interesse.

DOMINIO DELLA FREQUENZA


Il dominio della frequenza è probabilmente l’aspetto più
difficile da padroneggiare. Alcuni dicono che il
trattamento della frequenza è già metà del lavoro in un
mix.
La maggior parte delle persone hanno familiarità con la
regolazione dei bassi e degli alti che si trovano su molti
sistemi Hi-Fi. La maggior parte delle persone sanno anche
che il controllo dei bassi regola le basse frequenze e, di
conseguenza, il controllo degli alti controlla le alte
frequenze. Alcune persone sono anche consapevoli del
fatto che tra i bassi e gli alti vi sono le frequenze medie.
La nostra gamma di frequenze udibili si colloca fra 20
Hz e 20 kHz (20.000 Hz). La divisione di base dello
spettro di frequenza comporta, in gergo, quattro bande:
bass, mid-bass, mid-high e high. Questa divisione
proviene dai comuni equalizzatori a quattro bande che si
trovano su molti banchi analogici. Non esiste uno
standard che definisca esattamente dove ogni banda inizia
o finisce, e nella maggior parte degli equalizzatori, bande
differenti si sovrappongono.
L’apprendimento è un processo continuo. Nel campo
competitivo di ingegneria audio non tenersi costantemente
aggiornati e predisposti a imparare continuamente
significa che si è destinanti a una carriera condannata a
morte. Purtroppo si possono reperire suggerimenti
superficiali e scorretti tanto da ostacolare il nostro
progresso.
Questi mantra si ripetono così spesso che a volte li
pronunciamo senza alcuna considerazione. Questo ci
porta a scivolare sulle strade delle buone intenzioni.
Di seguito, quattro consigli su cui c’è veramente bisogno
di fermarsi a riflettere.

1. BASTA USARE LE ORECCHIE!


È importante non lasciarsi influenzare dalle posizioni
delle manopole del mix, ma da come suona. Si, forse
abbiamo aggiunto 20 dB di fascia bassa alla voce, il che è
probabilmente un errore nella maggior parte dei casi,
tuttavia se suona bene, allora così sia!
Esempio: in internet ho incontrato un forum dal titolo
“Ecco alcune tecniche per la compressione e il
rimodellamento di un basso”. Fra i vari commenti mi sono
imbattuto in questo: “La tecnica migliore per comprimere
un basso è quello di utilizzare le vostre orecchie!”. Nulla
di più sbagliato. La ménte mente! L’orecchio tende ad
abituarsi velocemente alle situazioni acustiche, cercando
di correggere eventuali squilibri, ma ciò non toglie
l’esistenza di una oggettività della soggettività
dell’ascolto.
Noi tutti usiamo le nostre orecchie. La maggior parte
delle persone ha utilizzato le proprie orecchie tutta la loro
vita. Costoro non hanno, cioè, preso dimestichezza con
l’oggettività dell’ascolto musicale complessivo.
Ho cercato di rimodellare il mio bass con l’olfatto e
posso dirvi che le orecchie sono assolutamente la strada
da percorrere; ma questo non ha nulla a che fare con la
tecnica. Le nostre orecchie ci diranno se una tecnica
funziona o no, non quello che sono le tecniche.

2. NON SI PUÒ LUCIDARE IL FANGO


È importante partire col piede giusto fin da subito, per
non accumulare spazzatura. Se un lavoro è una totale
spazzatura, tutta la pulizia nel mondo non ci salverà:, ad
esempio una chitarra accordata male non potrà risultare
accordata una volta registrata per quanto bene si
effettuino le registrazioni.
Questa frase non deve diventare un pretesto per evitare
di migliorare il suono passando ad altri la patata bollente.
La realtà è che le registrazioni sono raramente perfette. È
raro avere a disposizione tutti gli strumenti perfetti con il
musicista perfetto in una camera perfetta e una collezione
di microfoni perfetta e che tutto fili liscio. È più probabile
che vi siano degli errori: uno dei membri della band non è
in forma al 100%, c’è troppo di sfiato in un microfono o
qualunque altra cosa. È Il lavoro del tecnico identificare i
problemi e risolverli. Dev’essere tutto completamente
recuperabile? No. Vuol dire che non dobbiamo ripulire il
tutto? No.

3. È L’ORECCHIO, NON UN MECCANISMO


L’abilità dell’artigiano è di gran lunga più importante
rispetto al suo strumento. Tuttavia l’artigiano passerebbe
un inferno se fosse costretto a costruire una casa intera
con un martello di gomma. Per tornare al concetto di
lucidare il fango… Il fatto è che si utilizzano ancora cose
come i microfoni, i preamplificatori e gli EQ per ottenere
la musica registrata. Così, mentre è vero che la nostra
abilità è fondamentale, permane un ineliminabile divario
di qualità tra un microfono di € 90 collegato direttamente
a un’interfaccia e un microfono di € 9.000 che funziona
attraverso un preamplificatore di € 4.000. Non abbiamo
bisogno di una messa a punto di milioni di euro per
ottenere milioni di euro di risultati. È inutile utilizzare
prodotti economici e aspettarsi risultati ammirevoli.

4. NON CI SONO REGOLE!


La musica è arte, e ciò che rende l’arte buona o no non
dipende da regole prestabilite e vere una volta per tutte.
Non esiste un obiettivo indiscutibile quando si produce
musica. La sperimentazione è la chiave!
Quindi non ci sono regole?! Non abbiamo dunque
bisogno di sapere cosa stiamo facendo?! Ci dispiace far
scoppiare quest’ultima bolla, ma non avere regole non
significa che non ci siano principi accettati. E mentre a
nessuno è richiesto di aderire ad alcun principio, esserne
consapevoli è veramente di grande aiuto!
Vale anche la pena notare che oltre ai principi estetici
che definiscono vari generi, ci sono anche regole tecniche.
Fase, altezza, modelli di pick-up…
In fondo, tutto ciò che ruota attorno al concetto di realtà.

CONCLUSIONE
Se usiamo questo consiglio correttamente, possiamo fare
affidamento alle risorse a nostra disposizione, pur
utilizzando le nostre orecchie come il “barometro” ultimo
di ciò che funziona e ciò che non va bene. Portiamo
soluzioni, non scuse. Se usiamo questo consiglio in modo
non corretto significa che facciamo quello che vogliamo,
senza dover investire il tempo per bene, o il denaro per
bene. E se non dovesse funzionare, è solo perché qualcun
altro non ha le idee chiare o semplicemente non sta
adottando la nostra visione.
Il software dal quale sono tratti gli esempi è ProTools
con plug-in Waves.

SETTAGGIO
Aprire un nuovo progetto come indicato:

Importare tutte le tracce preferibilmente in formato .aiff


1 (24bit) sul sequencer;
Prediligere l’apertura di canali MONO
Aggiungere il canale Master Stereo e colorarlo di
rosso fuoco
Aggiungere 8 canali AUX stereo
Dare il nome preciso del contenuto a ogni canale
nel mix
Creare i gruppi delle famiglie di strumenti
Dare un colore distintivo ad ogni group e clip
uguale a track
Impostare tutte le clip sulla pagina Edit con il
massimo SNR2
Impostare tutti i fader a 0U regolando il Trim3
Il volume di ascolto ideale in questa fase è di
circa 75 dB SPL
Inserire una traccia Master stereo e aprire nei
relativi INSERT i seguenti plug-in in
quest’ordine:

1. SOUND FIELD>WAVES DORROUGH STEREO


impostare una visione di riferimento e il livello di
riferimento a 204.

2. WAVES PAZ ANALYZER (MISURATORE DI FREQUENZA, PAN,


LIVELLO).

3. E 4.
Vanno lasciati liberi per dei plug-in inseriti in base al
progetto
5. WAVES L2 MULTIMAXIMIZER (IMPOSTARE LA THERSHOLD A
0.1)

6. INGRANDIRE LA VISIONE DEI BUS A, B…(VIEW>EXPANDED


SEND A, B)
5. Rough mix

Sono principalmente utilizzati nei lavori di musica


classica e Jazz (piccole orchestre, sestetti, opere liriche,
ecc...), dove non è richiesto alcun lavoro di
equalizzazione del suono registrato. Il rovescio della
medaglia è che rischiano di essere terribili. A volte i
rough mix possono contribuire a dare al vostro cliente o
artista, un metro di misura del lavoro finale.
La prima cosa di massima da fare su un mix, è quella di
salvare con nome la sessione di lavoro (File>Save session
As…) e rinominarlo con la data e la nomenclatura che
afferma chiaramente “Rough mix”. Dopo di che,
cominciare la creazione di sottogruppi stereo, in modo da
avere la possibilità di fare ascolti rapidi in volume
complessivo, per esempio un drums o un gruppo di
rhythm guitars. La cosa più importante è quella di creare
un insert bus mix.
L’insert bus mix è una traccia Aux stereo che ha il
proprio routing (percorso) in un ingresso dedicato (per
esempio, bus 1-2). La sua uscita è impostata al master.
Supponendo di utilizzare il bus 1-2 come percorso di
ingresso per l’insert bus mix, imposteremo, tipicamente
per una sessione di rough mix, 8 tracce Aux stereo. Poi le
nomineremo: Drums, Bass, Guitar, Key, Vocal, Bass…
Per ciascuno di questi sottogruppi, assegneremo un
percorso di uscita separato. Ad esempio, bus Drum
utilizzerà bus 1-2 come input, bus Guitar utilizzerà bus 3-
4…

NOTE
Assegnare drums, keyboards, guitar e vocal come nome
ai sottogruppi, e via tutti i sottotitoli nelle singole tracce
del mix.
Invece di bus 3-4 si potrebbe rinominare Drums Bus.
Inoltre è il caso di assegnare un colore specifico sia alle
clip dei sottogruppi sia alle corrispondenti uscite Bus. Ciò
contribuirà a mantenere le cose belle e organizzate.
L’impostazione dei sottogruppi può sembrare molto
laboriosa, ma tornerà estremamente utile per procedere
con ordine e scorrevolezza durante tutto il procedimento
di mix.
È utile salvare il file come modello (File>Save As
Template…) e utilizzarlo per i brani successivi, in modo
da non dover reimpostare la stessa struttura.
Coviene iniziare il mix con un plug-in EQ (Waves
Renaissance EQ4) seguito da un compressor (H-Comp
Waves o CLA-76 Waves, quest’ultimo ottimo per i suoni
percussivi).

COMINCIANDO DALL’INIZIO
La mia preoccupazione principale con un rough mix è
l’impatto e la chiarezza.
Le sfumature non costituiscono eccessiva ragione di
preoccupazione; è una sorta di previsione del mix finale.
Generalmente i rough mix soffrono di poca brillantezza
e definizione. Un equalizzatore mix bus, può aiutare con
efficacia nei medi bassi e negli alti fin dove c’è bisogno di
un po’ di ariosità, senza la necessità di applicare EQ
chirurgici per le singole tracce.
Infine inseriamo un limiter come ultimo plug-in della
catena, per controllare il livello di picco massimo del
suono.
Ritengo utile aggiungere, con intelligenza, il limiter nel
rough mix per mantenere alti i livelli, non prevedendo il
mastering successivo. Molto adatto, da alcuni anni ormai,
è il Waves L2 Ultra Ultramaximizer. Dona la sensazione
di un suono potente ottenendo l’abbondanza di livello ed
è trasparente nei riguardi del suono. In alternativa,
utilizzare il limitatore più trasparente.
Prima di iniziare alzando i fader da -inf (processo
contrario al mix vero e proprio, nel quale si parte dallo 0U
(unitario)), è necessario predisporre un reverbero e un’
eco. Per fare questo, inserire due nuovi ingressi Aux,
saranno nominati per l’appunto “Reverbero” ed “Eco”.
Facendo così, questi nuovi ingressi non entreranno in
gioco nel caso si voglia sentire uno o più bus mix dry.
Come eco, è preferibile scegliere qualcosa di semplice e
veloce, come ad esempio il plug-in MOD Delay II di
ProTools.
Questo permette di sincronizzare il tempo della traccia o
di scegliere qualsiasi genere di suddivisione musicale in
tempo reale.
È impossibile dare specifiche sui vari trattamenti,
soprattutto perché ogni traccia è diversa dall’altra e
richiede una personale serie di correzioni o complementi.
Tuttavia, ecco alcuni consigli generali sul trattamento di
drums e bass, in modo che si possa creare una sezione
ritmica rispettabile in pochi minuti.
In primo luogo, ottenere un equilibrio discreto tra drums
e bass, senza EQ o compressione, unicamente alzando i
volumi.
La compressione sarà abbastanza aggressiva con un
rapporto di 4:1, con un attack e un release veloci. Questo
aumenta la dinamica del bus Drums.
Se la kick manca di definizione, provare ad alzare il
volume di 2 dB a 220 Hz-240 Hz. Questo è utile a
definire il suono, anche se è preferibile aumentare la
definizione sottraendo (cut) che aggiungendo (boost).
Gli snare della musica rock tendono a mancare di
profondità e di frequenze gravi, e sono spesso troppo
twangy (nasali) o presentano troppi medi inscatolati.
Alzare allora di 1-2 dB da 700 Hz a 800 Hz per dare la
sensazione di un suono più pronunciato. Aumentare i 5
kHz per conferire più chiarezza al suono. Le tracce tom
hanno nasalità e non sufficiente profondità. Così, ancora
una volta, alzare tra i 400 Hz e i 600 Hz, per un leggero
aumento dell’attack del suono nei medi alti. Ovviamente,
quando è possibile controllare e correggere la fase.
Fare poco per il resto del kit della drums. È possibile
scoprire che è necessario mettere un filtro passa-alto sugli
overheads, o qualche compressione sui microfoni della
camera. Queste sono cose comuni. Non abbiate paura di
giocare, ma in armonia, con i principi di un rough mix.
Basta che suoni bene e in fretta.
Tutto il tempo è da dedicare al bilanciamento della
batteria e anche porre attenzione al suono del basso per
assicurarsi che suoni bene con la drums, in particolare con
la kick. Sono qui da cercare “i soliti ignoti”: percepisco
troppo rumore? Ha abbastanza impatto? Se non lo ha,
provare ad alzare di 2 dB fra i 300 Hz a 400 Hz, per
rendere i suoni gravi più potenti e, naturalmente, provare
ad alzare di 1 dB i suoni attorno ai 90 Hz. Se il suono è
buono, procedere.

IL RESTO DELLA BAND


Il passo successivo è quello di alzare i fader delle parti
restanti, tranne le voice, quindi le guitars, i synth e tutto
ciò che può esserci.
Poiché ogni canzone è diversa, è preferibile mantenere la
chiarezza utilizzando efficacemente il pan, in altre parole
mantenere il campo stereofonico. Ad esempio, se avete un
synth e una chitarra nella stessa gamma generale di ottava,
provate a lavorare col pan per ottimizzare la chiarezza e la
larghezza.
L’obiettivo di un rough mix è di avere un risultato
provvisorio da poter ascoltare. Numerose decisioni
critiche saranno effettuate sulla base di questo mix di
massima, perciò è il caso di assicurarsi di avere chiarezza
su tutti i canali del mix. Provare a spendere solo pochi
minuti al raggiungimento di questo equilibrio. Dovrebbe
trattarsi di un’operazione istintiva, evitando di oberarsi di
lavoro. La trappola in cui è facile cadere è quella di
sovraccaricarsi di interventi minuziosi su ogni singola
traccia.
Si consiglia di applicare un EQ globale nei sottogruppi
di guitars o di keys. Lo si fa per risparmiare tempo in
modo da non andare ad applicare un diverso trattamento
ad ogni singola traccia. In alcuni casi, inserire un EQ sul
sottogruppo guitar, inserendo un filtro passa-alto per
sbarazzarsi di qualsiasi disturbo delle chitarre, soprattutto
a 50 Hz.
Aggiungere un po’ di spinta nella gamma media
superiore, nella quale conferire ancor più presenza alle
guitars, se necessario.
Poiché le chitarre distorte sono intrinsecamente
compresse, di solito evitare il compressore. È invece da
considerare, talvolta, un compressore sul bus keys. Ancora
una volta, l’obiettivo qui è quello semplicemente di tenere
a bada possibili picchi randagi e in secondo luogo di
alzare e potenziare il gruppo nel suo complesso.
Fare risaltare la voice evitando i mascheramenti con gli
altri suoni. In musica pop e rock, sarà difficile realizzarlo
unicamente attraverso un EQ ed un compressore. A tal
proposito impiegare un plug-in di filtraggio che permette
di impostare rapidamente un filtro passa-alto per la
rimozione di rumori, per poter passare successivamente a
un EQ e se necessario a un comp.
Aumentare lievemente le frequenze medio-alte,
tagliando quelle medio-basse, a meno che la voce non sia
nasale e sottile.
Con la voce è preferibile usare sempre curve a campana
molto ampie (Q), in modo tale da evitare un suono
eccessivamente trattato. Poi impostare il comp in modo da
controllare i picchi, con un attacco e un rilascio di 0,3 ms.
È possibile anche inserire un secondo compressore sul bus
voice, per aiutare ad amalgamare la traccia nel mix. Di
solito viene utilizzatato questo compressore per avere un
attack più veloce e una maggiore rapidità, con
l’impostazione del threshold (soglia) molto alto, in modo
che intervenga il meno possibile.

SALVA IL LAVORO E DIMENTICALO!


A questo punto, si è giunti al rough mix definitivo. La
maggioranza delle volte non bisogna avere speso più di
15-20 minuti per arrivare a questo risultato. Si è ora pronti
per controllare il limiter ed effettuare un ultimo ritocco di
EQ al mix bus per conferire brillantezza.
Il ruolo del limiter è quello di aumentare il livello senza
cadere in clip oltrepassando la soglia degli 0 dBFS.
Creare il bounce stereo della sessione, inserendo come
prima traccia audio nella nuova sessione, in cui si
realizzerà il vero e proprio mix, impostando il livello della
traccia a 0 dB e mettendola in mute.
Questo serve ad averne una copia a portata di mano in
ogni momento all’interno della sessione stessa, evitando
così di dare, in seguito, la caccia al rough mix.
Il rough mix può essere frustrante. Buon divertimento
e… Yoh!
Siamo fuori per le gare!
6. La correlazione di fase

La correlazione di fase è un fenomeno che si verifica


quando due o più segnali sono sommati insieme. Per
questo motivo, quando si parla di problemi di phasing, ci
si riferisce sempre alla relazione tra due o più segnali.
Nell’audio, il termine “fase” si riferisce al rapporto
temporale tra due segnali della stessa frequenza.
Per capire che cosa sia la fase, diamo prima uno sguardo
più da vicino a una sinusoide.

Un’onda sinusoidale ha una frequenza (il numero dei


cicli al secondo della vibrazione) e un’ampiezza o livello
(la forza o potenza della vibrazione). Le onde sinusoidali
sono tipicamente rappresentate in un grafico xy, con il
tempo sull’asse x e il livello sull’asse y.
Il periodo di un’onda sinusoidale è la lunghezza nel
tempo di un ciclo; un ciclo è di 360°.
Il ciclo di un’onda sinusoidale comincia a zero gradi a
livello zero. L’onda aumenta al suo massimo positivo a
90°, a un quarto del periodo. A metà periodo (o a 180°), si
ricade ad un livello pari a zero. L’onda continua al
massimo negativo a 270°, a tre quarti del suo periodo.
Infine, sorge di nuovo al livello zero. Questo punto può
essere descritto come la fine di un ciclo, a 360°, o come
l’inizio del ciclo successivo, di nuovo a 0°.
Due onde sinusoidali della stessa frequenza sono dette
“in fase” se i loro cicli iniziano contemporaneamente. Se
un’onda inizia in un momento diverso, i segnali sono detti
“fuori fase”.
Lo sfasamento fra onde con frequenze differenti spesso
non è udibile, a meno che i due (o più) canali non siano
combinati, ossia uno copia dell’altro. In questo caso, ci
sarà l’addizione o la sottrazione del livello del segnale,
che varia con la frequenza.
Per una singola onda sinusoidale, a una particolare
frequenza, il risultato sarà udibile solo come un
cambiamento di livello. Per le forme d’onda complesse,
alcune frequenze saranno amplificate e altre saranno
attenuate o addirittura annullate completamente,
influenzando la risposta in frequenza dei segnali
combinati.
Che cosa può causare lo spostamento di fase?
Un delay di un canale in un circuito sposterà la fase
dell’audio relativa al canale non ritardato. Lo stesso può
accadere nel filtrare un canale: nell’ambito dell’audio
analogico può essere conseguenza della reattanza
(induttanza o capacità) e nell’audio digitale può essere
una conseguenza di elaborazioni. Questo sposterà la fase
relativa a un canale non filtrato. Invece un errore di
polarità in un canale, a causa di cablaggio inverso, o un
amplificatore invertente o inadeguato, sposterà la fase di
tutte le frequenze di 180° rispetto al canale di riferimento.

DIFFERENZA DI TEMPO O POLARITÀ?


Uno dei temi più confusi dell’audio è la fase. Ciò che
crea confusione dipende dall’utilizzo dello stesso termine
per riferirsi a concetti differenti. Anche qui fare chiarezza
è fondamentale, vi sono due cose distinte che si intendono
quando si dice “fase”: polarità o differenza di tempo.
Differenziarle aiuterà a decidere, ad esempio, se si deve
premere il pulsante Ø o spostare un microfono se si ha un
suono strano.

POLARITÀ
Vedrete un tasto su alcuni pre-amplificatori microfonici
(e altri dispositivi audio di fase) con il simbolo ø di
inversione di fase: questa è la polarità!
Gli ingegneri parleranno di connessioni XLR con il pin 2
caldo anziché il pin 3 caldo… Anche questa è la polarità.

Se si dispone di due elementi microfonici vicinissimi tra


loro la cui combinazione fa cadere il livello generale in
maniera significativa, qualcuno potrebbe supporre di
descriverlo come un microfono fuori fase rispetto
all’altro, ma se si vuole essere corretti si deve parlare di
polarità.
Il suono vibra nell’aria. Le molecole sono spinte poi
tirate, poi spinte, poi tirate, poi ancora spinte e poi tirate e
così via. Tali vibrazioni dell’aria sono la forza che sposta
gli elementi microfonici. Quando l’aria spinge contro
l’elemento, dovrebbe esserci un aumento superiore a zero
nella forma d’onda. Quando l’aria tira l’elemento, ci
dovrebbe essere una caduta sotto zero.
Questo spingere e tirare è proprio la polarità. Se si
inverte la polarità, una spinta contro l’elemento microfono
causerà una caduta sotto lo zero, invece di un aumento
positivo corrispettivo. Sarà, per contro, anche la causa di
un aumento sopra lo zero per una trazione dell’elemento
microfonico, anziché di una caduta al di sotto. Ora alcuni
sostengono che si può sentire la differenza tra una polarità
e la sua opposta su un singolo canale, cioè tra premere =
salita vs premere = caduta.
Non sosterrò qui una posizione o l’altra. Abbiamo
semplicemente invertito la spinta/trazione in relazione alla
pressione dell’aria e la sua rappresentazione elettrica
campionata.
Esaminando un caso ideale di polarità, la combinazione
di due segnali identici (in termini di volume, spettro e
tempo) raddoppia il volume. Se poi si inverte la polarità
di uno solo di quei segnali e li si combina, essi verranno
perfettamente annullati nel campo digitale.

DIFFERENZA TEMPO
La gente la avverte quando si utilizza più di un
microfono su una certa fonte, bisogna dunque fare
attenzione a non creare problemi di fase. Se il suono del
rullante arriva prima nel microfono posto vicino alla
cordiera, si ha uno scarto temporale fra i due microfoni
nella ricezione del segnale.
L’elaborazione del segnale digitale può causare la
latenza, che è talvolta descritta come un suonare “fuori
fase”.
Uno scarto temporale può provocare il comb filtering.
Quindi, se si è compreso di avere a che fare con la
questione della differenza di tempo, e non di polarità, il
nostro ambito di indagine si sposterà. La maggior parte
dei professionisti del suono si accorgono immediatamente
della sua presenza. Altre volte può essere sottile da
cogliere, rendendo il suono del vostro audio meno
piacevole, ma non necessariamente fuori fase.

CONDIZIONI CHE CREANO COMB FILTERING


Quando si tratta di registrare musica con i microfoni, il
comb filtering si verifica in alcune circostanze piuttosto
particolari. Se vogliamo ridurre la possibilità che si
presenti, abbiamo bisogno di sapere quali sono le cause (e
quali invece non lo provocano), così da concentrarsi in
modo mirato sulla sua prevenzione.
In ogni segnale più articolato del segnale sinusoidale,
sarà meno una questione di fase e più una questione di
comb filtering; in particolare, quest’ultimo, riguarda gli
strumenti che sono altamenti atonali, come un rullante, o
che variano di tono nel tempo, come quando si apportano
modifiche significative con il pitch delle corde della
chitarra suonate con il plettro.

DURATA
Il comb filtering è più evidente quando il segnale a
banda larga ha una durata significativa. Il rumore bianco o
rosa sono esempi estremi di durata a banda larga
(prolungato all’infinito, o in stato stazionario) e sarà più
probabile avere comb filtering udibili.
Con un suono più percussivo (più breve) è meno
probabile notarlo. In casi estremi il colpo transitorio può
essere così breve che scompare l’udibilità, dal momento
che la versione ritardata non comincia mai.

DIFFERENZA DI VOLUME
Se al rullante vi sono microfono A e microfono B, e si
presentano pochi millisecondi di ritardo tra di loro, essi
tendono a produrre comb filtering se combinati assieme.
Ma se il volume del rullante differisce nei microfoni dai 9
dB in su, il comb filtering tenderà a non essere udibile.
Ci possono essere altri suoni in comune nei microfoni A
e B, ma ciò che limita l’udibilità del comb filtering per il
rullante è la differenza di volume in quei suoi microfoni.
Se si riesce a ottenere la differenziazione del rullante di 9
dB o più, si può efficacemente eliminare il relativo comb
filtering.

RITARDO
Un altro limite è la quantità di ritardo. Il comb filtering
si verifica quando il ritardo è inferiore a circa 35 ms
(millisecondi), a seconda dei tre fattori precedenti. Una
volta arrivati al di là di 35 ms, i ritardi cominciano ad
essere avvertiti come echi discreti.
Dal momento che il suono viaggia a circa 1 ms a piede
(0,3048 m), i comb filtering non rappresentano un
problema con microfoni che sono a 35 piedi o più di
distanza. Oltre i 30 piedi si potrebbe ottenere qualche eco
davvero stravagante!

INTERAZIONE
I microfoni direzionali possono aiutare a gestire la
differenza di volume di 9 dB o più. Ad esempio, un
microfono cardioide è teoricamente 6 dB inferiore posto a
90° fuori asse. Ma non tutti i microfoni sono all’altezza.
La risposta fuori asse di un microfono merita la nostra
attenzione quando si desidera impedire il comb filtering.
In due microfoni relativamente vicini e con un
differenziale di 9 dB, potrebbe anche non essere udibile il
comb filtering.
Naturalmente è possibile il contrario: non sentire comb
filtering durante il monitoraggio ma, una volta che
abbiamo terminato il distanziamento dei microfoni oltre i
9 dB l’uno dall’altro, sentirlo in seguito.
Aggiungere cambiamenti dinamici di volume
(compressione, automazione del volume) può comportare
comb filtering. Può essere comunque una cosa difficile da
gestire.
Ora, se i vostri canali microfonici non si combinano mai,
allora non otterrete mai comb filtering da questi due
segnali diversi. Una soluzione è quella di effettuare il pan
alle due tracce in modo estremo a destra e a sinistra.
Viceversa, unificare le tracce stereo portandole in mono vi
permetterà di verificarne la presenza.
Questo è il motivo per cui una coppia di overhead della
batteria distanziata dovrebbe essere controllata in mono,
per assicurarsi che le differenze temporanee non causino
udibili comb filtering quando combinati. Se lo fanno, la
soluzione più appropriata è quella di riposizionare i
microfoni (distanza e/o angolo) per una maggiore
separazione dai 9 dB in su. Un’alternativa è modificare i
microfoni (diverso tipo e/o modello diverso) per
aumentare la separazione, oppure modificare la posizione
dei microfoni per rimuovere lo sfasamento temporale.

APPENDICE 6.1
Correggere la fase della registrazione di una batteria in
20 passi utilizzando il plug-in InPhase Waves.
ROUTING ED ESEMPI DI USO
Tutti gli esempi sono realizzati con Pro Tools HD.

ESEMPIO 1 - ALLINEAMENTO DI DUE TRACCE MONO USANDO IL


SIDECHAIN
Questo esempio utilizza due piste, ampli per basso e
basso DI.

Aprire la componente InPhase Mono in track


amplificatore per basso
Invia la traccia di basso DI al Bus 1
Assegnare il sidechain input (key) di InPhase per
ricevere dal bus 1.
Fare clic su Cattura e eseguire un breve Loop.
Una volta che la cattura è completa, si vedrà la
forma d’onda ampli per basso nella sezione Alpha
Display e basso DI sulla sezione display
Sidechain (SC).
Nella sezione monitor, fare clic Mono Mix per
monitorare entrambe le piste sommate in mono.

Nella Waves System Bar fare clic su copy A>B


per passare il segnale elaborato da A, e B (segnale
non elaborato).
Impostare il marcatore per l’inizio di una nota con
un chiaro punto di partenza.
Utilizzare lo zoom per ottenere una buona vista in
un primo transiente della nota, che sarà il nostro
chiaro punto di sincronizzazione
Impostare il Marker sul punto di Zero-cross da
parte della traccia di basso DI nella sezione SC.
Utilizzare il controllo delay nella sezione Alpha
per allineare il passaggio nello lo zero-cross della
forma d’onda alla sezione SC, o afferrare la
forma d’onda per spostare manualmente.
Guardate il correlation meter e assicurarsi di
essere sul blu, lato positivo del misuratore

Riprodurre il loop e, utilizzando la configurazione


A-B, passare da segnale processed e unprocessed
per assicurarsi che l’allineamento delle tracce sia
migliorato.
Se si verificano perdite di energia in un
determinato intervallo di frequenza a causa del
delay, accendere il primo phase shift filter
cliccando sul Shelf or Bell Toggle, poi attuare
uno sweep per trovare il punto in cui ritorna la
frequenza desiderata.
Provate a variare tra A e B per assicurarsi che la
somma delle due tracce sia migliorata.
Se necessario, regolare una seconda frequenza
utilizzando il secondo phase shift filter
Variare tra A e B per sentire il miglioramento.
ESEMPIO 2 - ALLINEAMENTO DI DUE TRACCE MONO CON UNO
STEREO AUX
Questo esempio utilizza due piste, bass amp e basso DI.

Aprire una traccia Aux e assegnare Bus 1-2 come


input.
L’uscita di Bass amp in Bus 1 e l’uscita di bass
DI in Bus 2
Aprire InPhase stereo sul Aux.
Fare clic su Capture e far suonare un breve loop.
Una volta che la cattura è completa, si vedrà la
forma d’onda ampli per basso nel Alpha e la
sezione Basso DI sul Display sezione Beta.
Nella sezione Monitor, fare clic Mono Mix per
monitorare entrambe le tracce sommate in Mono.
Sul Waves System Bar, fare clic su Copy A > B
per passare A segnale elaborato a B, segnale non
elaborato.
Impostare il marcatore nell’inizio di una nota con
un chiaro punto di partenza.
Usare lo zoom per ottenere una buona occhiata in
un primo momento transitorio della nota, che sarà
il nostro punto di sincronizzazione.
Impostare l’indicatore sullo zero cross della
traccia di basso DI nella sezione Beta.
Utilizzare il controllo Delay nella sezione Alpha
per allineare il passaggio per lo zero cross della
forma d’onda Alpha con la sezione Beta, o
afferrare la forma d’onda per spostarlo
manualmente.
Guardate il misuratore di correlazione e
assicuratevi di essere sul blu, lato positivo del il
misuratore. Riprodurre il loop e, utilizzando la
configurazione A-B, passare dai segnali elaborati
a quelli no per assicurarsi che l’allineamento sia
migliorato.

Se si verificano perdite di energia in un determinato


intervallo di frequenza a causa del delay, accendere il
primo filtro phase shift filter cliccando sul Shelf or Bell.

Variare poi spazzare per trovare il punto in cui i


rendimenti della frequenza desiderata sono più
efficaci.
Variare tra A e B per assicurarsi che la somma
delle due tracce sia migliorata.

Se necessario, regolare una seconda gamma di frequenza


utilizzando il secondo phase shift filter.

Alternare tra A e B per sentire il miglioramento.


Copiare le impostazioni alle onde negli appunti
facendo clic su Copia Alpha, Beta sulla Waves
System Bar.
Assegnare ampli per basso e DI out di nuovo alle
uscite Main Mix.

ESEMPIO 3 - ALLINEAMENTO DI UNA TRACCIA STEREO


Questo esempio utilizza una traccia di pianoforte stereo.

Aprire il componente stereo InPhase sulla traccia


stereo.
Nel menu a discesa della sezione Alpha
selezionare CH1, che costringerà CH2 alla
sezione Beta.
Fare clic su Capture avviate la riproduzione di un
breve Loop.
Una volta che la cattura è completa, vedrete il
canale sinistro del piano stereo
Nella Waves System Bar fare clic su Copia A > B
per passare da A, segnale l’elaborato e B, il
segnale non elaborato.
Impostare il marcatore per l’inizio di una nota con
un chiaro punto di partenza.
Utilizzare il comando zoom in per ottenere una
buona occhiata in un primo momento transitorio
della nota, che sarà il nostro punto
sincronizzazione

Vedrai che la forma d’onda Alpha è anticipata rispetto


alla Beta, quindi dovremo regolare la forma d’onda Beta
per abbinare il Alpha.

Impostare l’indicatore per lo zero-cross da parte


della pista Alpha.
Utilizzare il controllo Delay Beta per allineare il
passaggio per lo zero della sezione Beta alla
sezione Alpha, o afferrare la forma d’onda e
spostare manualmente.
Guardate il correlation meter e assicurarsi che
siate sul blu, lato positivo del misuratore.
Riprodurre il Loop e, utilizzando la
configurazione A - B, passare da segnali elaborati
e segnali no per assicurarsi che l’allineamento
pista è migliorata.

Se si verificano perdite di energia in un determinato


intervallo di frequenza a causa del Delay

Accendere il primo filtro di sfasamento cliccando


Shelf o Bell poi Sweep per trovare il punto in cui
ritorna il rendimento della frequenza desiderata.
Alternare tra A e B per assicurarsi che la somma
delle due tracce sia migliorata.

Se necessario, regolare una seconda gamma di frequenza


utilizzando il secondo filtro sfasamento, in questo caso di
circa 120 Hz.

Alternare tra A e B per sentire il miglioramento.

ESEMPIO 4 - ALLINEAMENTO DI UNA TRACCIA STEREO CON UN


SIDECHAIN OFFLINE
Questo esempio utilizza delle tracce overheads che si
allineeranno con la traccia snare top.

Trovare un breve loop di overheads, che contenga


un colpo di snare.
Nel menu offline (AudioSuite), selezionare
InPhase Stereo.
Impostare la Sidechain input key InPhase nel
ricevere da Snare top track.
Nella sezione di Alpha menu a discesa,
selezionare CH1/2, che costringerà il SideCh alla
sezione Beta.
Su Waves System Bar, fare clic su Copia A > B
per passare da A, l’elaborato segnale e B, il
segnale non elaborato.
Fare clic acquisizione e la riproduzione del loop
selezionato
Impostare il marcatore per l’inizio di un
successivo Snare.
Zoom in per ottenere una buona occhiata in un
primo momento transitorio della nota, che sarà il
nostro punto di sincronizzazione.
Impostare il marcatore al punto di picco del primo
transiente di snare in sezione Beta.
Afferra la forma d’onda e spostala manualmente,
o utilizza il controllo Delay sezione Alpha per
allineare il passaggio per lo zero-crossing della
sezione Alpha alla sezione Beta.

Guardate il misuratore di correlazione e assicurarsi che il


valore è migliorata verso il blu, lato positivo del
contatore.

Riprodurre il loop e, utilizzando la configurazione


A - B, passare dalla elaborati e segnali non
elaborati per assicurarsi che l’allineamento sia
migliorato.

Se si sente che alcuni colpi del rullante sono scomparsi


accendere la prima Filtro sfasamento, selezionare
la forma a campana, con un Q stretto, e usare lo
sweep per trovare un posto che riporta le
frequenze mancanti.
Variare tra A e B per assicurarsi che la somma
delle due tracce sia migliorata.

Per riportare eventuali mid/high che siano scomparse

attivare il filtro second phase shift filter e sweep


per trovare un punto che riporti le frequenze
mancanti.
Variare tra A e B per sentire il miglioramento

Lo snare ha ora più snap e punch.


Ora tutto quello che dobbiamo fare è processare la
traccia.
7. Equalizzare i suoni

“Quello che spiego qui non è una verità assoluta.


Questa è solo la mia visione di alcuni aspetti del suono
spiegata durante i miei corsi tenuti al Conservatorio,
un’alternativa per realizzare il suono migliore per le
vostre tracce. Paradossalmente il concetto fondamentale
è agire con metodo.”
Il processo di equalizzazione in realtà non viene mai
descritto e tutto è ridotto a consigli su come tagliare sui
700 Hz o aggiungere presenza sui 1200 Hz. Questi
consigli purtroppo non sono adatti per il lavoro vero e
conducono talvolta in errore.
L’equalizzazione permette di eliminare i mascheramenti
di frequenza tra gli strumenti. Esso è collegato alla non
linearità dell’udito umano, cioè con l’effetto di
mascheramento acustico.
Il problema del mascheramento è avere due fonti con
spettro sovrapposto e una di esse più forte dell’altra,
fermandoci a percepire quel suono.
Il vivido esempio di mascheramento è, ad esempio, la
conversazione in un aeroporto. Quando un aereo è in
volo, ci fermiamo ad ascoltare con attenzione ciò che un
interlocutore ci sta dicendo. Ciò significa che il rumore
dell’aereo blocca lo spettro della voce e non sentiamo più
il nostro interlocutore.
Abbiamo lo stesso problema con i suoni dello strumento.
Tutti gli strumenti suonano perfetti separatamente, ma
insieme sono una zuppa calda. Questa zuppa è un risultato
del mascheramento acustico.
Nella musica acustica (per esempio in orchestre
sinfoniche) è possibile evitare il problema dei conflitti di
frequenza con la corretta disposizione. In realtà c’è molto
in comune tra la musica classica e l’elettronica. Ad
esempio, Jimi Hendrix suonò trance anni ‘70, ma a quel
tempo non c’erano drum machine e analog synth, così il
suo stato di trance suonava come linea retta su drum e
suoni indescrivibili ottenuti con la sua Fender. Nella
musica elettronica, gli equalizzatori e i dispositivi di
elaborazione dinamica sono usati, per ogni strumento, nel
90% dei casi.
L’idea principale di equalizzazione è quella di eliminare
i mascheramenti.

NON ESISTE UN EQUALIZZATORE UNIVERSALE


Fino a questo momento non ho trovato un equalizzatore
universale solo a causa di una ragione. Nella musica vi è
un concetto di musicalità anche negli strumenti utilizzati.
Ecco perché due equalizzatori possono suonare
diversamente. A volte la differenza è minima, altre volte,
a regolazioni identiche, ma estreme del dispositivo, la
differenza può essere percepita.
In uno dei miei lavori dove cercavo un buon reverbero,
ho provato un sacco di dispositivi e concentrato la mia
scelta sulla semplice reverberazione e sul set di plug-in
standard Lexicon. E il criterio della scelta è la musicalità!
È necessario imparare il metodo di lavoro e la sfera di
applicazione dei diversi dispositivi e quindi definire
l’utilizzo dei plug-in (software o hardware che siano).
Quasi ogni modifica su una banda influirà il suono nelle
altre bande.
In acustica il mascheramento è un fenomeno binaurale;
significa che i due strumenti con frequenze sovrapposte si
disturbano a vicenda. Tutto sarebbe molto triste se non
fosse soggetto al mascheramento binaurale.
Tra due fonti audio che emettono suoni con spettri
simili, situati in uno spazio (a parità di livelli) tra i -12dB
e i -15dB, verrà sempre mascherato il suono più debole
dei due. Ma se li disponiamo su 60° e più di apertura
stereofonica, anche i più deboli si sentiranno ai livelli di
-50 -60 dB. Ecco, questa è la media che può eliminare il
mascheramento.
Molti produttori iniziano il mix spingendo il tasto
MONO su una sezione master. Ma io uso l’ascolto
MONO alla fine del processo di mix, per verificare la
correttezza del suono.
Più spesso, il problema con il bass e sub-bass dello
spettro delle frequenze di mix può essere facilmente
guardato in modalità MONO.
Una grande influenza ce l’ha anche un’aggiunta del
canale destro e sinistro. Se noi lavoriamo con gli effetti di
fase non corretti (chorus, phaser, flanger, esaltatori di
stereo, ecc.), il suono può scomparire dal fonogramma.

EQUALIZZAZIONE IN CORSO
Il lavoro dell’udito umano è confrontabile con il lavoro
dell’analizzatore di spettro. L’analizzatore ci mostra uno
spettro totale di tutti gli strumenti di una certa frequenza,
ma il nostro orecchio sente solo il suono più forte su
questa frequenza.
La nostra missione è quella di tagliare tutte le frequenze
superflue nella gamma di ognuno di questi strumenti. Non
è assolutamente importante se gli strumenti suonano
separatamente in modo terribile, l’importante è il modo in
cui suoneranno insieme nel mix. L’analizzatore di spettro
vi aiuterà in un processo di controllo (ad esempio Waves
Paz Analizer).
In situazioni difficili l’analizzatore di spettro aiuta a
controllare il bass e sub-bass. Su queste frequenze è
possibile rivelare i problemi, ossia l’acustica di una stanza
o i monitor di controllo qualitativo.
Consigliato l’analizzatore di spettro Audioscope, che è
un prodotto hardware indicante esattamente lo spettro del
suono che esce dai monitor.

SUONI PERCUSSIVI
È importante distinguere la diversa natura degli
strumenti. Una risorsa importante in un mix è lo spazio.
Quando strumenti diversi vengono combinati, si trovano a
competere per quello spazio (per lo più a causa del
mascheramento). Gli strumenti a percussione vanno e
vengono. Ad esempio, un kick occupa poco spazio tra i
vari colpi. Le percussions lottano per lo spazio in periodi
limitati nel tempo. D’altra parte, sostengono strumenti che
si sviluppano su periodi più lunghi, quindi lottano
costantemente per lo spazio. Per fare un esempio estremo,
dobbiamo pensare a un ricco pad che è stato prodotto
utilizzando uno sawtooth (un suono di sintesi digitale), e
suonato all’unisono in modo legato. Tale sawtooth
riempirebbe sia lo spettro di frequenza che il panorama
stereo in modo da rendere più probabile mascherare molti
altri elementi del mix. In senso pratico, gli strumenti più
sostenuti nel tempo richiedono un po’ più di attenzione.
Sia che stiamo impostando il livello, sia che stiamo
regolando il pan, se lavoriamo su strumenti continui, le
nostre azioni avrebbero effetto per periodi più lunghi. Mai
allineare perfettamente due suoni percussivi nel panorama
stereo, ma lasciare sempre uno sfasamento minimo del
5%.

KICK (CASSA)
Il primo volume da regolare è la kick; è preferibile non
regolare il volume tramite il fader del mixer ma tramite
gain.
Appena regolato il volume gli applichiamo un Eq al
canale, regolandolo
come nella figura:

Nello specifico la frequenza dei 400 Hz va ridotta per


rendere il kick più corposo.
La frequenza che sta tra i 60 e gli 80 Hz va alzata per
aumentare le frequenze gravi della kick. La frequenza dei
5 kHz va aumentata se vogliamo che il nostro kick abbia
più attacco, ridotta invece per un kick più morbido.
Le frequenze su cui intervenire sono sempre queste tre e
l’immagine è solo illustrativa, ogni kick poi ha la sua
regolazione ottimale che si raggiunge con l’ascolto.
Il kick è un suono complesso: la sua parte più energica è
rappresentata dalle frequenze che si trovano tra gli 80 e i
100 Hz circa.
Al di sotto di questa zona è più facile percepire che
sentire il suono, ed è quindi molto facile esagerare ed
enfatizzare troppo queste frequenze, soprattutto se si
hanno le orecchie stanche. Facciamo anche attenzione alla
regione tra i 200 e i 300 Hz, frequenze di riferimento per
molti kick.
Enfatizzando le alte frequenze (tra i 2 ed i 6 kHz), è
possibile ottenere un buon contrasto con il bass.

SEGUIRE UN GENERE MUSICALE


Sapendo che la parola d’ordine è sempre “sperimentare”,
provare un bel LPF (Low Pass Filter) sulla kick per creare
un suono che non si mascheri con il bass.
Non farlo se si sta creando una traccia dance, trance o
breakbeat, dove potrebbe essere interessante, al contrario,
enfatizzare le alte frequenze per dare più incisività al
suono.
Non si hanno da equalizzare kick e bass assieme: essi
devono percepirsi entrambi distintamente, e la stessa
equalizzazione porterebbe solo ad impoverirli.

FORCE KICK DRUM

PRIMO METODO
L’idea principale di questo metodo è la generazione di
un’ onda sinusoidale con durata di 1 ms e frequenza di 50
Hz. Poi l’onda sinusoidale è esposta al trattamento
dall’effetto campo di spostamento. La stessa procedura
con l’onda sinusoidale generata nel campionatore Native
Instruments Kontakt. Qualsiasi kick penetrante ha una
componente importante nella media frequenza e nell’alta
frequenza. Il compito principale è quello di aggiungere
clic per una migliore lettura in un mix. Ora ascoltate i
vostri brani di riferimento notando che in ognuno di essi
si sente il suono misto di un kick sulle frequenze più alte.

SECONDO METODO
Si tratta di un semplice lavoro con una libreria di
campioni. Questa variante di rendere hit e kick
riconoscibili è una combinazione di alcuni campioni
pronti. Per esempio si può prendere l’inizio di un kick e
l’uscita a bassa frequenza da un altro kick. La maggior
parte dei campioni sono appositamente preparati, quindi
di solito non vanno lavorati ulteriormente. Se si è fan di
un suono cristallino, rendere tale i propri campioni o
trovare altre librerie.

TERZO METODO
Utilizzare un sintetizzatore per sintetizzare il vostro kick.
Può essere un sintetizzatore hardware o software per la
generazione del suono. Ci sono molti esperimenti di kick.
La situazione è migliore con programmi specifici. Usando
dei programmi con campioni mix si ottiene un grande
risultato.
Se il bass e il kick suonano noiosi, vuol dire che l’intero
mix suonerà allo stesso modo. Se il kick e il bass sono
groove e fat, significa che si dovrebbe lavorare al mix e
sarà un successo con aria di sfida.

IL BASS
Il bass, è il secondo volume che si va a regolare per un
buon mix. Regolare il volume del bass in modo da dare
predominanza al kick ma allo stesso tempo lasciare che il
bass sia altrettanto presente.
Inserire sul canale un equalizzatore e regolarlo come
nella figura successiva:

Come per il kick, anche il bass ha delle frequenze


standard da mantenere sotto controllo. La più importante è
quella dei 700 Hz. Andando a togliere sui 700 Hz si
ottiene un bass che ha molto sub e lascia spazio per altri
strumenti; se invece si aggiunge proprio in quella
frequenza, il bass diventa molto presente e con poco
spazio per gli altri strumenti che lavorano in quel range di
frequenze.
Modificare la ratio, la quantità del volume che toglie il
compressore. Altra cosa importantissima sul canale del
bass è il limiter.
Il bass è uno strumento molto importante nel mix. Il
giusto suono del bass permette alle persone di ballare
idolatrando l’autore del brano. Il suono del bass
caratterizza lo stile della pista da ballo. Come possiamo
fare un pompaggio a un fat bass? Non ascoltare le persone
convinte che per pompare il fat bass sia necessario un
costoso sintetizzatore. L’obiettivo rimane scegliere una
corretta sorgente del segnale e conferirgli una corretta
elaborazione. A tale suono elaborato si avvicina quasi
ogni sintetizzatore analogico o virtuale.
Non esiste il sintetizzatore ideale. Tutti sono buoni e
hanno il loro carattere. Il segreto di un buon suono al fat
bass è quello di impiegare dei parametri di filtro per il
release e il sustain del suono non invasivi. Spesso questi
parametri posti a zero permettono di percepire il bass in
un mix denso.
La questione è che se il sustain è assente, un brano
brillante si può ottenere solo attraverso i controlli di
release. Il valore massimo del release non va quasi mai
utilizzato. Pertanto la luminosità del suono si sente
applicando diverse decine di millisecondi, ma non è
sufficiente per un pompaggio brillante del fat bass.
Inoltre, è necessario prestare attenzione a una sequenza
di un bass.
Un altro importante aspetto da considerare è la forma
d’onda del segnale del bass. Una square waves (forma
d’onda quadrata) e un dente di sega sono più ricche di
armoniche, ecco perché suonano molto luminose.
Si dovrebbero fare tutte le manipolazioni con il suono
nel mix, invece di lasciare il bass in modalità solista.
Per l’elaborazione dei bass usiamo un equalizzatore e un
compressore. Di tanto in tanto è possibile aggiungere
diversi effetti di modulazione, ma non a scapito della
mono compatibilità.
Si vuole un attack veloce al bass? Pump con le
frequenze gravi in petto? Ampliare l’attack di circa 15-35
ms e il release da 40 a 70 ms.
Ho assaggiato molti processori simili tra loro: sono
rimasto colpito solo da uno, Hybrid-Compressor Waves
(H-Comp), da usarsi principalmente in maniera diretta o
parallela (parallalel compression).
La musica è un processo creativo, non dimenticate di
sperimentare! Ad esempio la compressione parallela è
ricca di spunti creativi e sperimentali. Provate da soli!
A differenza del kick e del bass, negli altri suoni la
funzione dell’EQ è ben più netta perché, a tutti gli altri
suoni andremo ad applicare un filtro sulle frequenze basse
(in questo caso si va da 0 a 67 Hz) senza una regola fissa.
In pratica le frequenze basse vanno tagliate il più possibile
ma non troppo da compromettere il suono.
Le frequenze su cui sono posti generalmente i suoni
sono quelle che vanno da 1 kHz ai 2 kHz, quindi noi
andremo ad agire su quelle fino a trovare la nostra
equalizzazione perfetta.

HIT-HAT
Gli hit-hat, come anche i ride, stanno attorno a 8 kHz,
quindi se in un disco abbiamo entrambe le cose basterà
portare uno dei due sui 7,8 kHz e lasciare l’altro sugli 8
kHz.
Agli hit-hat va applicato un filtro sulle basse frequenze
che può arrivare fino ai 300 Hz e più.

SNARE
Lo snare (rullante) è uno degli strumenti che da sempre
trova maggior utilizzo nella musica. Bellissimo suono, ma
impegnativo da equalizzare.
Come per la kick, per avere un suono più pieno
dovremmo andare a tagliare delle frequenze che, nel caso
specifico dello snare, sono quelle dei 500 Hz.
Per dare forza al suono andiamo ad aumentare le
frequenze che stanno nel range 150-200 Hz;
Infine, per avere un suono brillante andremo ad
aumentare tra i 7 e gli 8 kHz. Viceversa, andremo invece
a togliere se volessimo un suono più scuro.
Il rullante classico da 14’’ ha uno spettro quasi lineare
con una gobba di circa 200-300 Hz. Questo è uno snare di
risonanza, che è necessario rimuovere. Più tardi sarà
facile posizionarlo in un mix.
STRUMENTI
Ci sono poche indicazioni specifiche da suggerire per gli
strumenti tonali, dato che sono tutti diversi. Con gli
strumenti tonali, strumenti particolarmente vivi, si
desidera in genere essere più dolci con l’equalizzazione
che con i suoni non tonali e percussivi.

LOW Q
I valori Low Q sono i migliori nella maggior parte dei
casi. L’equilibrio usuale che si vuole applicare a uno
strumento tonale è dato da tre componenti:

Root note (fondamentale): la frequenza


fondamentale del tono, insieme con le prime
armoniche, una sorta di collante per tenere il
suono insieme e dare il suo corpo;
Le armoniche superiori: le armoniche superiori
contengono molto carattere e personalità del
suono aumentandole, spesso possono portare
alcuni interessanti caratteristiche;
I suoni low: anche uno strumento bass spesso
contiene alcune interessanti armoniche superiori.
I suoni nella gamma acuta hanno un attacco
veloce, generalmente ciò che farò con questi è o
tagliarli o lasciare stare. Se voglio le metto in
risalto, probabilmente utilizzando un po’ di
compressione, piuttosto che aumentare gli alti.

PERCUSSION E PLATE
Lo spettro di drum e plate di solito contiene maggiori
armoniche superiori rispetto agli altri strumenti (da 1.000
Hz e superiori). Ma quando si utilizzano campioni di live
percussion e plate, uno spettro può subire un sacco di
artifizi alla bassa e media frequenza che porterà a conflitti
con il bass/guitar/synth.
È per questo che si dovrebbe tagliare con uno shelf filter
percussion e cymbal sulle basse e medie frequenze;
provare a impostarlo su 800 Hz o superiori.

PAN
Praticamente non ci sono regole in pan di percussion e
plate. Prima di tutto bisogna scegliere se rispettare quello
che sente il batterista o il pubblico. Non lasciare una
percussione non trattata! Non sentiamo suoni secchi nella
nostra vita. Tutti i suoni sono soggetti a una piccola o
grande eco. Tutto dipende dall’acustica di una stanza.
Cercate di situare le percussion nella vostra stanza
immaginaria. Utilizzare volume, pan e reverbero,
lavorando con l’attack.
Fate una semplice esperienza: eseguite un clap in camera
e ascoltate l’eco del vostro applauso. Se battete in
aeroporto o in metropolitana, sentirete subito la
differenza. Ascoltare e analizzare i suoni intorno a voi è
fondamentale. Il vero lavoro professionale avviene 24 ore
al giorno. Non solo la creazione di tracce, ma anche la
meditazione, l’analisi, la contemplazione...
Per addolcire i plate di solito si utilizza il chorus.

SYNTH
È uno dei suoni che si deve sentire di più in una
produzione elettroacustica perché è quel suono che fa da
padrone nel disco; dovremmo andare ad aumentare sui
5.000 Hz e ridurre ai 700 Hz.

VOICE
La voce è il suono più interessante, ricco ed elaborato e
pertanto merita il suo spazio nel mix, in modo che si senta
in maniera pulita, decisa e chiara.
La sequenza di applicazione di effetti sulla voce è
diversa, non partiamo con un equalizzatore, bensì con un
compressore che abbia un attack rapidissimo, la ratio su
2:1 e una release di 100 ms.
La frequenza sulla quale la voce dà tutto il suo splendore
e che ci permette di capire il testo della canzone è quella
che sta attorno ai 3.500 Hz.
Alla voce ci si aggiunge anche reverb e delay le cui
regolazioni sono di gusto personale.
La voce è lo strumento principale. Dovrebbe essere
sempre distinto e dovrebbe non venire mai mascherato da
alcun suono. Lo stesso problema avviene con il posto
della voce in un mix finale.
Nonostante le variazioni che compie il suono vocale,
raramente la gamma di un cantante supera un’ottava e
mezza. Ecco perché è possibile considerare una voce
come uno strumento con uno spettro statico.
Il buco di frequenza per una voce è sui 500 Hz (in
larghezza della striscia EQ di una ottava, tipicamente
identificabile come equalizzatore grafico a 12 bande di
intervento). Questo taglio è necessario per tutti gli
strumenti che suonano con la voce (bass, guitar, synth),
tranne la batteria. È possibile incrementare di 2 dB la voce
su questa frequenza o fare un taglio di 2 dB sugli altri
strumenti. Per questi obiettivi utilizziamo un equalizzatore
Waves API 560, inserendo a monte un equalizzatore
Waves eMo F2 Filter. Ma se dopo questo una voce avrà
problemi con alcuni degli strumenti, eseguire un piccolo
taglio sui 1200 Hz di solito risolve molti problemi.
Equalizzare una voce è la cosa più pericolosa. È molto
facile rendere il suono piatto, affilato e innaturale. Se non
piace il suono della voce, si dovrebbe cambiare o il vostro
microfono vocale o il vostro cantante! L’idea principale
per eventualmente ringiovanirla sta nell’ applicare uno
shelf filter nelle basse frequenze superflue (la frequenza di
taglio si trova nella zona 300-400 Hz).
Di solito c’è il desiderio di fare una voce più vivace per
separarla da altri strumenti. Ma è necessario farlo non con
l’aiuto di un equalizzatore.

LA CHITARRA ELETTRICA
Se ci dovessimo trovare alle prese con una chitarra
elettrica è bene sapere che va tagliata con un shelf filter
sopra i 10 kHz.
Bisogna aumentare i 260 Hz per dare corpo al suono; nei
1.250 Hz c’è la zona media che possiamo aumentare o
diminuire a seconda delle necessità. Tagliare con high
shelf i bassi tra i 40 e i 150 Hz.

LA CHITARRA CLASSICA
Tagliare con shelf filter i bassi tra i 40 e i 150 Hz. Per
migliorare la percezione delle note andiamo ad agire tra i
2.000 e i 3.600 Hz; tra i 9.000 e i 10.000 Hz se
aumentiamo mettiamo in risalto il metallo delle corde
della chitarra.

IL PIANOFORTE
Tagliare con un shelf filter i bassi tra i 40 e i 150 Hz.
Per migliorare la percezione delle note andiamo ad agire
tra i 2.000 e i 3.600 Hz.
EVITARE IL MASCHERAMENTO
Il mascheramento è un fenomeno che si verifica quando
si dispone di più suoni, suonati allo stesso tempo, che
occupano gamme di frequenza simili. Questo provoca che
uno o entrambi i suoni coinvolti siano parzialmente o
totalmente oscurati. Questo effetto è più pronunciato a
basse frequenze; più grave è la frequenza in cui ci si
trova, più i suoni hanno bisogno di mantenere la
chiarezza.
Uno dei problemi più comuni è il discusso
mascheramento relativo all’interazione di kick e linee di
bass. In una tipica canzone pop o ballabile, la kick e la
linea di bass contengono la maggior parte della fascia
bassa della musica, perciò separarle per non interferire
una con l’altra è un problema costante per tutti. Se
insufficiente attenzione è rivolta alla interazione fra kick e
bass, si può patire un suono disordinato di fascia bassa.
Gli stessi tipi di problemi possono verificarsi in tutta la
gamma di frequenza.
Si può farla franca più con la gamma media e alta di
quanto si possa nei bassi, ma in ultima analisi, ci si deve
sempre preoccupare del mascheramento.
Per evitare il mascheramento, la cosa più importante è
quella di selezionare semplicemente i suoni in modo tale
che si eviti di sovrapporre la gamma di frequenze
principale. Non utilizzare due suoni che competono per la
stessa gamma di frequenze. Questi due suoni non saranno
mai un buon suono insieme, non importa quello che si fa
per loro.
Se la selezione del suono è lo strumento più importante
nella lotta contro il mascheramento, il prossimo strumento
più importante è l’equalizzatore. Con l’EQ, è possibile
rimuovere o de-enfatizzare componenti non essenziali di
un suono, e sottolineare le componenti essenziali. In
questo modo è possibile ridurre gli effetti di
mascheramento, per decidere quale suono dominerà in
ogni gamma di frequenza. Per far predominare un suono
in un determinato intervallo di frequenza, è necessario
tagliare altri suoni in quella gamma di frequenza e/o
aumentare il suono dominante in tale intervallo di
frequenza.
La maggior parte dei suoni non ha energia attraverso la
maggior parte dello spettro sonoro, dato che la maggior
parte della loro energia è concentrata in uno o più campi
di frequenze critiche.
Questi intervalli critici sono l’essenza del suono, e sono
in genere le parti che saranno sentite chiaramente nel
contesto di un mix. Se si desidera che un suono sia sentito
chiaramente in un mix, è necessario quindi fare in modo
che domini per la maggior parte dei suoni che risiedono
negli intervalli critici importanti.
Il trucco è fare in modo che i suoni non calpestino gli
intervalli critici degli altri.
Disporre i suoni in modo che i loro intervalli critici
riempiano lo spettro di frequenza con un minimo di
sovrapposizione. Poi si equalizzano i suoni solo se
necessario per sottolineare le loro gamme di criticità e per
de-enfatizzare frequenze non essenziali quando si toglie la
chiarezza al mix.

CAMBIARE CARATTERE AL SUONO


Oltre a evitare il mascheramento, l’equalizzazione può
essere usata per cambiare il carattere generale di un
suono. È possibile rimuovere o de-enfatizzare componenti
audio indesiderati, come il fango o le risonanze gravi. Si
può anche cambiare il bilanciamento del suono
desiderabile, variando solitamente le componenti critiche.
Si può aggiungere brillantezza ai plates, impatto al drums
e presence o fat (pienezza) di linee strumentali,
semplicemente incrementando o tagliando diverse
categorie critiche. Il boost o il cut che si utilizzerà per
cambiare l’equilibrio degli intervalli critici, spesso
dipende dall’effetto psicologico desiderato.

UTILIZZO DI UN EQUALIZZATORE PARAMETRICO


Gli EQ sono abbastanza intuitivi. Si dispone di una
banda di frequenza, e si dispone di una quantità di
guadagno. Ma ci sono alcune importanti differenze. Ai
fini del mix, si vuole utilizzare un equalizzatore
parametrico. Un EQ parametrico è un particolare tipo di
EQ che è adatto a precisi aggiustamenti e sfumature di
bilanciamento della frequenza. Si compone di diversi
filtri, ciascuno dei quali crea un boost o un cut in una
gamma di frequenze, e il suo comportamento è controllato
con tre parametri regolabili: freq (frequenza), gain
(guadagno) e Q (ampiezza).
Il parametro freq imposta la frequenza centrale
dell’azione del filtro. Il filtro non agirà solo su questa
frequenza, agirà sulla frequenza centrale e su tutte le
frequenze che lo circondano, con l’intensità dell’azione
costantemente decrescente con la distanza dal centro della
frequenza.
L’ampiezza della gamma di frequenza interessata è
controllata dal parametro Q. Valori di Q bassi si
traducono in fasce più ampie, valori di Q alti si traducono
in intervalli più ristretti. Un fattore Q sufficientemente
elevato comporterà che solo la frequenza centrale sarà
colpita.
Il parametro gain è il più semplice dei tre parametri di un
filtro. Esso imposta semplicemente la quantità di
regolazione del volume; in particolare la quantità di
regolazione del volume alla frequenza centrale. Un valore
negativo si tradurrà in un cut, e un valore positivo si
tradurrà in una boost.
Quindi, come si fa a decidere sui valori per la frequenza,
guadagno e Q di un dato filtro? In questa procedura,
prima si trova la frequenza e quindi il guadagno e Q più o
meno insieme.

IMPOSTAZIONE DELLA FREQUENZA


Nel trovare la frequenza centrale, è necessario prima
decidere quale frequenza generale influisce e solo allora
quale esatta frequenza si desidera centrare.
A volte, soprattutto quando si inizia a sviluppare
l’orecchio, si sa solo ascoltare quale gamma di frequenze
si desidera modificare. Se non si sa, allora c’è il bisogno
di trascorrere un po’ di tempo ad analizzare il contenuto
in frequenza del suono.
Un analizzatore di spettro può dire dove siano gli
intervalli critici (essi saranno le parti più forti dello spettro
di frequenza), e può anche raccontare la presenza di
eventuali frequenze non essenziali che si potrebbero
tagliare. Ottenere una prospettiva più sfumata sul
contenuto in frequenza del vostro suono, può aiutare a
capire quello che si può utilizzare o eliminare, un metodo
noto come sweep.
Per eseguire la tecnica di scansione, impostare il filtro
per un Q medio, gain alto, e semplicemente fare uno
sweep su tutto lo spettro di frequenza. La tecnica di
scansione vi dirà quali sono gli ingredienti del vostro
suono, lasciando che si senta ogni gamma di frequenza
individualmente. Una volta che avete fatto uno sweep, si
avrà una migliore idea di come ogni gamma di frequenza
di ogni traccia contribuisce al vostro suono, e sarete
meglio attrezzati per decidere gli spazi.
La tecnica di scansione deve essere evitata per quanto
possibile per due motivi: in primo luogo è molto faticosa
per le orecchie, in secondo luogo, dopo uno sweep, la
vostra percezione del suono sarà distorta, e non potrà più
essere in una buona posizione per compiere giudizi
sull’EQ. Scoprirete che sarà sempre meno necessario
sviluppando un orecchio per come suonano le diverse
gamme di frequenza.
Presumibilmente, a questo punto avete deciso su quale
gamma di frequenze lavorare. Ora si deve decidere su una
precisa frequenza da impostare come la vostra frequenza
centrale. Con un suono tonale si può ottenere un migliore
effetto impostando la vostra frequenza centrale su una
frequenza timbrica evidente.
Per fare questo, si può utilizzare di nuovo la tecnica di
scansione, con l’eccezione di una gamma più ristretta e
dunque con un alto Q. Il Q elevato permetterà di
sintonizzare la vostra frequenza centrale con una forte
frequenza timbrica evidente. Saprete che avete fatto
questo quando sentirete un suono di ronzio forte.
IMPOSTAZIONE DI Q E GAIN
Una volta trovata la vostra frequenza centrale, è
necessario lavorare con il gain e i valori di Q fino ad
arrivare a un risultato soddisfacente. Con il boost
generalmente si utilizzano moderati valori di Q (0.2-10) e
valori di guadagno meno estremi (0.2-4 dB), mentre
durante il cut si utilizzano valori di Q alti (7+) e valori di
guadagno più estremi (-2 dB o inferiore). Questo è il caso
per una varietà di esempi.
Quando aumento di solito sto aumentando una zona
critica e spesso suona meglio perché agisce con un
leggero aumento anche sulle frequenze intorno al campo
critico, solo per rendere il suono più naturale. Questo
spiega il basso valore Q. Il mite valore di guadagno è
semplicemente per far suonare in modo naturale il suono
senza una spinta estrema.
È possibile, naturalmente, tagliare gli intervalli critici in
cui si applicano principi simili in termini di Q e di
impostazioni di guadagno, ma, a causa della natura degli
intervalli critici, di solito non si vorrà tagliarli. Più spesso
si rimane immersi tra gli intervalli critici per cercare di
rimuovere le frequenze indesiderate non tagliando le
frequenze desiderate, quindi, si imposta un alto valore di
Q il quale mi dà l’azione precisa necessaria per fare
questo. Uso spesso un valore di guadagno abbastanza
estremo semplicemente a causa della natura di quello che
sto cercando di realizzare: eliminare o ridurre in modo
sostanziale frequenze indesiderate, non ridurre sottilmente
le frequenze indesiderate.
Nessuna di queste cose dovrebbe essere presa come
regola. Questi sono solo modelli comuni. Non abbiate
paura di spingere con un alto Q e un elevato guadagno se
la situazione lo richiede.

VALUTARE I RISULTATI
A volte può essere difficile giudicare i risultati della
vostra equalizzazione. Una tecnica utile è quella di
premere il pulsante bypass al vostro EQ per vedere che
cosa ha fatto. Sta facendo il suono migliore o peggiore?
Con un’ estrema equalizzazione gli effetti saranno molto
evidenti, con sottili modifiche invece no.
È generalmente vantaggioso prestare particolare
attenzione alla frequenza precisa quando si equalizzano
suoni in gamma bassa. La principale eccezione a questa
regola è quando l’equalizzazione viene impiegata per
rimuovere le basse frequenze, nel qual caso la frequenza
centrale è relativamente poco importante.
L’equalizzazione in genere aumenta o diminuisce sotto i
3 dB in ampiezza (raddoppiando o dimezzando il suono
totale); in questi casi, sedersi ad ascoltare la musica,
dovrebbe far risultare evidente se le regolazioni di EQ
stanno migliorando o meno il suono.
Sempre tenere a mente che non si sta equalizzando il
suono di una singola traccia al fine di farlo suonare bene
singolarmente, bensì nel contesto dell’intero mix. Così,
mentre si ascolta il suono di per sé, può essere utile, in
ultima analisi, prendere le decisioni sul suono in relazione
a come suona nel mix generale.

HIGH SHELF/LOW SHELF


Gli EQ parametrici di solito forniscono alcuni tipi di
filtraggi differenti. Il filtro passa-banda è il più comune e
importante tipo di filtro, ma altri tipi di filtri comuni
richiedono di essere trattati.
Gli high shelf filter e i low shelf filter hanno gli stessi
parametri dei band-pass filter.

FREQUENZA, GUADAGNO E Q
Un high shelf filter aumenta o attenua tutte le frequenze
che sono superiori alla frequenza centrale.
Un low shelf filter aumenta o taglia tutte le frequenze
che sono inferiori alla sua frequenza centrale.
Questa è una semplificazione. Un high shelf filter non si
limita a regolare il volume di tutte le frequenze sopra la
frequenza centralelasciando invariato il volume delle
frequenze inferiori alla sua frequenza centrale. Come con
i filtri band-pass è coinvolta una curva con il valore Q che
ne controlla la pendenza. La frequenza centrale è la
frequenza alla quale la regolazione del volume applica
diminuzioni di primo e secondo ordine (-6, -12 dB o
superiori). Nei prodotti professionali si va anche oltre con
le curve di filtraggio. Lo stesso vale per i filtri low shelf
filter.

Questi shelf filter sono più utili quando si regola


l’equilibrio di bande critiche, per esempio tutte le
frequenze sopra o sotto un certa soglia. Sono anche utili
per ridurre, ma non eliminare, indesiderabili frequenze
ripetitive.
In Generale:

<40 HZ: SUBSONICS


Rimuovere le frequenze in questa gamma, se presenti.
Non saranno udibili nel mix e sarà solo una maniera per
occupare la headroom disponibile.

100-300 HZ
Pienezza, ma anche muddiness (fangosità). Aumentare
questa gamma di frequenza sarà come far ingrassare un
suono, ma in questo intervallo si tende anche ad avere un
affolamento delle frequenze, quindi potrebbe essere
necessario tagliare in questa fascia.

1-8 KHZ
Presenza. L’orecchio è molto sensibile a questa gamma
di frequenza, e il boost di questi intervalli critici
trasmetterà l’impressione all’ascoltatore che gli strumenti
siano potenziati. Ma, aumentando troppo, si finirà con un
mix faticoso e prepotente.

10-18 KHZ
Ariosità. Aumentare in questa gamma darà vivacità al
mix; il cut renderà le cose più dolci e più rilassanti. La
maggior parte dei suoni suonano meglio con un po’ di aria
supplementare, ma non aumentare tutto in questa gamma
o, come con tutta la gamma di frequenza, si finirà con
troppa brillantezza.
BASS + KICK
Lo spettro del kick è piuttosto ampio, a causa della
media frequenza il click compare in un’area tra i 40 fino a
200 Hz.
Lo spettro di bass è quasi lineare in una zona da 42 sino
1500 Hz quindi, in media, abbiamo un classico esempio
di spettri sovrapposti (bloccati).
Ascoltiamo bass e kick insieme come suonano.
Il volume di bass e kick deve essere circa pari, con la
priorità di kick (1-3 dB).
Facciamo mute sul canale del bass e ricordiamo come
suona il kick.
Ora si passa al bass e ascoltiamo ciò che è sbagliato
rispetto al suono di kick nel bass all’interno dello spettro
di frequenze.
Passiamo il mute dei bassi più volte per vedere cosa
succede con il timbro di kick.
Di solito, a causa di spettri sovrapposti di bass, la kick
nella bassa frequenza scompare.

RISOLVERE CONFLITTO # 1
Una soluzione di un problema consiste solitamente nel
tagliare una frequenza dal bass per creare un buco di
frequenza per il componente a bassa frequenza di un kick.
Facciamo un piccolo taglio al bass (3-5 dB) da 50 Hz
fino a 200 Hz.
Abbiamo sentito che nel momento in cui un kick
comincia a suonare ampiamente nella zona di bassa
frequenza, si dovrebbe tagliare la frequenza del kick
principale dal bass, stando molto attenti al suono del mix
sulle basse frequenze per non renderlo troppo sbiadito.
Inoltre si dovrebbe sperimentare con una corretta scelta
del kick e del timbro di bass. In conformità ideale fra il
timbro di un bass e quello di kick, un bass non suona
contemporaneamente al kick e l’impressione è che suoni
costantemente. Spesso consiglio di situare un bass e un
kick in diverse ottave. Si si! Non hai capito male! Un kick
è uno strumento come gli altri. Ha la sua propria
frequenza di suono, ovvero una certa nota. Per questo
motivo si tagliano frequenze dal bass. Un kick suona su
una nota e un bass fino a tre ottave.
Anche con l’esperienza si capirà che la frequenza di un
bass dovrebbe corrispondere a una tonalità dell’intera
traccia. Si impara a sentire e correggere la frequenza del
bass. Se sei un principiante di solito si sente che questo
kick in questo mix suona male.
Prestare attenzione che la durata di un kick corrisponda a
una velocità di traccia. Il kick fa ¼ (un quarto) della
durata di una battuta.
L’errore più tipico dei principianti è un aumento della
frequenza su un bass da 50 fino a 150 Hz. Così facendo il
kick suonerà bene, ma non in equilibrio con il bass.
RISOLVERE CONFLITTO # 2
A tutti piace quando la gente dice: “Questo pezzo
pompa!”.
La seconda variante di risoluzione della sovrapposizione
di kick e bass sono i side change.
Questo è diventato un metodo a tutti gli effetti standard,
che ha trovato ampia applicazione nella musica house.
Il principio di lavoro di side change è molto facile:

Abbiamo un segnale di funzionamento, un kick e un


segnale gestito, un bass. Nell’insert del canale bass
mettiamo un compressore. Un compressore rende il
volume del bass inferiore durante il suono di un kick. Nel
rock questo effetto viene utilizzato per la risoluzione del
problema della sovrapposizione dello spettro. Nella
musica elettronica otteniamo eccellenti pompaggi!
Inoltre si dovrebbe sperimentare il side change non solo
del bass, ma anche di altri strumenti, guitar, lead, pad,
percussion, ecc. Usare la propria immaginazione!
NUANCES
In un kick di solito è equalizzato il componente a bassa
frequenza (kick) e ad alta frequenza (click).
Il corpo del kick a bassa frequenza può essere stile dance
con, ovviamente, risonanza stretta sui 60-150 Hz o rock
con la hump (gobba) abbastanza piatta da 60 fino a 200-
300 Hz. Di solito non c’è abbastanza componente ad alta
frequenza in un kick e così si dovrebbe aggiungerla.
Questo scatto viene aggiunto nella zona fra i 5.000-8.000
Hz. Se si aggiungono più nel bass, si può sovrapporre alle
frequenze della chitarra.
Si dovrebbe aggiungere il click quando il mix è pronto.
Come sorgente sonora è molto difficile da indovinare in
quale intervallo e quantità è necessario aggiungere un
componente ad alta frequenza di un kick.
Cercare di applicare un bass cut a una frequenza
compresa tra 150 Hz e 400 Hz, di solito su questa
frequenza un bass ha suoni non necessari. Spesso si sente
una risonanza della stanza dove è stato fatta una
registrazione di base di chitarra.
Inoltre, per una migliore intelligibilità, si dovrebbe
aggiungere la presenza su una frequenza di 1000 Hz fino
a 1.500 Hz. Questo è meglio farlo in un mix finale.

BASS + GUITAR
È un altro gruppo di strumenti con uno spettro
sovrapposto e una fonte di sporcizia nella gamma di
frequenza bass-mid di un mix.
Lo spettro di un bass inizia da 42 Hz e lo spettro di una
chitarra da 84 Hz.
Può essere una zuppa e apparire come un suono
indistinguibile nella parte grave di un mix. La
sovrapposizione di spettri è nel range 150-400 Hz.
La risoluzione tipica del conflitto sta nell’utilizzo di un
bass cut alla chitarra con, un noch di frequenza per il
bass.
Regolare uno shelf su un equalizzatore del canale di
chitarra su 150 Hz e gradualmente aumentare la frequenza
di taglio.
Qualche tempo dopo si sentirà che il bass e la chitarra
sono stati divisi e abbiamo ottenuto la risoluzione di un
problema di sovrapposizione di spettri.
Fatto ciò la chitarra è rimasta praticamente senza fondo
(senza suoni gravi). Se l’idea dell’autore di guitar e bass
suoneranno male, fate acquistare corde più spesse per
diminuire la suonabilità della chitarra.
Si lavorerà molto più efficacemente e più musicalmente
con un mix di timbri di bass e chitarre in una gamma di
200-400 Hz. Una track di guitar deve suonare molto bene
fin dall’inizio. È possibile solo tagliare le basse frequenze
su di essa.
Per un suono acuto è possibile aggiungere una frequenza
nel range da 1.200 fino a 3.000 Hz. Se un suono di
chitarra risulta troppo acido, si può tagliare una frequenza
in questo range.

TIPS, PADS E STRINGS


I sintetizzatori possono avere un diverso spettro di
suono. Per non avere conflitti con ogni strumento, si parte
dai kick e le percussion per terminare con un sacco di altri
sintetizzatori. È meglio controllare i sintetizzatori
separatamente sulla compatibilità con kick, bass e
chitarre. Se c’è una voce in un brano si deve tagliare a 600
Hz. Il più delle volte un errore è di non considerare che
pochi sintetizzatori stanno suonando nella stessa ottava su
spettri di frequenza simile. In questa situazione è
consigliato riprodurre i suoni in ottave diverse. Si
dovrebbero costruire i timbri in modo che dominino
(picco) frequenze diverse.
La migliore equalizzazione è nessuna equalizzazione!
Meglio costruire il timbro del sintetizzatore in modo
adeguato fin dall’ inizio, in modo da non dover
intervenire in seguito con l’equalizzatore. Inoltre si può
provare a tagliare le zone della frequenza, ad esempio,
400 Hz nei lead (strumenti solisti), 800 nei pad, 1.000 Hz
negli strings.
In conclusione dovremmo fare un mix finale senza
conflitti di frequenza. Tutti gli strumenti devono avere un
suono in un equilibrio, decisamente leggibile, e non deve
essere sporco.
In un primo momento decidere come organizzare gli
strumenti nello spazio, poi tagliare tutto il superfluo
procedendo dalla qualità della colorazione del suono.
La quantità massima di picchi nel mix, composto da
suoni ad ampio spettro, contiene alte frequenze, tutto ciò
che rientra tra i 16-18 kHz si può tagliare in modo netto.
È possibile non tagliare se il progetto artistico vuole
lasciare le alte frequenze.
Ascoltare con attenzione e tagliare i picchi di alta
frequenza alle chitarre acustiche e alle tracce vocali. Qui
ci sono più varianti, per esempio è possibfile anche un de-
esser alla chitarra. La cosa principale è non portare
particolari distorsioni.
Per la lotta contro i picchi è possibile utilizzare diversi
limiter e maximizer. Regolarli a piacere attraverso ripetuti
esperimenti. Fare attenzione che le basse frequenze
costituiscano la gran parte dell’energia del mix, seppur
non con una enorme quantità di picchi, come nelle alte
frequenze. Quindi non tocchiamo i picchi su basse
frequenze.
Importante tagliare contro le vampiresche frequenze al
di sotto di 20-30 Hz.
Il nostro obiettivo è ottenere un mix forte e preciso senza
alcuna elaborazione sul bus master e senza utilizzare
limiter.
Abbiamo parlato di verità, gli RMS del mix devono
essere ovunque a meno di -10 dB, con picchi non più forti
di -3 dB (per questo ci viene in aiuto il waves dorrough).
Ciò significa padroneggiare al meglio il mix.
Fare il mix con master fader su 0 dBFS è proprio questo.
Se si ha la possibilità di agire sul volume degli
strumenti, meglio farlo!
L’orecchio non può percepire la distorsione del picco in
termini inferiori ai 4 campioni, Pro tools HD segnala i 3
campioni di distorsione equivalenti a un 1 ms a 44100 Hz,
qualità dei CD audio standard.
Prima di tutto curare la qualità delle fonti sonore. Se un
timbro è registrato in modo non corretto, è necessario
scrivere o rivedere molti suoni.
A volte la variante risulta del tutto inaspettata. Come
regola generale, i campioni e i timbri suonano
assolutamente diversi nel mix e nell’ascolto in SOLO.
Così notiamo ancora una volta che si dovrebbe ascoltare il
mix intero per scegliere il suono.
Molto importante è la durata di kick, così come la
combinazione con la linea di bass, ecc. Ma è una
questione di disposizione, non di mix.
Si scoprirà, non senza meraviglia, la possibilità di fare
mix con particolare attenzione alle frequenze bass e sub-
bass.
La questione è che, se l’RMS è a -8/-9dB, la traccia mix
risulta con suoni deformati e distorti. Una traccia
correttamente mixata rischia di perdere solo la dinamica.

SYNTH
Si dovrebbe ascoltare buona musica per sviluppare
continuamente termini di paragone.
È possibile raccogliere speciali effetti audio, armoniosi e
interessanti, ovunque. Quando mi è capitato di ascoltare
gli Infected Mushroom, mi sono chiesto: ‘’Come fanno ad
ampliare le tracce del suono senza alcun danno alla Mono
compatibilità?”. Ho cercato le risposte nella magia di
plug-in stereo esaltatori (Waves S1). Naturalmente questi
plug-in realizzano alcuni effetti di ampliamento del
suono, ma la mia intuizione ha detto che il segreto deve
essere facile e non consiste nella scorciatoia plug-in.
Sento di aver preso la decisione giusta – ho scritto
all’autore di questa musica!
Sapete qual è la differenza tra una persona senza talento
e un genio? A parte la qualità dei prodotti, è la mancanza
di ego e il desiderio di aiutare gli altri. Nonostante la
quantità di impegni, Erez Aizen, mi ha scritto che avrebbe
terminato rapidamente il suo lavoro per spiegarmi tutto
nei minimi dettagli. Se si conosce la tecnologia di
registrazione di una musica rock e sai cosa fa il doppio
binario, significa che il principio è semplice. Un
chitarrista svolge una parte 2 volte o 4 volte. Grazie alle
sfumature uniche del suono reale e non raddoppiato, le
stesse parti hanno carattere di un suono diverso.
Naturalmente su un sintetizzatore è difficile e impossibile
da ottenere questa diversità di suono, ma possiamo
ottenere un carattere diverso tramite la differenziazione
nell’equalizzazione.

VALORI DI LFO
Quando si utilizza un sintetizzatore (per esempio
l’Access Virus), si utilizzano lo split mode e il cambio del
tipo di filtri per i canali SX e DX oppure oscillatori diretti,
con il pan aperto al massimo verso sinistra e verso destra.
Che cosa riceviamo in seguito? Lo stesso timbro, ma con
sfumature diverse. Il nostro orecchio cattura una
differenza di timbri e abbiamo un suono molto wide.

BASS WIDE
Ora parleremo dell’apertura spettrale del bass. Nella
letteratura generica sulla teoria del mix, possiamo sempre
trovare informazioni sulla posizione del bass.
Quest’ultimo va soltanto al centro. Inoltre, trovate le
informazioni su ciò, non è possibile lavorare in maniera
distinta con frequenze inferiori a 250 Hz.
La maggior parte dei produttori conosce la teoria e ha
familiarità con la tecnologia di lavoro con i plug-in
esaltatori di stereo.
Il set utente della frequenza, effettua una manipolazione
di fase sul segnale.
L’inversione di fase descrive semplicemente lo
spostamento di un canale all’altro. In pratica, si applica un
ritardo del canale da 10 fino a 40 ms. Il valore minimo di
ritardo ci dà l’effetto di modulazione come un chorus o un
phaser. Il valore più grande, invece, l’effetto di delay.
Abbiamo pan con un suono iniziale di un bass spostato
completamente al canale sinistro. Facciamo una copia di
bass, con pan al canale destro e regoliamo il parametro
Oscillator Phase o OSC Start.
Regolare il parametro Oscillator Phase in modalità
MONO per il mantenimento della mono-compatibilità
della frequenza.
Otteniamo un suono di bass ampio. L’effetto collaterale
di manipolazioni di fase consiste nel fatto che la densità
del bass in mono viene persa e appare evidente l’effetto di
modulazione.
I brani così trattati al bass sono testati con successo in
vari locali e attrezzature.
8. I compressori audio

Se c’è uno strumento in ambito audio del quale si dice


tutto e il contrario di tutto, e il cui stesso ruolo può
risultare quasi incomprensibile ai neofiti, questo è il
compressore.
Cos’è e soprattutto a cosa serve, un compressore? Un
compressore è uno strumento, analogico o digitale,
hardware o software, che permette di intervenire sulla
dinamica dell’audio; il modo in cui interviene è regolato
da una serie di parametri che ne modificano il
funzionamento. In generale l’utilizzo di un compressore
mira a ridurre l’estensione dinamica dell’audio su cui
agisce, per poterne poi successivamente aumentare il
volume.
Cosa si intende per dinamica di una traccia audio? La
dinamica definisce l’ampiezza della variazione, in termini
di volume, della traccia stessa: la differenza fra il volume
massimo e quello minimo. Considerato che siamo in
ambito digitale, il volume di una traccia audio potrebbe ad
esempio variare fra -50 dB (leggero rumore di fondo) e -5
dB (volume elevato). La dinamica (ovvero la differenza
fra il valore minimo e il picco più elevato) in questo caso
sarebbe di 45 dB. La compressione della traccia può
abbassare i picchi elevati riducendoli ad esempio a -10
dB, con un abbassamento della dinamica complessiva a
40 dB, l’estensione dinamica è dunque diminuita, ovvero,
attenuando i livelli del segnale più elevati abbiamo
limitato la differenza di volume degli stessi con quelli più
bassi.
Ma perché dovrei voler ridurre la dinamica di una
traccia? Fondamentalmente, perché, avendo abbassato i
picchi più elevati, potrei adesso aumentare il volume
generale di tutta la traccia, rendendo udibili suoni che
prima erano troppo bassi (o troppo nascosti da suoni più
forti) per essere ascoltati.

COME FUNZIONA UN COMPRESSORE

IL COMPRESSORE, IN GENERE, LAVORA SULLA BASE DI POCHI


PARAMETRI DEFINITI DALL’UTENTE:
Soglia (threshold): generalmente espressa in dB,
stabilisce il livello di volume a partire dal quale
desiderate che il compressore inizi ad agire. Ad
esempio, impostando una soglia di -10 dB, il
compressore agirà su tutti i suoni che superano, in
volume, tale soglia.
Rapporto di compressione (ratio): stabilisce
quanto deve essere compresso il segnale che
oltrepassa la soglia.

La ratio è espressa da un rapporto: ad esempio, una ratio


di 2:1 significa che un segnale che supera la soglia di 10
dB, dopo la compressione la supererà di 5 dB soltanto. In
altre parole, una ratio di 2:1 dice al compressore di ridurre
a 1/2 lo sforamento del segnale oltre la soglia.
Quando si usano rapporti di compressione molto elevati
(oltre 10:1), si parla di limiting (e il compressore può
allora definirsi limiter), ovvero di una compressione
estrema, che in pratica non permette a niente o quasi di
oltrepassare la soglia stabilita.

Tempo di attacco (attack): espresso generalmente


in millisecondi (ms), stabilisce la velocità con cui
deve cominciare ad agire il compressore quando
il segnale supera la soglia.

Un attacco medio o lungo, rende generalmente l’azione


del compressore più naturale e morbida, ma di contro
lascerà probabilmente il tempo a un po’ di segnale di
schizzare oltre la soglia prima di venir compresso.
All’opposto, un attacco molto breve renderà l’azione di
compressione quasi immediata, rischiando però di
chiudere un po’ troppo l’attacco di alcuni strumenti.
L’attacco veloce viene preferito nei suoni percussivi (0.1
ms > 0).

Tempo di rilascio (release): espresso in


millisecondi o in secondi, generalmente più lento
dell’attacco, stabilisce quanto tempo debba
impiegare il compressore a terminare la sua
azione.

Un tempo di rilascio molto breve porta il compressore a


seguire fedelmente le variazioni in volume del segnale,
rischiando un effetto di distorsione o oscillazione
continua del volume stesso; un rilascio più lungo è
generalmente più naturale, ma può finire con il prolungare
l’azione del compressore anche quando il segnale è ormai
rientrato sotto la soglia (agendo dunque anche su suoni
che non si vorrebbero comprimere). Indicato per le voci.

Gain (output): stabilisce quanto guadagno


applicare al segnale compresso in uscita, per
compensare la perdita di volume dovuta alla
compressione stessa.

Talvolta, vi sono anche altri parametri minori, come ad


esempio il knee, che impostato su Soft o Hard modifica la
dolcezza o la durezza dell’azione del compressore.
Non esistono, ovviamente, settaggi giusti e sbagliati per
i diversi strumenti in lavorazione: dipende molto da quel
che si vuole ottenere, oltre che dal suono iniziale. La
maggior parte dei compressori software propone tutta una
serie di presets per i vari strumenti, che possono essere un
buon punto di partenza per cominciare a sperimentare e
capire come funziona la compressione che io definisco
simpaticamente il “lavoro dei garzoni”, in quanto va
riconosciuto (spesso e volentieri) l’ottimo lavoro di
ingegneri competenti nella compilazione dei parametri dei
plug-in.

USARE UN COMPRESSORE
L’uso di un compressore audio, può avere molti scopi. In
linea di massima abbiamo già detto come il fine sia spesso
quello di ridurre la dinamica di una traccia per poi poterne
alzare il volume generale. Oltre a una questione di
volume, è il suono stesso della traccia a risultare
modificato.
Drum e bass sono strumenti che vengono compressi: una
batteria ben compressa potrà risultare più netta e potente.
Una traccia di basso potrà diventare più decisa e definita.
La voce a volte viene compressa, sebbene ci voglia più
cautela. Non superare mai la ratio di 2,5:1 per mantenere
la naturalezza del suono.
Lavorare con i compressori è come avere a che fare con
una “coperta corta”: si aggiunge un po’ da una parte e si
perde qualcosa dall’altra. In particolare, quando si
comprime in maniera pesante un segnale audio, si ottiene
un suono molto più ricco e corposo rispetto a quello
originale, ma si perde gran parte della dinamica, pensiamo
per esempio a un pianista che sta suonando un brano che
va dal pp al ff; se andiamo ad applicarvi una
compressione esagerata, perderemo tutta quella che è
l’espressività dell’artista, ottenendo come risultato un
brano suonato tutto allo stesso volume.
Applicando una compressione molto aggressiva a uno o
più strumenti musicali, otteniamo dei suoni più pieni e
corposi perché innalziamo il volume di tutto quello che
sta attorno al transiente di attacco, cioè il picco di segnale
che innesca il compressore, ma perdiamo una certa
quantità di dinamica in proporzione a come abbiamo
regolato la compressione.
Come fare se si vuole comprimere molto un determinato
insieme di strumenti per ottenere un corpo più massiccio
ma senza perdere dinamica? La risposta è parallel
compression (compressione parallela), nota anche come
New York compression.
Se invece il problema fosse che lo strumento scompare
quando suona insieme agli altri? In questo caso la risposta
è sidechain compression (compressione dal canale
affianco).

SHAPING PERCUSSIVE SOUND


I compressori possono essere utilizzati per modificare le
caratteristiche di ampiezza di suoni percussivi, come i
drums e gli strumenti a pizzico. Per i nostri scopi, un
suono percussivo è composto da due parti distinte: un
attack e un body. Un compressore può essere utilizzato
per modificare il bilanciamento tra l’attack e il body di un
suono percussivo. Si può far risaltare l’attacco, oppure il
corpo. Trattare l’attacco di un suono percussivo lo renderà
più incisivo, ma può anche ridurre la sua intensità e
presenza percepita in un mix. Comprimere il body di un
suono percussivo aumenterà la sua intensità e la presenza
percepita nel mix, ma lo renderà anche meno incisivo.

EFFETTI PUMP
Un compressore, quando applicato a un gruppo di tracce
o di un intero mix, può creare cambiamenti periodici di
volume sincronizzati al ritmo della musica. Di solito
questo effetto, noto come pump, è considerato un artifizio,
ma in alcune situazioni può essere desiderabile, perché
migliora la scanalatura della musica.
Alcuni compressori offrono la possibilità di regolare il
knee della curva di compressione.
I suoni al di sotto della soglia di compressione
rimangono completamente intatti, per agire sui suoni al di
sopra della soglia. Questa è la compressione hard-knee.
La compressione soft-knee leviga fondamentalmente la
risposta del compressore. I suoni al di sotto della soglia
sono leggermente compressi, al di sopra della soglia
vengono compressi più dolcemente dei suoni più forti. In
sostanza, la soglia è offuscata dalla compressione soft-
knee. La compressione hard-knee è più stretta e più
controllata, mentre la compressione soft-knee è più
delicata e sottile.

MAKEUP GAIN O CELING


Poiché la compressione è progettata per ridurre il
volume dei picchi in ingresso, l’uscita di un compressore
è, ovviamente, di solito più tranquilla rispetto all’ingresso.
Ciò non è solitamente desiderabile, la maggior parte dei
compressori sono caratterizzati da un controllo ad alta
potenza del guadagno alla fine della loro catena del
segnale, che regolerà il segnale col giusto volume.
Avremo un innalzamento automatico del volume
proporzionato all’abbassamento della soglia.
PROCEDURA PER L’IMPOSTAZIONE
La prima cosa nella catena del segnale è mettere il
compressore, in genere, dopo l’EQ. Questo perché l’EQ
aumenta o taglia alcune frequenze, fino a cambiare la
struttura dinamica della musica. Quindi, se si equalizza
dopo la compressione, si rischia di modificare la struttura
dinamica della musica, annullando in parte il lavoro fatto
per plasmare questa stessa struttura dinamica con il
compressore.
Modificando la struttura dinamica della musica cambia
anche il contenuto in frequenza, così i compressori
possono spesso annullare il lavoro di EQ. Ma questo
generalmente finisce per non essere un vero e proprio
problema, disponendo il compressore dopo l’EQ, si
sceglie il minore dei due mali. Non è necessario seguire
questa procedura se si ha già una buona idea di ciò che si
vuole fare, si può generalmente configurare il tutto subito
senza seguire alcun procedimento.
La procedura qui sotto descritta, è un modo sicuro per
ottenere una compressione desiderata, per cui lo si
consiglia se non si è del tutto certi dell’effetto desiderato
finale.

Iniziare impostando il rapporto al valore più alto


possibile, con un hard-knee.
Impostare al valore più basso possibile. Queste
stesse impostazioni cambieranno in seguito,
quindi non preoccupatevi troppo.
Impostare la threshold. Con le impostazioni come
sopra, si dovrebbe essere in grado di ascoltare
facilmente dove agisce il compressore, in modo
da essere in una buona posizione per impostare la
soglia a un valore ragionevole.
Regolare la make up gain se il risultato è troppo
basso da sentire correttamente.
Impostare attack e release. Questa è
probabilmente la parte più sottile dell’intero
processo, e vale la pena dedicare un po’ di tempo
a questa fase.
Sperimentare con diverse impostazioni e vedere
cosa fanno per il suono.
Se l’impostazione del vostro rapporto sarà molto
alta, si riconoscerà facilmente poiché sarà
esagerato l’effetto di compressione. Se il suono è
distorto, probabilmente è necessario effettuare un
release lento, o forse l’attack. Piccoli
cambiamenti possono fare una differenza
significativa durante la compressione del
materiale ritmico e/o percussivo, in modo da
essere sensibile a queste differenze.

Ridurre il rapporto ratio fino a quando si raggiunge la


quantità desiderata di compressione, e impostare il knee al
valore desiderato.
È necessario impostare il make up gain in modo che
l’audio compresso abbia lo
stesso volume percepito dell’audio non compresso. Fate
questa regolazione del guadagno con le orecchie, senza
guardare i misuratori di picco. Spostare il pulsante di
bypass sul compressore e spegnerlo durante la
regolazione del make up gain fino ad avere abbinato i
livelli percepiti.
Ci sono due ragioni per regolare il make up gain in
questo modo: per preservare l’attuale equilibrio del mix e
per poter controllare il lavoro.
Dopo aver abbinato i livelli, si può controllare il lavoro
agendo sul pulsante di bypass e spegnerlo.
Il suono audio compresso è migliore rispetto all’audio
non compresso? Non lo si può giudicare se i livelli non
sono abbinati, perché suoni più forti naturalmente
suonano meglio di suoni deboli. Se i livelli non sono
abbinati, la versione che si percepisce suonerà meglio a
seconda di quale versione è la più forte. È sempre da
controllare il proprio lavoro nel contesto del mix, non solo
singolarmente.

LIMITER
Il limiter è un particolare tipo di compressore. A
differenza di un normale compressore, che può consentire
al segnale di ingresso di superare la soglia, un limitatore
non consentirà mai che questo accada. Il segnale di
ingresso rimarrà sempre in ogni caso inferiore alla soglia.
In teoria, un limitatore è equivalente a un compressore
con un attacco istantaneo, con un rapporto di -∞:1 e un
hard-knee.
Molti limitatori si differenziano dai normali compressori
per la presenza di una funzione look-ahead (guardare
avanti). Un compressore normale può reagire solo
sull’arrivo dell’audio, il che significa che se arriva a un
picco improvviso, dovrà intervenire molto rapidamente,
falsando il segnale audio nel processo. Con il look-ahead,
il limitatore vede alcuni millisecondi nell’avvenire del
suono, in modo che, quando un improvviso picco sta per
arrivare, il limitatore può iniziare a reprimere in anticipo
temporale, restituendo un effetto più morbido e
trasparente.
I limitatori hanno un’ampia varietà di usi. Nel mix, il più
importante di questi usi è la rimozione trasparente di
picchi. Con un limitatore di buona qualità brevi picchi
possono spesso essere ridotti o eliminati con poco o
nessun effetto udibile nel suono. Questo aumenterà la
libera disposizione dell’altezza della musica e consentirà
una resa di volume maggiore.
Un limitatore può essere utilizzato anche in qualsiasi
contesto in cui si stia ricercando un’ estrema
compressione. In questi casi, un limitatore è più semplice
da configurare rispetto a un compressore e, grazie al look-
ahead, spesso può produrre un risultato più uniforme.

LA COMPRESSIONE SERIALE
Una variazione sul paradigma di utilizzo del
compressore standard è di utilizzare più compressori sullo
stesso suono, concatenati uno dopo l’altro. Questo si
chiama serial compression, e ci sono molte situazioni in
cui risulta utile. Di frequente più compressori lavorano
come una squadra in grado di ottenere un lavoro più
efficace di un solo compressore.
In genere, quando si utilizza la compressione in serie,
ogni compressore andrebbe regolato in maniera diversa.
Per esempio si potrebbe avere un compressore con un
attacco veloce e una soglia alta, per domare le vette, e un
altro compressore con un attacco lento e una soglia bassa,
per ridurre la gamma dinamica. Alcuni compressori hanno
anche una funzione di look-ahead, ma è più comune nei
limitatori. In realtà, si utilizza un buffer di ritardo. Un
limitatore con funzione di look-ahead introdurrà latenza
proporzionale alla lunghezza del suo look-ahead. Alcune
DAW compensano automaticamente questo ritardo,
ritardando tutto il resto della stessa quantità, in modo che
l’effetto sulla musica risulti trasparente. Questa
caratteristica è spesso definita come compensazione del
ritardo del plug-in.

COMPRESSIONE PARALLELA
Questa è una tecnica che si utilizza quando si desidera
comprimere una o più tracce audio in modo pesante, ma
senza perdere eccessivamente la dinamica del segnale.
La compressione parallela consiste semplicemente nel
duplicare la traccia (o le tracce) che ci interessa
comprimere, e applicare tutta la compressione necessaria
solamente al duplicato, lasciando immutata la traccia
originale.
A questo punto, bilanciando opportunamente con i
controlli di volume la traccia originale e quella
compressa, sarà possibile raggiungere l’effetto desiderato:
un suono molto corposo e altrettanto dinamico.
Questa tecnica di compressione si può sfruttare per tutti
gli strumenti presenti in un mix, voce compresa, ma in
genere viene maggiormente utilizzata per la compressione
della batteria, date le importanti dinamiche.

SIDECHAIN COMPRESSION
Il sidechain è solo un segnale di controllo. Lo si ottiene
mettendo in ingresso al sidechain un kick non compresso,
che serve solo a modulare l’effetto del compressore.
Quello che si mette in ingresso in sidechain non dipende
in alcun modo dal genere musicale che si intende fare.
Questa tecnica usa la capacità di alcuni compressori di
poter ricevere in input un segnale audio, questo viene
utilizzato per pilotare il dispositivo e indicargli in quali
momenti andare ad applicare la compressione. Quindi,
una volta identificato lo strumento che oscura e quello che
viene oscurato, si va ad applicare il compressore sullo
strumento che si vuole attenuare, e, come canale di
sidechain, si sceglie quello dello strumento che veniva
precedentemente nascosto. A questo punto il segnale che
nasconde verrà attenuato in base all’innesco del
compressore dovuto al segnale di sidechain. Un esempio
classico di tale processo si può ritrovare nelle trasmissioni
radiofoniche, dove lo speaker (canale di sidechain) attiva
la compressione sulla musica non appena interviene.
Alcuni compressori offrono un ingresso sidechain.
Questo è un ingresso audio secondario che consente di
utilizzare un segnale diverso dal segnale di ingresso per
controllare l’azione del compressore.
Un compressore sidechain si comporta in modo molto
diverso da una compressione normale. Piuttosto che
rispondere a picchi di segnale di ingresso, risponde ai
picchi nel segnale sidechain. La dinamica del segnale
sidechain viene utilizzata per modellare la dinamica del
segnale di ingresso. Se il segnale sidechain supera la
soglia, il segnale di ingresso sarà ridotto di conseguenza.
La compressione sidechain consente di comprimere il
segnale in ingresso secondo i valori del segnale sidechain.
È quindi utile per creare spazio in un mix. Per esempio
applicando un leggero sidechain alla parte strumentale di
una canzone, per la linea vocale, comprimerà la
strumentazione stessa ripiegando di un solo bit quando la
voce entra, dando alla voce più spazio per respirare,
mantenendo il mix pieno.
Il sidechain utilizzato in una linea di bass o in un kick
può anche essere molto efficace. Si può ottenere la bass
line fuori dal colpo del kick, in modo che si possa davvero
sentire, senza perdere la bass line. Inoltre, le
caratteristiche del compressore sidechain possono
annullare l’effetto di unione tra il colpo di kick e il bass.
Anche se il sidechain può essere utilizzato in modo
sottile per creare uno spazio in un mix, può anche essere
utilizzato come strumento artistico. Con tempi lunghi di
rilascio e/o rapporti alti, il sidechain può provocare un
drammatico effetto ducking (appiattimento delle
dinamiche).
Si noti che quando si dispone di più compressori in serie,
il rapporto della compressione complessiva efficace è il
prodotto di tutti i rapporti. Così, per esempio, se si
dispone di un compressore con una ratio 2:1 seguita da un
compressore con un rapporto di 3:1, il rapporto
complessivo di compressione è di 6:1.
È possibile ottenere ciò mettendo un compressore su una
Aux track inviandole la traccia da comprimere.
La compressione sidechain può essere utilizzata per
ridurre il livello di sibilance (vale a dire, ‘s’, ‘t’) in
registrazioni vocali, un processo noto come de-essing.
Questo è spesso utilizzato per quelle consonanti che
risultano essere terribilmente rumorose. Per applicare il
de-essing alla voce, impostare un percorso di
compressione sidechain dove il segnale sidechain è
semplicemente il segnale di ingresso inviato mediante un
EQ. Nell’EQ aumentare la gamma di suoni sibilanti (circa
2-8 kHz). Ora il compressore sidechain dovrebbe ridurre
il guadagno del segnale di ingresso quando vi sia una
significativa sibilance.

UTILIZZO NEL DUCKING, NOISE SUPPRESSION (SOPPRESSIONE


DEL RUMORE),
O BASS EMPHASIS (ENFASI AL BASSO)

Nel trovare un’analogia che aiuti a spiegare il sidechain,


la migliore è una falsa carta d’identità.
Immaginate un giovane che vuole comprare le sigarette,
ma la legge lo proibisce, così il ragazzo acquista una carta
d’identità falsa la quale dichiara l’età legale per acquistare
sigarette. Quindi, ai fini del tabacchino è un adulto; ma
quando fuma è ancora un giovane. Ora immaginiamo che
la carta d’identità dica “Aretha Franklin”, così questo lui
o lei approda nelle sale vip di un concerto di fantasia. Qui
viene trattato come un ‘re musicale’, ma egli è ancora lo
stesso giovane e sperimenta tutti questi diversi trattamenti
come il suo sé originale, non come la persona che sta
fingendo di essere.
Per esempio con un segnale di bass le onde delle note
basse hanno picchi di segnale molto più grandi rispetto ai
toni più acuti, così quei picchi innescano la risposta
dinamica di un compressore molto prima rispetto al resto
del segnale, che può risultare in sovra-compressione.
Questo può essere sentito come fangosità, il tono sordo o
una perdita di fascia bassa.
Molti compressori dispongono di un jack sidechain per
l’uso con un processore esterno. Questo processore non
deve essere un EQ, può essere qualsiasi tipo di effetto o
ottenere il controllo o quant’altro. Per esempio, si
potrebbe inviare il segnale audio per un effetto di tremolo
tramite l’uscita sidechain di un compressore, e quindi il
segnale del tremolo sarebbe per attivare la compressione.
I risultati possono o non essere musicalmente desiderati,
ma è bene sapere di avere quel tipo di opzione
disponibile.
Un’altra tecnica è quella di alimentare il sidechain con
un segnale di controllo completamente indipendente,
come un tamburo microfonato, o una traccia click, o altro
strumento. Questo permette di avere una grande quantità
di controllo creativo su come la trasformazione
influenzerà il segnale audio.
È molto popolare nella musica techno applicare un
compressore dal pesante schiacciamento di una traccia di
basso e innescato con una traccia di batteria. La stessa
cosa può essere fatta con filter, gate o qualsiasi altro tipo
di elaborazione dinamica. Il segnale di controllo non deve
essere ritmico, può essere casuale. Alcuni ingegneri usano
fissare i tempi di un musicista che ha scarso ritmo dal
gate del canale del mixer innescando la porta dal canale di
qualcun altro nella band che ha buon ritmo.
È anche divertente per applicare un effetto shelf a voice
o bass, e attivarlo con qualsiasi altro canale del mix. Siate
creativi!
Una applicazione pratica utilizzata nei sistemi broadcast
e PA è il ducking, in cui si dispone di due canali audio e il
volume di uno è controllato dal volume degli altri. Un
esempio comune di questo è il voice-over: la musica
svolta durante uno spettacolo o nell’uso commerciale,
quando un presentatore o la voce dell’attore si accende e
il volume della musica si abbassa per rendere più facile
l’ascolto della voce parlante. I livelli di musica vanno su e
giù automaticamente ogni volta che il controllo
voice/audio passa la soglia. Il canale voice-over va nel
ritorno sidechain del dispositivo che controlla il livello
della musica e dopo che avviene l’elaborazione della voce
su se stessa viene poi miscelato con il canale musicale.
Si può tranquillamente andare per tutta la vita musicale
senza mai usare un sidechain, ma è un buono strumento
da avere!

GATES

Un gate non è un compressore. Un gate è qualcosa di


completamente diverso, pur essendo un altro dispositivo
che si occupa di agire nella dinamica. A differenza di un
compressore, che si occupa di ridurre il volume delle parti
forti di un suono, un gate si occupa di ridurre il volume
delle parti a basso volume del suono, di solito fino al
punto di farle scomparire completamente.
I comandi più importanti in un gate sono:

threshold
attack
release

Il gate taglierà tutti i suoni al di sotto del threshold. Il


rilascio determina la velocità con cui il gate smette di
agire una volta che il segnale scende sotto la threshold.
L’attack determina quanto velocemente il gate entra in
azione.
Solitamente la ragione per cui si ricorre al gate è ridurre
il rumore in una registrazione. Talvolta l’utilizzo del gate
su una traccia rumorosa causa l’annullamento del suono
utile.
Il rumore non è un problema nella produzione di musica
elettronica basata su computer, a differenza della
registrazione tradizionale. Detto questo, vi sono ulteriori
motivi per utilizzare un gate oltre alla riduzione del
rumore. Una delle applicazioni più importanti dei gate è
tagliare le code di decomposizione dei suoni. Ad esempio,
se avete un kick acustico o un rullante che ha una coda
indesiderabile che porta confusione al mix, è possibile
utilizzare un gate per rimuoverla. Allo stesso modo, se
avete un suono eccessivamente reverberato, è possibile
tagliare la coda del reverbero.
Alcuni gates hanno anche gli ingressi sidechain, e
questo apre una serie di possibilità creative. Un sidechain
gate è concettualmente analogo a un compressore
sidechain. Esso provoca la repressione del segnale
d’ingresso quando il segnale di sidechain è inferiore alla
soglia, lasciando che il segnale di ingresso passi quando il
segnale di sidechain è superiore alla soglia.
Un sidechain gate consente di elaborare il segnale di
ingresso a seconda della dinamica del segnale di
sidechain. Alcune persone definiscono questo processo
noise gate. Questo porta anche al classico suono di
rullante di Phil Collins, che si basa su uno snare dal lungo
reverbero e la coda tagliata dall’inserimento del gate. Il
segnale di ingresso è un suono percussivo ritmico come
segnale sidechain. L’effetto finale conterrà, nel segnale in
ingresso, impulsi ritmici a tempo con il segnale sidechain.

SHAPING PERCUSSIVE SOUND


Un’ applicazione di compressione che merita
un’attenzione particolare è lo shaping di suoni percussivi.
Questo tipo di compressione dovrebbe essere applicata a
singoli suoni percussivi: snare, plate, guitar, keys. Non
dovrebbe invece essere applicato a drum kit misti. Se si
desidera applicare questa tecnica nella drum, utilizzare un
compressore separato per ogni elemento.
Prendiamo l’esempio di due modellazioni di suoni
percussivi:

1. TIRAR FUORI IL BODY MANTENENDO L’ATTACK.


Noi prenderemo in considerazione ciascuno di questi
casi singolarmente.Tom ha inserito un compressore con
un attack lento ed un release moderato o veloce. Ha
impostato poi la soglia al di sotto del livello del body del
suono. In seguito ha regolato il rapporto di gusto, anche se
è meglio mantenerlo basso. Questa tecnica funziona
perché l’attack del compressore lento lo mantiene intatto,
mentre il body è al di sopra della soglia. Si tira fuori
l’attack riducendo il livello del corpo. È anche possibile
portare a termine l’attack utilizzando un expander.
Impostare un attack veloce con release moderato o
veloce, e impostare la thereshold sopra il corpo del suono.

2. PER MANTENE IL CORPO, IMPOSTARE UN COMPRESSORE CON


UN ATTACCO MOLTO VELOCE.

Impostare il release veloce eviterà distorsioni. Impostare


la threshold appena sopra il punto più alto del body.
Impostare la ratio a piacere. Questa tecnica fa diminuire
l’attack del suono, ma anche il body. Alzando tutto, il
risultato finale è di aumentare il livello di attack.
È inoltre possibile mantenere il corpo del suono
utilizzando un compressore aggiuntivo nel corpo, come
con la tecnica della serial compression (compressione
seriale). Anche la parallel compression è molto adatta al
compito di far risaltare il
corpo di un suono percussivo.
CREAZIONE DELL’EFFETTO DI PUMP
Una delle cose più interessanti della compressione è la
sua capacità di manipolare le dinamiche. Modellando le
dinamiche della musica, si modellano i modelli di enfasi e
de-enfasi e, modellando detti modelli, si modellano così le
dinamiche della musica.

UN ALTRO METODO
Questo metodo viene generalmente applicato a un mix
completo, ma a volte potrebbe anche essere applicato ad
un group. L’idea è che si disponga di uno o due parti di
drum ad alto volume (di solito la cassa e, eventualmente,
il timpano), instradati insieme con un gruppo di altri
elementi, al canale compresso.
Si imposta un compressore sul canale con la soglia in
modo tale che sia innescato dai drum e non molto altro
(per questa tecnica i drum devono trovarsi al massimo
volume possibile). Impostare l’hard knee, con attack
veloce, release lento e un moderato ratio (4:1). Ora
alziamo la drum. Inizierà ad attivarsi il compressore più
intensamente, e il rilascio lento provocherà il pump del
suono. Il pump, se fatto bene, sarà abbastanza sottile; si
dovrebbe sentire una evidente differenza quando è attivato
il bypass del compressore, ma probabilmente non si è in
grado di sentire realmente il pump, a meno che non si stia
ascoltando molto da vicino.
MULTIBAND COMPRESSION
È un’elaborazione sul concetto base di compressione.
Lavora dividendo il segnale di ingresso in una sequenza
multipla di bande di frequenza (di solito tre). In seguito, si
invia ciascuna banda a un compressore separato, e poi i
tre segnali compressati tornano di nuovo insieme dopo la
compressione singola. Così si hanno tre compressori: uno
per il bass, uno per il mid, e uno per l’high. Si possono
impostare gli intervalli di frequenza in modo preciso in
ognuna di queste bande.

EXPANDER
Come un gate, un expander non è un compressore, né
una lente per televisori. Concettualmente parlando, un
expander fa la stessa cosa di un compressore, ma invece
di ridurre la gamma dinamica, aumenta l’intervallo
dinamico. Quando il suono supera la soglia, l’expander
amplifica di una quantità proporzionale al ratio.
Molti compressori sono anche expander. Per utilizzare
un compressore come un expander, basta impostare il
rapporto a un valore inferiore uno (2:1).
Osserviamo una tipica curva di espansione:

Curva di espansione

la parte superiore alla soglia è quella a unity gain


(guadagno unitario); finché il segnale è superiore alla
soglia, il dispositivo non entra in azione. Quando il
segnale scende al di sotto della soglia, il dispositivo entra
in azione riducendone l’ampiezza secondo il rapporto di
espansione selezionato. Tipici valori del rapporto di
espansione sono 1:2, 1:3.
Se il rapporto selezionato è 1:4, un segnale al di sotto
della soglia di 1 dB verrà attenuato e posto a 4 dB sotto la
soglia. In questo modo la dinamica complessiva del
segnale aumenta (ricordiamo che la dinamica di un
segnale è la differenza tra l’ampiezza massima e la
minima che il segnale stesso può assumere durante la sua
evoluzione).
I controlli tipici dell’expander sono simili a quelli del
compressore:

ATTACK
Indica il tempo impiegato dall’expander per entrare in
azione dopo che il segnale è sceso al di sotto della soglia e
viene indicato in millisecondi (ms).

RELEASE
È il tempo che impiega l’expander per ritornare
all’assenza di espansione (unity gain) ossia a un rapporto
1:1, dopo che il segnale di ingresso è risalito al di sopra
della soglia. Serve a conferire un’azione più dolce
all’expander.
Hold
Dopo che l’ampiezza del segnale di ingresso sale al di
sopra della soglia, l’expander riduce la sua azione durante
il tempo di rilascio fino a tornare al rapporto di
espansione 1:1. In pratica mantiene più a lungo
l’expander in azione.

KNEE
Misura la smussatezza della curva di espansione.
Naturalmente, al pari degli altri processori dinamici,
anche l’expander può funzionare in sidechain, ossia agire
in base a un segnale controllante esterno.
L’expander può essere efficacemente impiegato per
ridurre una coda indesiderata in un suono, come per
esempio il tom di una batteria.
Plug-in consigliati: Waves CLA-76 per i suoni
percussivi, Waves H-Comp Hybrid Compressor per i
suoni più variegati (bass, voice, keys).

I VARI TIPI DI COMPRESSORI


I compressori sono spesso descritti con nomi di
categoria come VCA, optic, FET, feed-forward, OTA, e
così via. Questi nomi sono per diversi progetti di circuiti,
reazione al livello di segnale, e il modo in cui reagisce.
Scegliere un compressore è come spiegare la differenza
tra il verde lime, verde prato, verde Kelly e verde bosco.
Sono tutti abbastanza diversi e si avrebbe ragione di
sceglierne uno piuttosto che un altro se si deve dipingere
una stanza, ma non è possibile fare un confronto utile,
senza in realtà vederli uno accanto all’altro a confronto.
Che siano molto diversi o molto simili, dipende dal
vostro punto di vista. È necessario tenere a mente che,
mentre le composizioni sicuramente possono influenzare
il tono, riguardo al tipo di circuito di compressione in
realtà non si dice nulla circa l’effetto tonale.

VCA (AMPLIFICATORE CONTROLLATO IN TENSIONE)


Tecnicamente la maggior parte dei circuiti potrebbe
essere descritta in un certo senso come VCA, ma nell’uso
pratico significa un chip IC che contiene i transistor che
seguono il livello del segnale in ingresso (tensione) per
determinare la quantità di guadagno negativo da
applicare. I VCA sono tipicamente associati con velocità,
compressione pulita, controlli precisi oltre attack e
release. La maggior parte dei compressori è controllata
dal VCA. Tale società, in origine una divisione di dbx,
produceva la maggior parte dei chip VCA che si
incontravano.

FET (EFFETTO DI CAMPO TRANSISTOR)


Sono essenzialmente un sottoinsieme di VCA, con le
loro particolari qualità. I FET sono spesso utilizzati come
un’emulazione a stato solido di valvole, ma la ragione
principale è di un bozzetto, che verrà pubblicizzato come
FET-based e si potrà associare con l’UREI famosa e
ambita 1176.
Così è per lo più per il marketing, ma ci si può aspettare
maggior colore in un effetto FET che da un VCA pulito.
A parte 1176, gli altri esempi di composizioni FET sono
per lo più costose unità rack da marchi come Vintech,
Daking, Pinck, e Chandler. Il pedale MXR M87 per
esempio, è commercializzato come un compressore FET,
ma suona come una qualsiasi unità VCA regolare.

OTA (TRANSCONDUTTORE CON AMPLIFICATORE OPERAZIONALE)


È un chip come un VCA tranne per la sua uscita che è a
corrente variabile, senza tensione. Si riferisce a un
disegno specifico di un circuito basato sul chip CA3080
(o un suo sostituto moderno come LM13700), che è la
base per il Ross, Dynacomp, Keeley, Wampler e
probabilmente il 90% di tutti i compressori a pedale sul
mercato.
La maggior parte delle composizioni di boutique, con
tutte le loro affermazioni circa perfezionamenti e sviluppi
per il tono finale, sono solo versioni di questo circuito
molto semplice a volte con nessun miglioramento,
diversificati da un lavoro di vernice di fantasia e un
interruttore a pedale 3PDT. Lavora molto bene per le
chitarre.

OPTICAL (COMPOSIZIONI OTTICHE)


Contengono una fonte di luce che diventa più brillante
quando il segnale diventa più forte, oltre a un resistore
fotosensibile che reagisce alla luminosità della luce
diminuendo la sua resistenza. Il resistore funziona sia in
un anello di retroazione sia un un partitore di tensione per
cambiare il livello del segnale. In alcuni modelli erano
componenti separati, ma nel 99% dei disegni moderni la
luce e la resistenza sono racchiusi in un piccolo cilindro
nero. Gli Optical sono generalmente descritti come molto
regolari, con un lento release, e realistici. Possono essere
neutri/invisibili, o molto squashy/effecty, a seconda di
come il circuito è progettato.
Wswmpi di Optical sono Demetra, Diamond, EHX Black
Finger, RETROSPEC, e Joemeek. ELOP è solo un
marchio di fabbrica del brand Manley, per il loro design
opto comp.

TUBE (COMPRESSORI A VALVOLE)


Quasi sempre, sono composizioni ottiche con una
valvola 12AX7 sullo stadio di guadagno alla fine.
Tuttavia modelli vari-mu (abbreviazione di Variable Mu,
marchio Manley) utilizzano una valvola a vuoto al posto
di un transistore, in cui l’ingresso di tensione variabile
cambia polarizzazione della valvola invece del guadagno
di un transistore. Ha un’azione un po’ diversa,
generalmente si considera ancora più liscia e più cremosa
o naturale.

FEED-FORWARD
Il circuito di controllo riceverà (sentirà) il segnale prima
che queto passi attraverso lo stadio amplificatore. Questo
è l’approccio più moderno.

FEED-BACK
Si intende che il regolatore riceve il segnale dopo lo
stadio amplificatore, e questo è associato con i disegni più
vecchi.
Come suonano è solo una sottile differenza, quasi una
sfumatura, è necessario provarlo per avere una
percezione.
Vi sono parecchi altri circuiti per la compressione che
non necessariamente rientrano in una categoria
denominata.
Nel tentativo di una breve e facile semplificazione, si
potrebbe generalizzare affermando che:

comp VCA sono veloci, moderni, e precisi;


comp OPTO sono lenti, vintage e naturali;
comp OTA sono da qualche parte nel mezzo,
risposta che ai chitarristi piace.

Molte rimangono le eccezioni a queste descrizioni. I


restanti hanno le loro sottili differenze di azione che sono
veramente difficili da esprimere.
ANALOGICO VS DIGITALE
L’utilizzo del suono campionato è un suono discreto
(quindi numerico approssimativo), mentre l’analogico è
un segnale continuo (elettrico, reale). Di conseguenza
l’utilizzo di plug-in digitali è consigliato specialmente
come cut (taglio). L’efficacia degli effetti nel campo
analogico è indubbiamente impareggiabile al digitale, ad
oggi (2016).
9. Criteri dell’immagine stereo

Il panorama stereo è lo spazio illusorio che percepiamo


come esistente tra gli altoparlanti destro e sinistro.
Quando arriviamo a parlare di immagine stereo, ci
riferiamo al posizionamento dei singoli strumenti
all’interno del mix. Un presupposto errato è che
l’immagine stereo si riduca con il pan. Ma un’ immagine
stereo implica nozioni molto più avanzate di quest’ultima,
che si basano su queste quattro proprietà:

LOCALIZZAZIONE (PAN)
È l’interesse con il quale il suono sembra provenire
dall’asse sinistro-destro.

LARGHEZZA STEREO
Qual è la quantità di immagine stereo generale che il
suono occupa? Un kit di batteria può apparire stretto o
largo. Lo stesso vale per uno snare reverb.

FUOCO STEREO
Come sono concentrati i suoni? Uno snare può apparire
come se provenisse da un punto ben distinto
dell’immagine stereo, oppure può essere sfocato
(spalmato) e apparire come se provenisse da “qualche
parte laggiù”.

DIFFUSIONE STEREO
Come sono diffusi esattamente i vari elementi in tutta
l’immagine stereo? Per esempio i singoli tamburi su una
registrazione ambientale possono apparire come
provenienti prevalentemente da sinistra e da destra,
raramente come provenienti dal centro.

I CRITERI STEREO
La localizzazione riguarda la nostra capacità di
discernere l’esatta posizione di uno strumento. La
larghezza stereo riguarda la lunghezza di spazio stereo
occupata dallo strumento. Se non possiamo localizzare
con precisione la posizione di uno strumento, la sua
immagine viene a essere spalmata (o diffusa).
Per controllare questi aspetti del panorama stereo usiamo
vari processori ed effetti stereo, principalmente il pan. Gli
effetti stereo come i reverberi possono colmare alcune
lacune del panorama stereo, ma possono anche
danneggiare la messa a fuoco e la localizzazione.

BILANCIAMENTO STEREO
Il balance (bilanciamento) è l’obiettivo principale nel
dominio stereo. Soprattutto ci interessa l’equilibrio tra le
aree sinistra e destra del mix. Avere un’immagine stereo
che si sposta da un lato è inquietante e può anche causare
problemi se il mix viene poi tagliato. Per lo più si
considera il livello di bilanciamento tra destra e sinistra.
Se un canale ha più strumenti tagliati, l’immagine mix
convergerà a un solo altoparlante. È come avere un
concerto con la maggior parte dei suoni che proviene sul
lato sinistro del palco. Lo squilibrio nel livello tra i
diffusori SX e DX non è molto comune nel mix, dal
momento che abbiamo una tendenza naturale a bilanciare
questo aspetto. Vale la pena ricordare che lo
sbilanciamento dell’immagine può anche avvenire
volutamente in punti specifici per tutta la canzone, come
quando si introduce un nuovo strumento. Uno strumento
che ci può aiutare a identificare lo spostamento di
immagine è l’interruttore di swap L/R.
Ci sono vari mix commerciali che contengono squilibrio
stereo. Un esempio è Give it away dei Red Hot Chili
Peppers, Warner Bros 1991, dove la chitarra di John
Frusciante sembra quasi completamente a destra, senza
bilanciamento sul lato sinistro del mix. I piatti hanno pan
a sinistra sul remix di Usless Kruder Dorfmeister, K7
Records, 1998.
Un altro comune problema è lo squilibrio della
frequenza stereo. Mentre la somma della frequenza tra i
due altoparlanti è raramente identico, troppa variazione
può provocare uno spostamento dell’immagine. Se due
parti di viola suonano a distanza di un’ottava, si ha il
rischio di provocare uno spostamento di immagine se si
esegue il pan simmetricamente a destra e a sinistra (dove
la parte di ottava superiore trarrà più attenzione).
L’equilibrio della frequenza stereo è molto più di una
questione di disposizione. Se c’è solo una traccia di uno
strumento con un contenuto in frequenza molto distinto, si
può causare uno squilibrio quando pannato. Dobbiamo: o
spostare tale strumento verso il centro (per minimizzare lo
spostamento dell’immagine risultante), o impiegare un
effetto stereo per riempire l’altro lato del panorama,
rischiando tuttavia di spalmare il suono. Uno strumento
noto a causare questi problemi è l’hi-hat, soprattutto nelle
produzioni dove è meno sensato aggiungergli delay.
Mentre lo squilibrio SX/DX è il più grave problema
stereo, lo squilibrio della diffusione stereo è il più
comune. Nella maggior parte del mix, ci aspettiamo di
avere gli elementi sparsi in tutto il panorama stereo,
quindi non ci sono aree prive, come un coro che si
organizza sul palco. Il tipo più evidente di squilibrio di
diffusione stereo è un mix quasi monofonico il quale
sfrutta un utilizzo molto limitato dei lati. Mentre un tale
mix può essere inquietante, a volte può essere opportuno.
Di tutti i generi, i mix quasi monofonici sono noti per
essere trendy nell’hip-hop. Il ritmo, bass e voice sono
riuniti intorno al centro, e solo alcuni suoni, come
reverberi o plateau, vengono inviati ai lati. Un esempio di
tale mix è Apocalypse di Wyclef Jean, ma non tutte le
tracce hip-hop sono mixate in quel modo.
L’hot spot tra i due altoparlanti denota la zona di
intensità. Un mix tendenzialmente monofonico ha la
maggior parte della sua intensità intorno al centro del
panorama stereo, con poco o nulla verso gli estremi.
Un altro tipo di problema possibile con l’apertura stereo
consiste in un mix con un centro debole e la maggior parte
della sua intensità distribuita agli estremi. Questi mix sono
spesso il risultato di uno stratagemma stereo creativo.
Un terzo tipo di squilibrio di diffusione stereo, molto
comune, è la combinazione dei due precedenti; un mix che
ha la maggior parte dei suoi elementi pannati duramente a
sinistra, al centro e all’estrema destra. Molti ingegneri
novizi realizzano tali mix, semplicemente perché tendono
a spostare ogni segnale stereo agli estremi. Ciò non risulta
solo sgradevole ma, rispetto a una disposizione densa, può
essere considerato come uno spreco di spazio stereo.
Anche in questo caso la disposizione ha un ruolo. Se non
ci sono molti strumenti, è necessario allargarli per
riempire gli spazi nel mix, ma questo non è sempre
appropriato.
Questo tipo di mix è un problema molto comune, se non
fatto di proposito. Si tratta di intensità intorno gli estremi
e il centro, ma niente tra queste aree.
L’ultimo tipo di squilibrio di diffusione stereo
comprende un panorama stereo che manca di una
determinata area, per esempio h 13:00-h 14:00. È come se
da una fila di trombettisti mancassero dei musicisti tra
loro adiacenti. L’individuazione di un tale problema è più
facile con un configurazione stereo ampia e precisa.
Questo tipo di problema è generalmente risolto regolando
il pan.

SPREAD (APERTURA) STEREO COMPLETA


Anche se può sembrare improbabile, l’immagine stereo
può anche influire sui vari stati d’animo. Panorami
musicali insonorizzanti, chill out, ambient e simili,
tendono ad avere un’immagine stereo meno incentrata e
più ampia rispetto ai generi meno rilassati. Si applica la
solita regola – meno è naturale (e quindi allargata), più è
potente. Un drum kit largo quanto il panorama stereo
suona più naturale di un drum kit stroncato intorno al
centro.
Abbiamo visto alcuni altri esempi di come l’immagine
stereo può essere utilizzata per destare interesse.
Beethoven cambiò frasi identiche in tutta l’orchestra,
mentre in Hey Ya! abbiamo cambiato diffusione stereo tra
la strofa e il ritornello. Vale la pena di ascoltare Smells
Like Teen Spirit e prendere in considerazione la strategia
pan e il cambiamento nell’immagine stereo tra l’interludio
e il chorus.

PROFONDITÀ
Non è scontata la consapevolezza che un mix comporta
una prospettiva fronte -retro. Vari strumenti nel mix (in
particolare tramite reverberi) permettono di creare un
senso di profondità nel nostro mix; infatti il reverbero
viene utilizzato principalmente per creare una terza
dimensione nell’ascoltatore, la profondità di campo,
un’estensione vitale per la nostra scena sonora, e la nostra
capacità di posizionare gli strumenti all’interno di esso.
Tutte le considerazioni di profondità sono relative. Non
si parla mai in metri di distanza, ci si riferisce invece
corrispettivamente a davanti o dietro un altro strumento.
L’asse di profondità del nostro mix inizia con il suono più
vicino e si conclude al suono lontano. Un mix in cui gli
strumenti sono molto vicini può essere considerato stretto
e un mix che ha una profondità estesa può essere
considerato spazioso. Questo viene utilizzato per riflettere
il mood del brano musicale.
La profondità di campo è un’aggiunta quando si tratta
dei nostri obiettivi di mix standard. Raramente parliamo di
una profondità di campo equilibrata dal momento che non
cerchiamo di avere i nostri strumenti equidistanti in
questo settore. Una profondità di campo coerente è un
obiettivo molto più probabile. Inoltre, nella maggior parte
dei casi, più lontano è lo strumento e meno definito
diventa. La formazione della profondità di campo, pur
mantenendo la definizione dei singoli strumenti, può
essere una sfida. Un concerto di musica classica con i
musicisti che camminano avanti e indietro per il palco
sarebbe caotico. Analogamente, variazioni di profondità
sono rare, e solitamente strumenti che si muovono avanti
e indietro nel mix vengono introdotti come effetto creativo
o per rimarcarne l’importanza (come un trombettista
camminerebbe verso la parte anteriore del palco durante il
solo).
Siamo normalmente abituati in natura a percepire
differenze nella profondità sonora e vogliamo che i nostri
mix siano in grado di ricreare tale sensazione. L’obiettivo
principale è quello di creare qualcosa di naturale o
artificiale, ma comunque accattivante. Le nostre decisioni
sulla collocazione dello strumento sono in gran parte
determinate dall’importanza e da ciò che ci è familiare in
natura. Ci aspettiamo che le parti vocali nella maggior
parte delle produzioni rock siano le più vicine, proprio
come un cantante è “anteriore” sul palco. Ma in molti
brani dance elettronici il kick sarà di fronte e la voce
apparirà dietro a esso, a volte anche molto dietro. Poi
vogliamo che tutti i componenti del drum-kit siano
relativamente vicini nella profondità di campo, perché
questo è il modo in cui sono organizzati nella vita reale.
Ogni sistema a due diffusori ha una profondità ereditata
e i suoni provenienti dai lati appaiono più vicini dei suoni
provenienti dal centro. La flessione della disposizione
sonora cambia tra un modello di altoparlanti e un altro, e
quando li cambiamo tutto il nostro mix potrebbe spostarsi
in avanti o indietro. La scena sonora creata da un setup
stereo ha la forma di un rombo curvo e i suoi limiti sono
impostati dall’angolo tra la nostra testa e gli altoparlanti
(anche se possiamo creare un effetto fuori
dell’altoparlante utilizzando trucchi di fase). Maggiore è
l’angolo tra la testa e gli altoparlanti, maggiore diventerà
la scena sonora, in particolare per gli strumenti lontani.

MIXARE IN PRIMA LINEA


Diversi modelli di altoparlanti hanno diverse scene
sonore dell’immagine stereo e quindi presenteranno la
profondità di campo in modo diverso. La larghezza della
scena sonora cambierà come la nostra testa si muove in
avanti o indietro.

SUONI STEREO
I suoni stereo sono suoni che giungono, in maniera
distinta, a entrambe le orecchie (suoni binaurali), al
contrario dei suoni mono. I suoni mono occupano un
unico punto sull’asse X dello spazio, mentre i suoni stereo
ne cavalcano una serie diversa (minimo due punti
distinti).
Un segnale stereo è composto dai canali sinistro e destro
separati, con diversi segnali al proprio interno. La
maggior parte delle DAW permette di trattare questi due
canali come interleaved (un’unica unità). È inoltre
possibile regolare il bilanciamento tra i due canali con il
controllo di balance. (Vedi appendice 9.1).
Se un suono è in stereo significa che ci sono due
variazioni per lo stesso suono, con una variazione di ogni
canale. Alcuni suoni sono stereo in natura, come ad
esempio suoni che sono registrati in stereofonia.
È possibile prendere un suono che era sorto come mono
e trasformarlo in un suono stereo con l’aggiunta, ad
esempio, di una reverberazione. Essenzialmente, tutto
quello che è necessario, è rendere i due canali diversi
l’uno dall’altro. È possibile equalizzare separatamente
ciascun canale. Di solito si dovrebbero tagliare i suoni più
gravi di un canale e tagliare gli alti dell’altro canale,
utilizzando high shelf e bass shelf, rispettivamente, con la
stessa frequenza centrale. Questo sarebbe inavvertito sulla
sorgente mono, inoltre utilizzare questa tecnica è
un’operazione piuttosto delicata. È preferibile combinarla
con altre tecniche se si è alla ricerca di un effetto stereo
più ampio.
1. È possibile creare un offset di fase tra i due canali.
Ritardando uno dei canali fino a 40 ms si distinguono i
segnali provenienti dai due altoparlanti, rimanendo ancora
percepiti come un unico segnale. Il suono sarà percepito
come proveniente dal lato che ha il tempo di arrivo più
breve. Questo fenomeno è indicato come Haas effect.
2. Ci sono una varietà di effetti che conferiscono al
segnale stereo un effetto laterale del loro funzionamento
(per esempio molti effetti chorus). Ci sono anche plug-in,
chiamati stereoizer, appositamente dedicati al compito di
trasformare segnali mono in segnali stereo. La maggior
parte di essi sono basati sulle varianti e/o elaborazioni
delle tecniche di cui sopra.
I suoni stereo, sono generalmente costituiti da suoni più
grandi e più ricchi dei suoni mono, mentre i suoni mono
hanno un suono più pulito e incisivo dei suoni stereo.
Non è una buona idea abbandonarsi a un eccesso di
stereofonia nel mix.
I suoni stereo prendono più spazio nel mix dei suoni
mono, e un mix con un uso eccessivo (o di cattivo gusto)
degli effetti stereo può suonare confuso e privo di
impatto.
La chiave è quella di trovare un buon equilibrio tra
mono e stereo.Cancellazione di fase
La lavorazione stereo spesso può creare problemi con la
cancellazione di fase. La cancellazione di fase ha due
conseguenze. In primo luogo, si rovinerà il suono stereo,
privandolo della sua potenza. In secondo luogo, il suono
diventerà più silenzioso, fino a scomparire.

QUANDO IL MIX SI RIASSUME IN MONO


Se si utilizzano suoni stereo, è buona norma ascoltare
periodicamente il mix in mono, per verificare che non ci
siano grossi problemi con la cancellazione di fase.
Molti suoni che sono stati registrati o sintetizzati in
stereo hanno problemi con con essa; anche l’offset crea
cancellazione di fase. I problemi con la cancellazione di
fase sono particolarmente evidenti nelle frequenze
inferiori, perché ci sono meno frequenze in tale intervallo
e sono in genere più forti. Infatti, qualsiasi tipo di effetto
stereo della gamma bassa è raramente efficace. Il reverb
intorbida il suono. Il detuning crea battimenti che si
traducono in fascia bassa con il suono che periodicamente
scompare e riappare.
PROCESSO SINISTRA/DESTRA
Al fine di avere il controllo delle caratteristiche di un
suono stereo, è spesso opportuno dividerlo in due tracce
del mixer separate: una pista per il canale sinistro, e una
per il destro. Questo si chiama trattamento sinistra/destra
o L/R. In primo luogo si ha il brano sorgente. L’uscita di
questa traccia è indirizzata a due tracce: una traccia a
sinistra e una destra. La traccia di sinistra ha il suo
controllo pan/balance tutto a sinistra, e la traccia di destra
tutto a destra. Se lo si desidera, queste tracce vengono poi
indirizzate ad una track dove vengono unite insieme nel
suono stereo finale. (Quest’ultima pista non è necessaria,
se non si vogliono fare ulteriori elaborazioni sul suono
combinato).
Nel caso di un segnale mono, questo vi darà due copie
dello stesso segnale, una in ciascun canale: dual mono,
possono essere manipolate separatamente. In caso di un
segnale stereo, bisognerà isolare i canali sinistro e destro,
in modo che possano essere lavorati separatamente.
L’elaborazione L/R è un buono strumento per fare un
trattamento come descritto sopra. È anche possibile
restringere l’ampiezza stereo del materiale utilizzando i
comandi del pan/balance dei canali L/R verso il centro,
fino a renderla sempre più mono.
PROCESSAMENTO MID/SIDE
L’elaborazione M/S comporta l’elaborazione di due
canali audio, come L/R, ma piuttosto che avere un canale
sinistro e un canale destro, ha un canale mid (centrale) e
un canale side (laterale).
Una versione M/S di un segnale può essere prodotta da
una versione L/R di un segnale utilizzando nient’altro che
un mixer audio. Esistono anche plug-in per fare la
conversione da L/R a M/S e viceversa, ma sono artificiosi
(vedi appendice 9.2).

L’IMPORTANZA DELL’ASCOLTO IN MONO


Oggi la grande maggioranza di musica disponibile in
commercio è mixata in stereo.
Ci sono alcune eccezioni, come Californication, Red
Hot Chili Peppers, in gran parte mixata in mono, ma
essere un ingegnere audio oggi richiede la capacità di
sapere quando fare uso del mono e quando è invece il
caso di utilizzare lo stereo in un mix.
Uno dei concetti chiave è il contrasto. Avere alcuni
elementi in mono può dare l’impressione che altri
elementi sembrino più ampi e, facendo buon uso del
campo stereo, possono aggiungere più forza e presenza
alle tracce centrali. È importante in quanto gli elementi
centrali di solito sono il basso, la cassa, il rullante e la
voce solista.
Oltre a una questione di spazializzazione vi sono altri
aspetti fondamentali, come l’essere consapevoli dei
potenziali problemi di fase e il riempire in modo
equilibrato lo stesso spazio sonoro del mix.
Scendiamo in dettaglio. Una buona pratica è quella di
ascoltare di tanto in tanto il mix in mono. Si dovrebbe
soprattutto prestare ascolto ai suoni che sembrano
scomparire o a quelli che perdono molte frequenze alte. È
buona abitudine ascoltare alcuni dei vostri mix preferiti in
mono e prendere dimestichezza con quel suono. Quindi
confrontatelo con i vostri mix.
Non lasciate che il vostro basso divori il vostro spazio
sonoro.
Nell’era digitale ci sono ancora buoni motivi per
mantenere il basso in mono:
1. Le frequenze basse posseggono molta energia (si
muovono poderosamente nell’aria e tolgono spazio in un
mix alle frequenze medie e alte. Mantenendo il mono, i
bassi limiteranno la quantità di spazio utilizzato.
2. La maggior parte dei subwoofer sono mono. Si avrà
più controllo sul suono riprodotto su sistemi diversi se si
mantiene il basso in mono.
3. Problemi di fase. Le informazioni stereo possono dirci
molto quando i canali sinistro e destro si combinano (in
un altoparlante mono). Le frequenze basse sono sensibili
ai problemi di fase perdendo facilmente impatto e
definizione.
Che cosa succede se ti piace il suono di basso in stereo?
Non ti preoccupare, il cervello umano non è in grado di
localizzare il suono a frequenze inferiori a circa 80 Hz.
Questo significa che non c’è un vero vantaggio
nell’avere frequenze in stereo così gravi, in modo da
potersi concentrare su frequenze più alte.
Se il basso che si utilizza contiene di per sé informazioni
stereo, il consiglio è di duplicare la pista e mettere un EQ
o un filtro in ogni traccia. Sulla prima traccia, inserisco un
filtro passa-basso a 80 Hz. Un buon EQ evita la
distorsione di fase. Ora trasformate questa traccia mono; è
possibile sommare il canale sinistro e destro in mono e si
possono separare i canali in due tracce mono. Questo vi
darà tre tracce da confrontare; scegliere quello che suona
meglio per voi in termini di punch, chiarezza ecc. Sulla
traccia duplicata utilizzare un filtro passa alto a partire da
80 Hz. Andare più in alto con il filtro e trovare il punto in
cui viene eliminato il suono fangoso, pur sentendo ancora
che il suono dei bassi è percepito come un unico suono.
Quando la sorgente audio è mono è necessario creare
l’ampiezza stereo. Fai esattamente come nell’esempio
precedente ma, invece di rendere mono la parte bassa, si
possono rendere stereo le frequenze più alte aggiungendo
chorus o delay al canale sinistro o destro, aggiungendo un
sottile pitch shifting su entrambi i lati. Assicurarsi anche
che suoni bene in mono!
Inviare un breve reverbero al suono mono dei bassi e
filtrare tutto sotto i 200 Hz al send (uscita) del reverbero.

RITARDO
Se si desidera che una traccia sembri più grande, è
possibile utilizzare un delay stereo (di solito con tempi di
ritardo brevi).
Quando si desidera aggiungere depth (profondità) o
spostare qualcosa indietro nel mix, utilizzeremo un delay
mono con tempi di ritardo più lunghi.

REVERBERO
La maggior parte dei reverberi digitali sono in stereo di
default, quindi a meno che non si stia utilizzando un plate
reverb, spring reverb o un real chamber, probabilmente
non c’è bisogno di preoccuparsi di rendere stereo il
ritorno del vostro reverbero.
Ci sono, tuttavia, alcune grandi applicazioni per
reverberi mono in un mix.
La prima domanda da porsi è: “Sto cercando di simulare
uno strumento che viene suonato in uno spazio reale?”
Se la risposta è sì, la scelta più logica è quella di
utilizzare un reverbero stereo in quanto è così che la
maggior parte degli esseri umani sentono negli spazi reali.
Per le sorgenti mono, come la voce, le chitarre e talvolta
la batteria, un reverbero mono, un plate reverb o uno
spring reverb possono essere ottimi per ottenere
profondità e, allo stesso tempo, limitare la quantità di
spazio che il reverbero occupa nel mix.
Qui ci sono due modi per aggiungere width (larghezza) a
un suono, utilizzando un reverbero mono o uno stereo.
Nel caso di un segnale mono è consigliabile nel canale L
il suono dry e nel canale R il suono wet.
Se il suono che si sta ricercando è centrale, usare un
reverbero stereo con un tempo di reverbero inferiore a un
secondo.
Un’altra applicazione cool utilizza un reverbero mono su
una sorgente stereo wide. Questo darà l’impressione di un
suono che va dai lati alle profondità del centro, un po’
come il suono che passa attraverso un imbuto.
Una cosa da tenere a mente quando si ascolta il mix in
mono è la posizione di ascolto. In una configurazione
stereo di solito non c’è diffusore centrale (rispetto a un
sistema surround in cui vi è un altoparlante mono tra i
diffusori anteriori sinistro e destro). Durante l’ascolto di
due diffusori nearfield, sentirete il suono che è identico in
entrambi i canali sinistro e destro e quindi gli altoparlanti
destro e sinistro vanno a formare il phantom center.
Che cos’è esattamente questo phantom center? È
qualcosa che il nostro cervello crea quando entrambe le
nostre orecchie raccolgono le stesse informazioni,
localizzando così la sorgente sonora dritto davanti a noi (o
in alternativa sopra o dietro di noi).
Il problema è che la stanza e la posizione di ascolto con
ogni probabilità non sono perfetti. Avrete riflessioni del
suono da un altoparlante che sono diverse dalle riflessioni
sonore provenienti dall’altro.
Nell’ascolto in stereo ci si potrebbe ritrovare fuori
dall’hot spot, quindi più vicini a una delle due casse e
incappare così in problematiche di controfase; l’ascolto in
mono annulla alla radice tale rischio.
La prossima volta provate sommando in mono il segnale
stereo e spegnendo uno degli altoparlanti. Verificate se
riuscite a sentire le cose più chiaramente.

OTTENERE UN MIX PIÙ AMPIO CON TRACCE MONO


Molti preset dei synth sono stereo solo grazie al chorus o
ad altri effetti. A meno che questi effetti non siano una
parte fondamentale del suono, è probabile che non ci
siano importanti informazioni stereo.
Avere molti di questi tipi di suoni può causare un mix
confuso anziché ampio e focalizzato.
La disattivazione degli effetti stereo e pan nei synth ai
lati opposti può rendere il vostro mix più ampio e allo
stesso tempo lasciare più spazio al centro ai vostri kick,
bass e voice che necessitano di spazio per possedere
definizione.
Per far suonare meglio il vostro synth, inviarne una parte
tramite aux send a un reverbero con breve delay (meno di
100 ms) e feedback zero, quindi spostare la pista aux sul
lato opposto.
Se non si dispone di un gran numero di synth nel mix, o
se ne ha solo uno, si può provare a copiare il MIDI per
una nuova traccia e scegliere un suono di synth diverso e
spostarlo al lato opposto.

PANORAMICA DEI VOSTRI MIX PREFERITI


L’utilizzo di una matrice mid-side come 0 permette di
convertire i canali di una traccia stereo da left and right
(sinistra e destra) in middle and side (centrale e laterale).
Ascoltare il canale laterale vi permetterà di sentire solo
le informazioni che differiscono nel canale destro e
sinistro. Questo significa che si sente quello che viene
lateralmente, ma non è presente nel centro.
Se si ascolta un mix commerciale in questo modo, è
possibile ascoltare cose interessanti riguardo le scelte fatte
nella produzione e mixare ciò che altrimenti potrebbe
essere difficile da distinguere.
Ad esempio sono il kick e il bass totalmente mono (cioè
non presenti nel canale side) o si sente un leggero
reverbero, un chorus ecc.? Sono raddoppiate le voci?
Ascoltare gli effetti utilizzati sui cori, a volte possono
essere abbastanza estremi, ma difficili da individuare in
un mix completo.

MIDDLE GROUND
Sia il mono sia lo stereo non devono quasi mai essere
assoluti. Vi sono misure intermedie, più o meno stereo.
Se volete mantenere un suono stereo, ma non si vuole
prendere troppo spazio nel mix, vi sono alcune alternative.
Alcuni plug-in, consentono di regolare l’ampiezza stereo
in percentuale. A volte è sufficiente avere il 40%
dell’ampiezza stereo, o anche meno, e ottenere il suono
che si desidera, ma con un ingombro inferiore nel campo
stereo.
Un altro modo è quello di utilizzare un EQ che permette
di regolare il mid e il side in maniera indipendente.
È inoltre possibile utilizzare un filtro shelving o un low
cut filter per attenuare le informazioni del basso nel
proprio canale side, mantenendo così la maggior parte
dell’energia del suono al centro.
Potete anche provare a incrementare gli acuti nei canali
side per rendere l’immagine stereo più ampia.
Per il sound design, le possibilità sono (come al solito)
senza fine.

FASE DI CANCELLAZIONE
La lavorazione stereo spesso può creare problemi con la
cancellazione di fase.
Quando si sommano due istanze della stessa frequenza,
ci si potrebbe aspettare di ottenere una versione più forte
di quella frequenza, altre volte, invece, si otterrà una
versione più tranquilla di quella frequenza, o anche
silenzio. La cancellazione di fase ha due conseguenze: in
primo luogo si rovinerà il suono in stereo privandolo della
sua potenza; in secondo luogo il suono diventa più
silenzioso, fino a scomparire, quando il mix si riassume in
mono. Se si utilizzano suoni stereo, è buona norma
ascoltare periodicamente il vostro mix in mono, per
verificare che non ci siano grossi problemi con la
cancellazione di fase.

APPENDICE 9.1
TRUE PANNING
Il vero panning sarebbe quanto il segnale audio da un
lato viene realmente spostato verso l’altro lato.

UNA TRACCIA DUAL MONO


La realtà è una traccia a due canali che ha esattamente lo
stesso segnale audio (dual mono). Dal momento che
entrambi i lati, destro e sinistro, sono identici (cloni l’uno
dell’altro), il suono complessivo sarà quindi identificabile
come mono.

TRACCIA STEREO
Una traccia stereo è un segnale audio avente il segnale
destro diverso dal segnale audio sinistro.

PANORAMA
Quasi tutte le operazioni di pan che noi facciamo,
usando la manipolazione del volume per dare l’illusione
che il suono audio sia in movimento da una parte all’altra,
non è davvero pan, dal momento che nulla è realmente
spostato. La panoramica si gestisce con il balance e
utilizza la manipolazione del volume per simulare il
movimento, non funzionerà allo stesso modo per una
traccia stereo che ha due segnali audio diversi.
Questo tipo di pan, che utilizza la manipolazione del
volume, non creerà l’illusione del movimento quando
verrà utilizzato su una traccia stereo, agendo solo come un
bilanciamento del volume.
APPENDICE 9.2

COME GESTIRE UNA MATRICE MID-SIDE IN PRO TOOLS

La matrice Mid-Side (MS) è una tecnica utilizzata


prevalentemente in fase di mastering ma che può anche
rivelarsi utile durante il mix.
Il suo funzionamento si basa sulla somma tra un segnale
mono centrale (Mid) e una sua componente
complementare stereo la cui fase tra il canale sinistro e
quello destro è pari a 180 gradi (cioè contro-fase).
Prima di mostrare come si crea una matrice MS in
ProTools è essenziale far capire le potenzialità di questa
tecnica.
Alcuni strumenti in fase di missaggio vengono il 99%
delle volte posizionati al centro esatto del panorama
stereofonico: fra questi voice, bass, kick, snare. Questi 4
elementi sono fra le componenti più importanti nel mix e
nell’arrangiamento.
Al contrario, ciò che nella maggior parte dei casi viene
esteso nella stereofonia sono gli ambienti (reverberi),
effetti, plate, guitars, pad.
Per mezzo della separazione tra Mid e Side noi possiamo
intervenire esclusivamente sul mono centrale del mix
lasciando inalterata la componente Side che è quella
responsabile della stereofonia.
Ecco quindi che possiamo, seguendo l’esempio sopra
proposto, intervenire con un compressore multibanda solo
sul canale Mid, regolandolo in modo tale da ridurre la
dinamica della sola kick e, allo stesso tempo, lavorare in
guadagno con un equalizzatore sulle medie frequenze per
far risaltare meglio la voice.
Questo è solo uno dei tanti possibili campi di
applicazione, altri esempi possono essere:

ampliare la stereofonia quando un mix appare


troppo “monofonico”;
comprimere il canale Side per far risaltare
maggiormente gli ambienti e i reverberi;
automatizzare i pan del canale Side in modo tale
da creare un’apertura tra le strofe e i ritornelli.

Prendiamo il bus stereo di una batteria, creiamo una


matrice MS e proviamo a comprimere ed equalizzare le
due componenti in modo differente.
Partendo da una traccia STEREO denominata
“originale”, creiamo due duplicati di essa (ALT–SHIFT–
D) e nominiamoli uno MID e l’altro SIDE. Portiamo i
loro fader a -6 dB.
Sulla traccia SIDE carichiamo un plug-in capace di
invertire la fase, ad esempio Trim di Pro Tools (si trova
sotto la categoria Multi-mono –> Other). Disattiviamo il
Master Link attraverso il pulsante a forma di catenina in
alto a destra, scegliamo il canale “R” dal menu a tendina
sottostante e attiviamo l’inversione di fase (vedi figura).
Inviamo il canale MID al Bus 1 e il canale SIDE al Bus
2.

A questo punto creiamo 4 tracce aux mono e


nominiamole MID L, MID R, SIDE +, SIDE -.
a MID L assegniamo l’ingresso Bus 1
a MID R assegniamo l’ingresso Bus 3
a SIDE + assegniamo l’ingresso Bus 2
a SIDE - assegniamo l’ingresso Bus 4

Sul canale MID L apriamo un send “Bus 3” con fader a


0 dB.
Sul canale SIDE + apriamo un send “Bus 4” con fader a
0 dB.
Sul canale SIDE - attiviamo l’inversione di fase, sempre
con il plug-in Trim.
Apriamo i pan dei canali MID e dei canali SIDE.
Attiviamo il “Solo Safe” sui 4 canali ausiliari creati
(basta cliccare sul tasto SOLO tenendo premuto MELA)
La situazione sullo schermo dovrebbe essere come
quella in figura.
Adesso agendo sui canali MID e SIDE possiamo variare
il rapporto oppure intervenire con compressori,
equalizzatori e quant’altro. Inoltre abbiamo sempre il
canale “originale” col quale confrontare fra prima e dopo
l’intervento!
10. Il reverbero

L’aggiunta di reverbero ai diversi elementi del vostro


mix può avere un impatto immediato e ovvio. Ecco una
lista di suggerimenti di mix e le tecniche che è possibile
utilizzare con qualsiasi processore di reverbero.

La scelta di programma di reverbero per il mix


La scelta di un programma di reverbero determina una
visione. La scelta può essere un compito arduo, perché i
processori di reverbero sono dotati di centinaia di opzioni
modificabili, che vi offrono infinite possibilità. È bene
pensare prima in che tipo di spazio si vogliono mettere gli
elementi. Ad esempio, uno spazio realistico, un
programma di risposta impulsiva di una vera e propria
sala da concerto, ecc.
O, forse, qualcosa di completamente unico.

IMPOSTAZIONE DEI LIVELLI DI REVERBERO NEL MIX


C’è un punto in cui un reverbero inizierà a sorpassare il
mix: quando viene alzato troppo e i suoni perdono la loro
definizione; lo si può comunque volere per alcuni
elementi.
Variare la quantità di reverbero da un elemento all’altro
aiuta a migliorare la profondità del mix, creando
l’illusione che alcuni elementi siano più lontani (cioè
l’ascoltatore intende sentire più lo spazio che l’elemento,
e meno l’elemento stesso).
Se il mix è troppo wet manca l’impatto.
I livelli di reverbero possono accumularsi quando si fa il
mix, e può essere facile assuefarsene perché ha un effetto
dolcificante che può creare dipendenza.
La cosa migliore da fare è monitorare, valutare,
monitorare e rivalutare spesso. Anche restare un po’ di
tempo lontano dal mix sarà di aiuto, in modo che le
orecchie possano ripristinare se stesse. Se si è in dubbio,
considerare di creare il reverbero su ogni elemento del
mix, e quindi portarlo un po’ indietro. Nel rivisitare il mix
il giorno dopo, si percepirà subito se alcuni elementi
hanno bisogno di più o meno reverbero, il che renderà un
po’ più facile sapere che cosa non va.

IMPOSTAZIONE DEL PRE-DELAY


Il pre-delay viene facilmente trascurato da molti
processori, perché è spesso preimpostato. Si tratta di un
piccolo ritardo che viene inserito prima che l’effetto di
reverbero cominci a separare un po’ l’elemento mix dal
reverbero.

Un valore di pre-delay di 10 ms significa che il


reverbero inizierà 10 ms dopo tutto ciò che passa
attraverso il reverbero.
Se il programma di reverbero non dispone di un
ambiente pre-delay e se ne sente la necessità, è possibile
inserire un delay prima che il reverbero crei un breve
ritardo di durata.
Il pre-delay contribuisce al senso di dimensione e
profondità del mix, creando l’illusione di elementi di
posizionamento mix nello spazio, rispetto a chi ascolta.
Un pre-delay più breve creerà l’illusione che l’elemento
mix sia più vicino all’ascoltatore, creando l’illusione che
sia più vicino alla parte anteriore del mix, rispetto ad altri
elementi del mix.
Un pre-delay più lungo favorirà l’immersione
dell’elemento mix nel reverbero, contribuendo a spingere
il tutto più indietro nel vostro mix.
È possibile impostare i tempi di pre-delay basati sul
tempo del brano, in modo che siano in the pocket (in
tempo) con il ritmo. Ad esempio, se la canzone è di 120
battiti al minuto (bpm), una nota di 32° è poco più di 31
ms, e una nota di 64° è 15.6 ms. Pertanto, 8, 15 o 30 ms di
pre-delay potrebbero essere dei buoni punti di partenza
per quel tempo, a seconda degli elementi mix della
canzone e a seconda di quanto vicino/lontano vogliamo
stiano nel mix.
I pre-delay possono essere più o meno evidenti a
seconda di come è l’elemento percussivo del mix. Ad
esempio, è possibile notare facilmente un 20 ms di pre-
delay su un loop, ma meno su elementi con un tempo di
attacco molto lento.
L’impostazione del pre-delay si basa molto sull’ascolto
e, con un monitoraggio costante di ciò che si sta
ascoltando, il pre-delay fa il carattere dell’elemento mix
nel mix. La chiave da ricordare è che più lungo è il pre-
delay più lontano suona il mix rispetto agli altri elementi.

REGOLARE LE PRIME RIFLESSIONI


Il nostro cervello valuta le prime riflessioni per
determinare quanto grande sia uno spazio. Una grande
quantità di riflessioni molto brevi e dense creerà il senso
di una piccola camera.
A volte, è possibile ridurre o eliminare le prime
riflessioni, se si vuole creare un reverbero molto chiaro
con particolare riguardo alle riflessioni successive più
evidenti. Se si cerca un suono molto intimo, si mettono in
evidenza le prime riflessioni per creare il suono in un
piccolo spazio. Le prime riflessioni vale la pena
sperimentarle, e ancora una volta è necessario basarsi
molto sulla propria visione.

IMPOSTARE LA RELEASE NEL MIX


Impostare i tempi di decay (decadimento) del reverbero
secondo il tempo del brano, può aiutare a ridurre al
minimo la congestione, la poltiglia e il fango nel mix.
Il tempo di decadimento dipende da quanto è denso il
mix; per esempio, se sto usando un programma di
reverbero più lungo su un brano lento, è necessario
mettere il decadimento di una mezza misura (1.000 ms
per 120 bpm) per un reverbero medio, o da 1 a 2 misure
per un reverbero lungo. Non esiste una regola ferma e
veloce.

UTILIZZARE UN EQUALIZZAZIONE (EQ) CON REVERBERO


Si noti che questo suggerimento, vale solo se il
reverbero è inserito in parallelo, con il controllo wet/dry
impostati su 100% wet.
A seconda della situazione, è importante impostare un
reverbero con un passa basso. Ad esempio, su una chitarra
acustica si ottiene la luminosità della chitarra,
avvolgendola con un reverbero dal suono davvero buio
che contrasta piacevolmente il suono diretto. Tale effetto
di solito viene utilizzato per creare un suono ricco di
profondità e altezza. Altre volte l’opposto è utile per
equalizzare un reverbero al suono più brillante; su alcuni
tipi di percussioni viene utilizzato per rafforzare la
brillantezza del suono diretto.
Alcuni processori di reverbero possono suonare metallici
o stridenti se i transienti di frequenza medi o alti sono
troppo forti. Anche in questo caso, un low-pass filter o un
band-pass filter possono essere di grande aiuto.
Un rullante è un buon esempio in cui, a seconda di come
è stato suonato e registrato, ci saranno un sacco di suoni
sopra i 500 Hz, ma ci sarà anche un sacco di rumore al di
sotto dei 500 Hz, con molta energia fino sotto ai 100 Hz.
Per alcune situazioni può essere utile applicare solo il
reverbero per le parti più scure del tono del rullante.
L’applicazione di un filtro low-pass sul rullante può
dunque fare molto per modellare il suono. Se si utilizza
un reverbero low-pass, spesso è possibile spingere il
reverbero un po’ più alto su alcuni mix, fino a quando il
resto della fascia bassa del mix è abbastanza aperta. Un
reverbero scuro può davvero aiutare a definire una cornice
per alcuni elementi del mix.

L’UTILIZZO DI PIÙ PROGRAMMI DI REVERBERO NEL MIX


Può essere una grande idea utilizzare più di un tipo di
reverbero. Questo metodo funziona bene per brani
tradizionali stile pop/studio. Quando è necessario fare il
mix di una performance dal vivo, si tende a scegliere un
solo programma di reverbero, o forse 2 varianti dello
stesso programma, per esempio due delle stesse sale da
concerto, con e senza pre-delay.
Con la musica pop, a volte si desidera utilizzare diversi
tipi di reverbero nel mix, un reverbero plate sulla voce e
uno spring sulla chitarra elettrica. Non ci sono regole
veloci e rigide. È una buona idea avere una certa varietà,
ma avere troppa varietà porta l’ascoltatore a non cogliere
le sottigliezze del prodotto finale. Avere due o forse tre
diversi programmi di reverbero è un buon punto di
partenza. L’esempio di uso creativo lo si può trovare in
Another day in Paradise di Phil Collins (1989), dove le
variazioni tra strofe e ritornelli sono evidenziate dal tipo
di reverberazione.
Aggiungere un chorus stereo dopo un reverbero o anche
un leggero delay tra i canali destro e sinistro (da 10 a 20
ms) può essere efficace sui suoni pad o reverberi vocali,
perché può contribuire a creare un maggiore panorama
stereo.
La distortion prima o dopo un reverbero può essere
molto efficace sulle percussion, dove può davvero
contribuire ad aggiungere impatto al suono, e rendere il
suono del reverbero più presente.
Un expander può essere particolarmente utile alle
percussion o ad altri elementi altamente dinamici dando
poco o nessun reverbero sui passaggi silenziosi e molto
più reverbero sui colpi forti. Il gate può davvero aiutare
quando si stanno stratificando reverberi a breve e a lungo
decadimento sullo stesso elemento e si desidera
controllare come e quando vengono attivati, applicando
l’automazione nel return. È possibile scolpire il
decadimento nei punti chiave del brano in cui si desidera
farlo svanire più rapidamente o più lentamente, rispetto al
resto della canzone.

SHAPE, WIDTH, DENSITY, SPREAD


Tutte queste impostazioni dipendono fortemente dal mix,
perché il width (larghezza), per esempio, entrerà in gioco
se avete bisogno di qualcosa sul suono più lontano o più
mirato. Densità e diffusione si riferiscono più al carattere
generale del tipo di reverbero, spesso cambiando il
rapporto tra prime riflessioni e decadimento. Le
impostazioni di density (densità) in genere regolano la
quantità di riflessioni (più riflessioni = maggiore densità).
Questo può essere utile se avete bisogno di addensare un
reverbero. Lo shape (forma) è tipicamente la forma del
decadimento.
Il reverbero può anche essere percepito come una sorta
di collante che tiene tutti gli strumenti uniti assieme,
dando allo stesso tempo un senso di spazio e dimensione
al brano. Possiamo dire che il reverbero trasforma la
produzione da 2D a 3D! Purtroppo però non tutti i
reverberi sono creati uguali.
I PRINCIPALI TIPI DI REVERBERO
I reverberi possono essere anche detti room (stanze),
perchè a una grandezza diversa della stanza corrisponde
un reverbero diverso.

ROOM REVERB
I più generici. Questi tipi di reverbero simulano la
registrazione di un suono in una stanza grande o piccola
(a seconda delle impostazioni).

HALL REVERB
Ricco e corposo, questo reverbero simula il suono in una
grande sala.

PLATE REVERB
Utile per i vocal, crea un reverbero a partire da una
placca di metallo in cui è stato inviato il segnale sonoro e
registrato il suono di ritorno. Il risultato è un reverbero
chiaro e dal suono cristallino.
Oltre a questi esistono anche altri tipi di reverbero, come
lo spring o quello realizzato nelle camere echo.

REVERBERO INFINITO E ROVESCIATO


Può essere utilizzato come introduzione allo strumento
oppure come sottofondo a un brano.

REVERBERO E SIDECHAIN
Quando c’è la voce il reverbero è minimo, ma aumenta
esponenzialmente quando il vocal si ferma. È lo stesso
principio del reverbero sul basso.

RENDERE PIÙ AMPIO IL SOUND


È possibile inserire il reverbero sulle percussion, sugli
snare o su sample ed automatizzare l’aumento del
reverbero verso la fine di un brano, o subito prima di una
pausa in cui si fermano la maggior parte degli strumenti.

USARE IL PAN
Dare più risalto al reverbero su un lato del mix
(ovviamente per uno singolo strumento), potrebbe
restituire risultati interessanti.

AGGIUNGERE SPAZIO TRA IL REVERBERO ED IL SUONO


Dare un po’ di respiro al suono e non soffocarlo con
troppo reverbero. Aggiungere un po’ di pre-delay:
sposterà l’inizio del reverbero dei millisecondi desiderati.

UTILIZZARE IL SOLO DEL REVERBERO


Mandare il suono ad un canale con il reverbero e mettere
quest’ultimo in solo. Il risultato sarà di mettere in mute il
suono originario e di avere solo un reverbero che è
possibile usare come intro ad una strofa o ad una canzone
intera.

FARE IL MIX DI PIÙ REVERBERI


Mandare più reverberi ad uno stesso canale del mix ed
equalizzali e comprimerli assieme. I risultati potrebbero
essere sorprendenti!

NON USARE IL REVERBERO


A volte un suono senza reverbero può dare un ottimo
contrasto con il resto del brano.

SPERIMENTA
Il consiglio spesso è quello di sperimentare, provare
sempre cose nuove e non fasciarsi la testa per ottenere il
famoso suono realizzato da quel gruppo famoso.

LA DISPOSIZIONE STEREO
Il suono in una registrazione audio stereo può essere
visto come disposto in tre dimensioni,come il suono del
palcoscenico. Un suono di solito non occupa un solo
punto su uno di queste assi; piuttosto, è una bolla
tridimensionale nello spazio sonoro.
La X (larghezza) asse della scena sonora, è la posizione
stereo. La Y (altezza) è il passo, con i suoni più acuti che
compaiono più in alto nella scena sonora. L’asse Z
(profondità) è la distanza, con suoni più importanti che
appaiono più vicini alla parte anteriore della scena sonora.
Lo strumento più elementare per manipolare l’asse X
della scena sonora è il pan, da non confondere con il
balance (bilanciamento). Il pan può inviare un suono a
sinistra o a destra. È utile per fornire la separazione tra i
suoni che si sovrappongono nella gamma di frequenza.
Per ogni suono inviato ad un lato, è utile inviare un suono
simile in contenuto di frequenza all’altro lato.
Gli elementi principali della musica sono di norma tenuti
in centro (per la musica pop, significa la drum, bass e
voice).
Tutti gli elementi che contengono quantità significative
di frequenze bass e sub-bass dovrebbero normalmente
essere tenuti in centro, per diversi motivi. Le frequenze
basse sono di solito la parte più forte di un mix e se sono
stroncate da un lato, quel canale sarà significativamente
più forte dell’altro, riducendo l’equilibrio di volume del
mix. Durante la riproduzione attraverso gli altoparlanti è
difficile o impossibile localizzare le basse frequenze,
dunque il pan non sarà probabilmente notato. Durante la
riproduzione in cuffia, il pan sarà notato, e suonerà
estremamente innaturale.
Esiste anche l’effetto di auto-pan. Quando lo si applica
ad un suono, si causa la sua posizione panoramica
variabile rapidamente nel corso della traccia. L’auto-pan
può essere un bell’effetto orecchiabile, ma se usato con
parsimonia, perché può diventare molto fastidioso.
L’orecchio umano è stato addestrato, in milioni di anni di
evoluzione, a prestare particolare attenzione ai suoni che
sono in movimento, e l’auto-pan può distrarre
l’ascoltatore dal compito di ascoltare la musica.

DELAY
Un delay, nella sua forma più semplice, crea due copie
del segnale di ingresso, con il secondo compensato da un
intervallo di tempo fissato dal primo. I principali controlli
del delay sono:

TIME
Questo parametro controlla la durata del time offset.
Molti ritardi consentono di sincronizzare questo
parametro con il tempo della musica e di impostarlo alla
lunghezza di nota musicale. È possibile impostarlo ad un
valore che si sincronizza con il tempo.
DRY/WET
Questo parametro controlla l’equilibrio tra il volume
della traccia ritardata (wet) e quello originale (dry).

DECAY
Questo parametro controlla la lunghezza della coda del
reverbero. Un tempo di reverbero di circa 1 secondo
simula una stanza tipica. Un tempo di 2-3 secondi potrà
simulare una sala da concerto. Un tempo superiore,
purché massimo 7 secondi, potrà simulare spazi ancora
più reverberati come una grotta vuota o una cattedrale.
Tempi di reverbero molto al di là dei sette secondi,
raramente si trovano nel mondo reale.

PRE-DELAY
Questo parametro controlla il tempo di ritardo tra il
suono dry e l’arrivo delle prime riflessioni (wet). Più unità
di reverbero avanzate permettono spesso di controllare i
tempi e l’ampiezza delle prime riflessioni.
Ciò ha senso perché il suono avrà meno tempo per
colpire le pareti e tornare in uno spazio più piccolo
rispetto a uno spazio grande. Una stanza normale avrà
pre-delay sotto i 50 ms. Uno spazio grande potrà avere
pre-delay fino a 150 ms.
ROOM
Questo parametro controlla la densità delle riflessioni,
sia nelle primi riflessioni che nella coda. Una dimensione
più piccola creerà più densità, riflessioni meno
distanziate; una dimensione più grande della stanza creerà
riflessioni più distanziate. Ciò ha senso perché ci vuole
più tempo per il suono per viaggiare attraverso camere più
grandi e, pertanto, le riflessioni sono create con bassa
frequenza.
Gli oggetti e le superfici in una stanza, oltre a riflettere il
suono assorbiranno il suono. In particolare, le superfici
morbide sono note per assorbire le alte frequenze. La
maggior parte delle unità di reverbero avranno quindi
parametri per modificare la risposta in frequenza della
camera.

REVERBERO A CONVOLUZIONE
La sezione precedente si applica ai cosiddetti reverberi
algoritmici, che creano il reverbero tramite simulazioni
matematiche di camere. Negli ultimi anni una tecnica
diversa ha guadagnato popolarità per la simulazione di
reverbero, chiamata reverbero a convoluzione.
Il reverbero a convoluzione permette di raccogliere
l’acustica da qualsiasi spazio e simularla nel proprio
computer. È possibile utilizzare impulsi preregistrati da
svariati luoghi nel mondo o registrare la propria stanza.
Ci sono anche usi creativi per questo tipo di reverbero.
Per esempio, è possibile colpire una pentola o una padella
e utilizzare il suono come una risposta all’impulso; crearà
l’effetto di riproduzione di un suono nello spazio di una
cucina. Dovrete solo rinunciare a un fried egg (uovo
all’occhio di bue).

IL MIX CON IL REVERBERO


Il modo più comune per usare il reverbero è quello di
metterlo su un Aux Send e inviare piccole quantità di
suono dry su ogni traccia del mixer, per infondere ogni
suono con una piccola quantità di reverbero.
Generalmente, ogni suono deve avere una grande
quantità sufficiente di reverbero in modo tale che esso sia
udibile quando il suono viene riprodotto in solo, e una
piccola quantità sufficiente da renderlo udibile quando il
suono viene riprodotto nel mix. L’aggiunta di reverbero
per un suono aumenta anche il suo volume, quindi si
consiglia di disattivare l’audio del principale e livellare
verso il basso prima dell’aggiunta di reverbero.
Quando si utilizza il reverbero come descritto, non si
sentono code di reverbero durante la riproduzione del mix,
ma se si disattiva il canale di reverbero e poi si riattiva, si
sentirà un ampliamento dell’immagine stereo e un
miglioramento generale della qualità complessiva del
suono.
Kick e bass di solito dovrebbero avere solo una piccola
quantità di reverbero, perché il reverbero intorbidisce la
gamma bassa. In alternativa, si può mettere un filtro high-
pass prima del reverbero, in modo che il reverbero
riguardi solo le frequenze più elevate di questi suoni.
Non tutti i suoni devono avere reverbero. Spesso, anche
se un suono è dry, se ci sono altri suoni nella stessa
gamma di frequenza che hanno reverbero questo sarà
sufficiente per creare l’impressione di reverbero sul
suono. Pertanto, se si vuole un suono in primo piano, è
possibile lasciarlo in gran parte dry e far passare agli altri
suoni il reverbero. Un comune approccio è quello di
lasciare i drum e i suoni lead in gran parte dry, e gli
strumenti di fondo in wet.
Non si tema di usare più unità di reverbero, per esempio
due unità, una di loro con un decadimento breve a cui
mandare i drums, per riempirle e aiutare a legare insieme.
Un’altra a moderato o a lungo decadimento per tutto il
resto.
È inoltre possibile utilizzare le unità di reverbero
addizionali su misura, per lavorare bene con specifici
suoni importanti, come le voci o gli strumenti solisti. Ad
esempio, un lungo pre-delay può ridurre l’effetto di
mascheramento di reverbero su un suono, il quale
consente di mettere del reverbero su un suono lead
mantenendolo nella parte anteriore del mix.
Per situare correttamente gli strumenti nella vostra
camera, è necessario conoscere alcune semplici regole,
che possiamo riassumere così:
Per rimuovere lo strumento:

1. Ridurre il volume
2. Tagliare le frequenze alte
3. Tagliare le frequenze più alte, dei suoni in primo
piano
4. I suoni riflessioni vanno tenuti più bassi dei suoni
secchi
5. Il tempo di rilascio deve essere alto per avere una
coda al reverbero
6. Non usare l’enhancer
7.
Per avvicinarsi allo strumento:
8. Utilizzare exciter, sollevando il volume della zona
alta
9. La reverberazione deve essere avere i pan molto
estesi
10. La reverberazione deve avere un suono luminoso,
breve e asciutto
11. Il tempo di ritardo breve deve essere con un pan
ampio

Un’ulteriore fonte di un suono sarà data dalle frequenze


meno alte. In situazione di controllo mono, piccole
distanze rivelano alle orecchie sfasamenti nella zona delle
alte frequenze. È necessario trovare un equalizzatore per
rimuovere lo strumento in profondità, se un suono diventa
largo si muove in profondità, non abbiamo bisogno di EQ
lineare per i nostri scopi (profondità spaziale). Gli EQ
sono utilizzati per altre proprietà. Per esempio, essi sono
utilizzati per la correzione di frequenza senza influenzare
la disposizione spaziale.
Il panpot stereo, non va confuso con il regolatore di
balance, presente per esempio nei pre-amplificatori Hi-Fi.
Il panpot stereo ha la caratteristica di mantenere costante
il volume in uscita totale, non operando attenuazione sul
volume di ingresso, e ci permette di spostare un segnale di
ingresso, verso le due uscite totalmente.
Il balance invece, si applica ad un segnale stereo in
ingresso e non sposta le componenti L/R nelle posizioni
opposte, ma opera una attenuazione di ognuna delle due
mantenendole nel proprio campo.
Lavorando sull’equalizzazione delle prime riflessioni, si
può modificare la sensazione del materiale di cui è
rivestito l’ambiente stesso. Alcuni processori, hanno
librerie di preset, accompagnati, per facilitarne l’uso,
addirittura dalle fotografie degli ambienti a cui si
riferiscono.
11. Finalizzazione e
stabilizzazione del mix

Tutte le decisioni che prendiamo durante il mix si


basano sulla valutazione di ciò che sentiamo nella nostra
posizione di ascolto, altrimenti nota come hot spot. Ma i
mix possono suonare drasticamente diversi una volta che
lasciamo questo hot spot. Questi sono i principali casi:

DIFFUSORI DIVERSI POSSONO RIPRODURRE MIX DIVERSI


Ogni modello di diffusore, anche in combinazione con
l’amplificatore, ha la propria risposta in frequenza che
interessa anche la sonorità percepita. Durante l’ascolto su
un diverso insieme di altoparlanti, la voce potrebbe non
sembrare così forte e il charleston potrebbe risultare duro.
Diverse posizioni del monitor influenzano anche il suono
generale del mix, principalmente in relazione agli aspetti
dell’immagine stereo e della profondità.

I MIX SUONANO DIVERSAMENTE IN STANZE DIVERSE


Ogni stanza ha il proprio timbro sonoro, il quale colpisce
la musica suonata al suo interno. La risposta in frequenza,
che è affetta da entrambe le modalità di stanza e di comb
filter, è il fattore più importante, ma la risposta della
stanza (reverbero) svolge un ruolo importante.

I MIX SUONANO DIVERSAMENTE IN DIVERSI PUNTI DI UNA STESSA


STANZA

Entrambe le modalità di stanza e di comb filter alterano


la nostra percezione delle frequenze, mentre ci muoviamo
per la stanza. Un mix suonerà differentemente quando ci
troviamo accanto al muro e quando siamo invece in
mezzo alla stanza.

I MIX SUONANO DIVERSAMENTE A DIVERSI LIVELLI DI


RIPRODUZIONE

Molte persone hanno familiarità con la situazione in cui


il loro mix suona alla grande nel loro studio, ma si traduce
malamente quando viene riprodotto nella loro auto.
Sarebbe impossibile avere un mix che suoni uguale in
diversi ambienti di ascolto, per le ragioni sopra esposte.
Questo vale la pena di ripeterlo: i mix suonano molto
diversi in luoghi diversi.

La ragione per cui di solito è il novizio che deve passare


attraverso questa pratica, è che il veterano conosce il suo
ambiente di mix così bene che egli può predire quanto
bene il mix suonerà in altri luoghi.
Il processo di stabilizzazione del mix comporta di
ascoltare il mix in luoghi diversi. In base a ciò che
impariamo da questa pratica, possiamo finalizzare nostro
mix affinando alcuni dei suoi aspetti. Normalmente si
tratta del livello e dell’equalizzazione sui quali operare
con regolazioni fini.
Ecco come e dove i mix devono essere ascoltati durante
la fase di stabilizzazione:

LIVELLI BASSI
Più tranquillo è il livello, meno evidente diventa la
stanza e le eventuali carenze che abbraccia. L’ascolto
attento altera anche il volume percepito degli alti e dei
bassi, ed è sempre un buon segno se il bilanciamento del
livello relativo (RMS) del mix cambia poco facendo
suonare il mix a diversi livelli. L’ascolto a livelli elevati è
un’opzione, ma può essere discutibile che i mix suonino
meglio se suonati più forte.

OUT OF THE DOOR (A STANZA APERTA)


Molti trovano questa posizione di ascolto molto utile.
Durante l’ascolto alla sua apertura, la stanza diventa la
sorgente sonora, e invece di ascoltare il suono altamente
direzionale proveniente dagli altoparlanti, sentiamo le
riflessioni che provengono da molti punti della stanza.
Questo riduce molti problemi acustici causati dalla
camera stessa, per esempio il comb filter. La natura
monofonica di questa posizione è un ulteriore vantaggio.

AUTORADIO
Una macchina è un piccolo ambiente di ascolto
relativamente asciutto, che molte persone trovano
attraente. Allo stesso modo della stanza aperta, esso
fornisce un ambiente acustico molto diverso che può
rivelare problemi.

CUFFIE
Con i lettori mp3 arriva l’ importanza di controllare i
mix in cuffia. Le cuffie sacrificano alcuni aspetti
dell’immagine stereo e della profondità per l’assenza della
stanza e dunque delle sue riflessioni. Possiamo
considerare l’ascolto in cuffia come l’ascolto dei due
canali in isolamento, ed è un fatto noto che le cuffie
possono rivelare rumori, clic o altri tipi di problemi che
non sarebbero così evidenti nella riproduzione attraverso
gli altoparlanti. Il problema principale con le cuffie è che
la maggior parte di esse ha una risposta in frequenza
estremamente irregolare, con alti e bassi forti o deboli.
Pertanto, questi non sono considerati come uno strumento
di ascolto critico.

PUNTI SPECIFICI NELLA CAMERA


Il bilanciamento di livello del mix cambia mentre ci
muoviamo fuori dall’asse e fuori dalla distanza
ravvicinata del monitor. Ad un certo punto (la distanza
critica) le riflessioni combinate della stanza diventano più
forti del suono diretto. La maggior parte degli ascoltatori
finali ascoltano il mix esattamente in queste condizioni,
quindi è importante vedere cosa succede spostandosi
dall’hot spot.
La valutazione del mix, immergendosi in una di queste
modalità, può essere fuorviante se un avvertimento non
viene colto. Durante l’ascolto in un punto specifico della
stanza, potrebbe sembrare che il bass scompaia – con la
conseguente tentazione di aumentare il relativo livello del
mix.
Come possiamo allora fidarci di quello che sentiamo in
uno di questi luoghi? La risposta è che dovremmo
concentrarci su luoghi specifici e conoscere le
caratteristiche di ogni luogo. Solitamente, piuttosto che
esplorare la stanza, si valuta il proprio mix restando
esattamente nello stesso punto della stanza. Inoltre, la
riproduzione di una traccia familiare di riferimento per
vedere come reagisce la stanza in ciascuno di questi
luoghi è un ottimo modo per imparare la natura sonora del
luogo di lavoro.
Durante l’ascolto del mix in luoghi diversi, sarebbe
saggio annotarsi i necessari aggiustamenti e solo allora
tornare al mix. In alcuni casi, i commenti si annullano
reciprocamente. Per esempio, se durante l’uso delle cuffie
sembra che i piatti siano troppo duri, ma quando si ascolta
in apertura sala suonano sordi, probabilmente nulla deve
essere regolato.
L’ascolto in questi diversi luoghi non è riservato per la
stabilizzazione del mix finale. Può anche essere utile in
altre fasi del processo di mix, soprattutto quando le
decisioni sembrano difficili da prendere.
Quanto tempo ci vuole a compiere tutte le valutazioni fin
qui descritte?
Il lato B di una versione commerciale può essere mixato
in appena tre ore. Il primo singolo di un album, potrebbe
richiedere sei giorni. In generale, per una release normale
non sembrerebbe strano trascorrere un giorno o due per
ogni canzone, perciò gli album sono molto spesso mixati
entro circa tre settimane. Per Nevermind dei Nirvana, ad
esempio, ci sono voluti circa 14 giorni.
La complessità della pista è un fattore considerevole.
Una produzione di 24 tracce, che ha una struttura
semplice e coinvolge un gruppo rock di cinque elementi,
dovrebbe prendere sensibilmente meno tempo rispetto a
una produzione di 72 tracce con molte sezioni diverse.
La qualità della registrazione influisce sul tempo di
lavorazione. Registrazioni di bassa qualità portano
l’ingegnere a fissare le registrazioni piuttosto che
addentrarsi creativamente al mix vero e proprio.
Vi è una differenza tra il mix in uno studio commerciale
e il mix in casa: i tecnici del suono sono normalmente
limitati da scadenze. Può essere fatto un mix in due
settimane quando dovrebbe essere fatto in un mese? La
risposta è: “molto”. Molti ingegneri concordano con il
fatto che il mix è un processo senza fine; c’è sempre
qualcosa da migliorare nella pressoché sterminata
possibilità di precisare i vari elementi. Per molti tutto sta
nel saltare dalla giostra al momento giusto.
È anche importante ricordare che, a differenza del
veterano, il novizio sta attraversando il percorso di un
viaggio di apprendimento lungo e intenso; mentre il
veterano è fluente con la sua attrezzatura e il suo ambiente
di lavoro, il novizio ha una quantità enorme di conoscenze
da acquisire. Il veterano può scegliere e comprimere la
voce solista in una manciata di secondi, Il novizio
potrebbe dover trascorrere del tempo passando attraverso
diversi compressori.
Ma c’è qualcosa di magico nell’essere un novizio.
Riuscire nell’apprendimento può dare grandi
soddisfazioni. Per il veterano, il mix è una professione, un
lavoro quotidiano che potrebbe comportare progetti di cui
non è appassionato, composto da impegni e fastidiosi
clienti. Ma la bellezza del mix è che ogni progetto
differisce dall’altro.
Un veterano mentirebbe se dicesse che non c’è nulla da
imparare, anche dopo anni e anni di mix. Ebbene sì, dopo
30 anni di mestiere c’è ancora molto da imparare.
Anche quando i livelli di monitoraggio sono tenuti bassi,
il cervello può stancarsi semplicemente dopo un lungo
periodo di ascolto attivo e attento. Per fortuna, con il
tempo, il nostro cervello si esercita a gestire periodi più
lunghi di mix, e sessioni di mix di 18 ore divengono di
facile gestione.
Il mix comporta per il cervello un affaticamento acustico
importante, poiché richiede un ascolto attento, che può
essere difficile da mantenere per lunghi periodi senza
interruzioni. Le pause aiutano a dimenticare azioni recenti
di mix, le quali forniscono l’opportunità di spostare il mix
in avanti. Dopo una pausa vi è anche l’occasione per far
scendere il livello di monitoraggio nel caso sia stato alzato
in precedenza. Farlo dopo una pausa sembra più facile che
alzare il livello nel mezzo del processo.
Probabilmente, la rottura più importante per il debuttante
è la rottura critica. Un giorno o due senza ascoltare il mix
dopo averlo completato. Una pausa così lunga può
cancellare la nostra mente da trattamenti individuali e da
elementi che per abitudine non eravamo più in grado di
percepire. In questo modo, la prossima volta che
ascoltiamo il mix lo facciamo senza alcun pregiudizio
sonoro.
UTILIZZANDO I SOLO
Con i pulsanti solo ascoltiamo in isolamento le tracce
specifiche. La funzione solo può essere facilmente
abusata, soprattutto da parte del novizio che potrebbe
passare troppo tempo a mixare le tracce isolate. Abbiamo
già stabilito che il mix è un composto di tracce e come tale
può essere utile adottare un approccio misto, in
prospettiva del risultato finale. Utilizzare i solo comporta
esattamente il contrario, in quanto promuove un approccio
al singolo elemento. Senza dubbio, i solo di una traccia
apportano modifiche più facili da discernere, ma rimane
anche il dubbio che tali modifiche portino fuori contesto il
mix.
Uno dei problemi nell’utilizzo dei solo è che si perde un
riferimento al mix. Un esempio già dato è la compressione
della voce in solo, equilibrata in modo isolato, ma non nel
resto del mix.
Molto utile è mettere in solo alcune sezioni, in modo da
iniziare ad avere dei riferimenti. Ma, come gli altri
strumenti possono influenzare il volume percepito delle
parti vocali, solo comprimendoli con il resto del mix si
garantisce una compressione solida.
Ci sono situazioni in cui l’utilizzo del solo è molto
delicato, come quando si cerca di filtrare il ronzio da una
traccia di chitarra. È difficile concentrarsi su un
componente molto specifico del suono mentre suona
l’intero mix, come ad esempio la frequenza di risonanza di
uno snare. Anche se può essere utile cercare tale
frequenza mentre lo snare è in solo, non ha alcun senso
mantenerlo una volta trovata la frequenza in questione.
Tuttavia, i solo devono essere utilizzati ogni volta che
manipoliamo dei suoni in rapporto a se stessi. Ad
esempio, durante l’applicazione di automazione EQ sulla
voce, per bilanciare variazioni di frequenza causate
dall’effetto di prossimità.
Il solo deve essere usato con cautela poiché promuove
un approccio alla prospettiva dell’elemento.

IL BOUNCE
Il bounce è il processo di registrazione del mix o sub mix
(mix di una o più tracce, ma non l’intero mix).
Con una configurazione basata su una console digitale,
questo può essere fatto per liberare canali sulla scrivania,
come se in una situazione in cui è utilizzato un
registratore multitraccia digitale non ci fossero più tracce
disponibili sul registratore di canali sulla scrivania del
computer.
A volte elaboriamo più di una traccia dello stesso pezzo
con outboard (dispositivi esterni). Ad esempio, potremmo
voler comprimere sia il kick sia lo snare con lo stesso
compressore mono; duplicare il kick compresso senza
l’utilizzo del compressore in modo che possa essere
utilizzato per il rullante. Il sub mix contenente i bounce
comporta dei bus di bounce associati. Ogni volta che
viene fatto il bounce su una scrivania, vale la pena
ricordare di riempire un foglio di richiamo o salvare il mix
utilizzando un sistema di richiamo, in modo che possa
essere richiamata successivamente se sono necessarie
modifiche.
Diverse applicazioni forniscono diverse opzioni nella
loro finestra di bounce. Ecco alcune opzioni da prendere
in considerazione:

Tipo di file. File WAV sono di solito la scelta


migliore in quanto questi sono ampiamente
supportati su entrambe le piattaforme PC e MAC.
I file WAV possono essere a tempo timbrato (in
questo caso sono indicati come BWF Broadcast
Wave Format), utile quando si trasferiscono
progetti tra le diverse applicazioni o i file AIFF –
la migliore come definizione.
La profondità di bit. La maggior parte delle
applicazioni utilizzano 32 bit float, che è più o
meno equivalente in termini di qualità a 24 bit
integer, per evitare di arrotondare i valori del
segnale.
Frequenza di campionamento. Questa dovrebbe
sempre essere identica alla frequenza di
campionamento del progetto.
Formato file. Le due opzioni importanti sono o
multiple-mono o stereo-interleaved.

Multiple-mono significa che un file stereo viene


memorizzato in due file mono con una rispettiva
estensione L ed R (ad esempio, Drumix.L.wav e
Drumix.R.wav).
Stereo-interleaved significa che un file stereo viene
memorizzato come un singolo file stereo (ad esempio,
Drumix.st.wav).
Internamente, ogni applicazione separa un file stereo-
interleaved nei canali SX e DX, che si traduce in un
piccolo sovraccarico di elaborazione, ma rende ogni
ulteriore trasformazione più veloce e maneggevole. Pro
Tools invece di fare questa conversione in tempo reale
ogni volta che un file stereo-interleaved viene riprodotto,
lo fa una volta (offline) quando i file vengono importati
nella sessione; questo consente di risparmiare il piccolo
carico di elaborazione in tempo reale, ma si traduce in file
di ridondanza che raddoppia lo spazio su disco. Potrebbe
sembrare logico fare bounce utilizzando il formato
multiple-mono, ma in questo modo si hanno due problemi.
In primo luogo si traduce in più file disordinati e in
secondo luogo non tutte le applicazioni supportano questo
formato. La raccomandazione generale è quella di
utilizzare il formato stereo-interleaved, a meno che non si
traduca in ridondanza, come nel caso di Pro Tools.
Per il bounce del mix finale di solito si utilizza il formato
di destinazione. Ad esempio, se il file deve essere
masterizzato su un CD audio, normalmente si realizza un
bounce a 16 bit, 44.1 kHz, stereo-interleaved. Ma se il
mix finale deve successivamente essere lavorato, ad
esempio, per il master, è sempre meglio lasciare qualsiasi
conversione di bit o di frequenza di campionamento per la
fase di master, dal momento che gli ingegneri di master
dispongono di strumenti migliori per tali conversioni. A
24 bit, 88.2 kHz il progetto ha un bounce migliore con le
stesse velocità in bit e di campionamento, ma con il
formato stereo-interleaved più standard.

I PROBLEMI DEL BOUNCE


Quello che sembra un processo semplice richiede di
fatto un po’ di scienza, dove un errore superficiale può
tradursi in perdita di qualità: ad esempio, compiere il
bounce senza prima controllare i livelli, cioè utilizzando i
livelli di mix esistenti piuttosto di quelli ottimali. Ad
esempio, se si effettua un bounce a una traccia specifica di
keys con un livello di -5 dB e il fader impostato su -15
dB, si finisce con una versione di bounce che ha il suo
picco a -20 dB. Questi -20 dB di gamma dinamica
inutilizzati sono il risultato del rapporto di picco nel
dominio digitale, ovvero il rapporto segnale-rumore
(SNR), che pregiudica la qualità del segnale analogico.
Un altro problema in tali circostanze è fare il bounce con
i fader non a 0 dB, in tal modo mantengo i livelli di mix
originali. Ciò significa che il fader può acquisire
guadagno in più (diciamo 10 dB) nel passaggio analogico.
Si potrebbe pensare che nel dominio digitale possiamo
normalizzare la pista di bounce. La normalizzazione è un
processo in cui avviene il declassamento SNR rimanendo
uguale a se stesso, ma sono introdotti o distorsioni o
dither. Un possibile scenario opposto implica che il
segnale sia troppo alto di livello, nel qual caso abbiamo
un clip nel bounce e potrebbe essere introdotta della
distorsione. Come regola generale vogliamo sempre il
nostro materiale registrato a livelli ottimali e così i bounce
delle tracce.
Dovrebbe essere chiaro a questo punto che prima del
bounce dobbiamo osservare il livello del materiale da
lavorare e, se necessario, regolare di conseguenza. Questo
ci aiuta a determinare la variazione del guadagno richiesto
che porterà il livello ottimale. Il livello ottimale è il più
alto livello possibile senza clip o distorsione. Nel dominio
analogico, i segnali possono essere spinti oltre lo 0 dBFS,
pertanto la definizione di livello ottimale non è rigida
come nel digitale, pur rimanendo un valore standard oltre
il quale gli effetti indesiderati diventano evidenti. Nel
dominio digitale, il livello ottimale è strettamente 0 dBFS,
anche se spesso è meglio mantenere un margine di
sicurezza di 6 dB (cioè, peak a -6 dBFS). La funzione
peak-hold (segnalazione del picco massimo), che è
disponibile sulla maggior parte dei contatori digitali, è
estremamente utile in queste situazioni. Essa ci permette
di determinare l’esatta quantità di cambiamento di
guadagno subito dopo il primo ascolto.
Nel regno dei mixer digitali è più concessivo fare il
bounce, perché l’audio digitale non comporta componenti
estremamente rumorosi, se non plug-in che simulano il
rumore analogico.
Sullo stesso principio di mix bounce, quando le singole
tracce stereo sono sommate, spesso soffrono di ampiezza
stereo limitata o spostata, in quanto sono sommate con il
pan ovunque. In caso di somma di tracce di sintetizzatore,
la stessa ampiezza stereo limitata, può essere il risultato di
un controllo di pan-spread non impostato a pieno (come
un all’unisono pan-spread impostato al 50%). Le tracce
stereo che non sono sommate con l’utilizzo dei fade-in e
fade-out limitano la capacità del tecnico di di controllo gli
aspetti stereofonici.
Vale la pena ricordare che la maggior parte degli effetti
basati sul tempo richiederà più tempo a svanire, se la
somma è limitata alla gamma originale di tempo, i
reverberi e i ritardi potrebbero tagliarsi bruscamente.
Un ultimo problema potrebbe risultare l’introduzione di
dither nella traccia finale dovuta alla somma e al
ricalcolo. Per evitare questo si può utilizzare al posto del
bounce digitale un sommatore analogico.
12. Come riconoscere un
audiofilo

Audiofilo significa etimologicamente “amante


dell’audio” e si riferisce a colui che ricerca la qualità della
riproduzione di un evento sonoro quanto più reale
possibile. Attorno al mondo dell’Alta Fedeltà riconoscere
il vero audiofilo può essere impresa tutt’altro che facile.
Si possono individuare approssimativamente alcune
categorie di audiofilo, da leggere non senza una certa
ironia.

L’ESPERTO
È colui il quale crede di essere esperto di qualsiasi cosa,
spesso ha una formazione scientifica e normalmente non
ascolta consigli da nessuno.
Per lui un amplificatore deve avere una buona potenza
(meglio se 100 Watts/canale), le casse almeno tre vie, un
woofer da 25’’ e una potenza almeno tripla a quella
dell’amplificatore, così non si rompono. La sorgente deve
essere digitale perché suona meglio, i cavi e le altre
diavolerie le lascia agli psicopatici.
Quando vi fa sentire il suo impianto vi dice “senti che
bassi” e normalmente tiene il volume vergognosamente
alto, facendovi notare che è ancora a metà manopola e voi
tremate al pensiero che possa darvi una dimostrazione
pratica della potenza bruta del suo 100 Watts Stereo.
Ovviamente nel suo impianto non troverete che l’ultimo
modello della tal marca e voi in cuor vostro sperate, per il
bene dell’audio, che quel modello sia davvero l’ultimo.
Il lettore CD sarà economico perché gran parte della
spesa va sulle casse e anche perché i lettori CD suonano
matematicamente tutti uguali, a parte le facilities.
Nondimeno vi mostrerà i numeri delle riviste con i test
dei suoi apparecchi esibendo misure elettriche strabilianti
e ritrovati tecnici all’ultimo grido (il vostro).
Dischi in casa non ne avrà tanti e buona parte dei CD
saranno da edicola, a parte un paio di Karajan regalatigli
a Natale dalla fidanzata. Ovviamente i dischi in vinile li
ha già venduti tutti o sta per venderli con vostra immensa
gioia.
In casi come questi, ogni tentativo di recupero è
destinato a fallire, sia perché tali individui sono spesso
affetti da sordità inguaribile, sia perché, mai e poi mai,
riusciremo a fargli ascoltare i nostri consigli.
L’INESPERTO
Lo si riconosce subito: è ansioso, febbricitante, vaga
senza meta alla ricerca di informazioni. È un uomo senza
certezze.
Sa solo di non sapere (e questo è comunque un ottimo
punto di partenza) e qualsiasi cosa legata al mondo
dell’audio lo sgomenta e lo mette in crisi.
Teme che per poter acquistare un buon impianto sia
necessaria una laurea in ingegneria elettronica e tonnellate
di riviste specializzate.
Ritiene che l’audiofilo, quello vero, sia una creatura
mitologica per metà uomo e metà orecchie, con piedi a
punta conica e teflon per epidermide.
Appena trovatone uno, e superato lo sgomento iniziale,
gli si incolla come del Blu-Tack e cerca di carpirne le più
recondite conoscenze.
È facile preda di loschi individui della categoria
precedente, sempre a caccia di incerti da soggiogare con
la loro conoscenza universale.
Parimenti crede ciecamente ai vari guru del settore.
Compra a scatola chiusa i prodotti sui quali “l’Uomo del
Monte” di turno ha messo il proprio bollino blu.
L’opera di iniziazione con tali soggetti è piuttosto
semplice, se si riesce a non affogare nel mare delle mille
domande che sono soliti porre. Basta presentare i concetti
in modo semplice, evitando inutili tecnicismi e,
soprattutto, facendo ascoltare loro tanta buona musica ben
riprodotta.

IL FUTURISTA
Ve lo ritrovate a girare tra i vostri apparecchi
morbosamente incuriosito, ponendovi domande
imbarazzanti sui dati tecnici e sulle ultime novità del
settore.
Pretenderà risposte brevi a quesiti che richiedono anni di
spiegazioni (“ma è meglio due o tre vie…e perché non
sette?”), vorrà sentire l’impianto per due minuti al
massimo per poi sparare giudizi tanto incredibili da far
sregolare all’istante la puntina del vostro giradischi. In
realtà dell’audio non gli importa nulla, trovando in casa
un computer o una bici da corsa in titanio mostrerebbe lo
stesso morboso interesse.
Nei negozi e alle mostre lo riconoscete subito, fa tante
domande e si allontana col furgoncino colmo di depliants
e brochures che poi si studia con comodo a casa.
Cerca di capire tutto ciò che c’è di nuovo al mondo ma,
dovendo apprendere troppe cose, non ha il tempo per
soffermarsi ad apprezzarne una sola.
È un individuo senza futuro. Non cercate di redimerlo.
Se vi chiede consigli potete stare certi che non serviranno
a niente. Normalmente non possiede un impianto audio e
non ha alcuna intenzione di acquistarne uno. Non può
interessarsi davvero a qualcosa di concreto. L’audio per
lui è uno dei tanti fenomeni dal quale apprendere quelle
poche nozioni che fanno la sua felicità.

IL NOSTALGICO
Appassionato di vecchia data, possiede un impianto di
20/25 anni fa, poi, tra matrimonio, figli e il resto, la
passione ha lasciato il posto ad altre cose.
Ora che ha un po’ più di tempo libero da dedicare alla
sua vecchia passione mai sopita, riprende ad acquistare le
riviste specializzate e, naturalmente, viene colto da malore
da super-informazione.
Ai suoi tempi i marchi seri erano davvero pochi e si
poteva contare su alcune certezze assolute tipo Marantz,
Thorens, Bose, AR.
Ora l’offerta è sconfinata e pare che i marchi storici a cui
era legato non godano della reputazione incontestabile di
cui potevano vantarsi allora. Per non parlare di cavi e di
altre diavolerie. La reazione umana scontata è quasi
sempre la stessa: roba come ai miei tempi non ne fanno
proprio più. E non che abbia tutti i torti. Si vergogna di
descrivere il proprio impianto-cimelio che, a fronte di
tante novità, appare come un vero dinosauro.
Il nostalgico è un eccellente potenziale audiofilo: basta
fargli capire che nel mercato ci sono ancora realtà solide,
costruttori seri e apparecchi costruiti con criteri
ragionevoli a prezzi umani. Spiegargli che molte,
moltissime cose che il mercato ci propina sono fenomeni
di moda, niente più.
Occorre fargli sentire la buona musica e farlo avvicinare
poco per volta a quelle cose che lui considera follie (cavi
speciali, punte ecc.).
È un’ottima base di partenza poiché non c’è cultura
senza passato e questo è quantomai vero per l’audio. Non
si può ignorare l’importanza storica di costruttori come
Quad o Thorens, di prodotti che hanno contribuito in
modo sostanziale al progresso come il Linn Sondek o gli
amplificatori McIntosh, tanto per citare pochi esempi.
Troppo spesso mi capita di incontrare persone che
conoscono, almeno di nome, gli amplificatori Krell ma
che ignorano l’importanza di figure come Saul Marantz o
Peter Walker. I nostalgici hanno la grande fortuna di
avere memoria storica di ciò che l’audio è stato e questo li
può aiutare non poco a capire anche il mondo di oggi.
A chi non ha memoria storica perché troppo giovane,
consiglio di documentarsi, perché senza passato
potremmo non capire molte delle cose che succedono
oggi nel mondo dell’audio.
IL RICCO IGNORANTE
Lo conoscete tutti, è colui che entra nei negozi e dice di
voler acquistare un impianto stereo di qualità. Solitamente
ha budget molto alti (dell’ordine delle decine di milioni) e
una cultura musicale prossima allo zero. Non sa cosa deve
acquistare e si mette fiduciosamente nelle mani del
negoziante.
Non ascolta musica ma solo tre dischi speciali ben noti
per ottenere il massimo da un impianto audio.
Ovviamente fa sfoggio del suo mega-impianto non
appena gli si presenta l’occasione, specialmente quando
incontra appassionati veri da sbalordire facilmente.
È un personaggio difficilmente migliorabile, anzi,
andrebbe evitato perché grazie a tipi come lui l’audio è
diventato come la vediamo oggi: apparecchi dai costi
particolarmente alti, centinaia di marchi importati da ogni
angolo del mondo e corrispondente crisi del settore.
Se ne doveste incontrare uno, evitate di parlarci, sarebbe
tempo perso a meno che non abbiate anche voi un
impianto super costoso da contrapporgli.
Per l’ignorante, l’audio è il fine e non il mezzo, tanto che
non nutre alcun interesse verso la musica. È un po’ come
essere appassionati di strumenti musicali, acquistare uno
Steinway e utilizzarlo come elegante portafiori.
L’AUDIOFILO
L’audiofilo vero è un grande appassionato di musica. Per
questo motivo aspira a sentirla riprodotta nel migliore dei
modi, ovvero in quello più somigliante alla realtà.
Dall’impianto audio pretende la grande illusione,
l’inganno dei sensi, le stesse emozioni che regala la
musica dal vivo, quindi la dolcezza di una voce
femminile, l’impatto di un gruppo rock o di una grande
orchestra e la delicatezza degli arpeggi di una chitarra
classica.
Non è molto interessato alla tecnica fine a se stessa, i
watts, la distorsione, il jitter e chi più ne ha più ne metta.
Per lui l’importante è il fine, non il mezzo.
Come l’inesperto, egli non ha certezze, ma sa solo che
per giungere alla corretta riproduzione musicale le strade
da percorrere possono essere tante e molto diverse. Non
prende mai per oro colato ciò che altri gli dicono,
comprese le riviste specializzate, e vaglia tutto con le sue
orecchie e la sua esperienza.
Facilmente si innamora di apparecchi audio che, per un
motivo o per l’altro, gli regalano le emozioni che cerca.
Se ne trovate uno, fatevelo amico. E non fate caso al fatto
che è metà uomo e metà orecchie. Ma fate attenzione:
l’amore per la musica e l’Alta Fedeltà è fortemente
contagiosa.
DISCHI DI RIFERIMENTO
Ecco alcune incisioni e registrazioni particolarmente
utili, le quali, comunque, sono ormai patrimonio comune
di tutti gli audiofili in tutto il mondo:

Cantate Domino – Proprius. Disco di musica


sacra per grande coro e organo (più trombe in
qualche brano). Registrato in una cattedrale
dall’ottima acustica. Non eccellente dal punto di
vista timbrico, è comunque un ottimo banco di
prova per la riproduzione delle voci, sia corali che
soliste. Grande immagine tridimensionale, in
particolare eccellente l’altezza verticale. Utile per
testare la profondità della gamma bassa grazie
alla costante presenza della pedaliera dell’organo
a canne.
Sinfonia Fantastica – H. Berlioz – Reference
Recordings. Una delle migliori registrazioni oggi
disponibili di una grande orchestra sinfonica.
Dinamica ai massimi livelli, capace di mandare in
crisi moltissimi impianti. Percussioni e gamma
bassa semplicemente strepitose; difficile
desiderare di più.
Sheffield Track & Drum Record – Sheffield. Da
venti anni il riferimento assoluto per valutare
dinamica e impatto della musica elettrificata
(batteria, tastiere, basso, batteria, chitarra). I due
brani per sola batteria sono ancora insuperati
sebbene una certa ripresa a effetto snaturi un po’
l’equilibrio timbrico dello strumento. Dinamica
semplicemente esplosiva, buona immagine, da
suonare a volumi molto elevati.
Reference Jazz – Reference Recordings. Ottima
compilation di brani jazz eseguiti da vari artisti.
Musicalmente molto “ascoltabile” e vario, dal
punto di vista tecnico è ottimo per immagine,
dinamica e timbrica.
Sara K. Closer than they appear – Chesky
Records. Ottimi i dischi di Sara K, artista jazz di
fama internazionale. Incisioni in presa diretta di
voce e strumenti acustici, strepitose per
naturalezza, immagine e realismo.
Telarc Super Test CD – Telarc. Buon sampler.
Spazia dal classico all’opera e al jazz. Buone
incisioni di strumenti solisti, organo e
contrabbasso in particolare. Dinamica ed
estensione alle basse frequenze, da manuale.
Ludus Danielis – Fone’. Per gli amanti della
musica antica un capolavoro in termini di
immagine tridimensionale, senso d’ambienza e
dettaglio.

COSA RENDE BUONO UN MIX?


La musica è un campo soggettivo con molti principi
generali, ma poche regole fisse e di veloce realizzazione.
Le arti sono intrinsecamente per l’interpretazione,
tenendo in formato PCM i lavori, ecco un elenco di ciò
che bisogna provare a fare per raggiungere un buon
livello del prodotto finale.

RAGGIUNGERE IL SUONO “OUT OF THE WAY”


Al livello fondamentale, le registrazioni sono in ultima
analisi forme adulterate di una performance musicale. Il
fatto è che nulla equivale in realtà al suono nella stanza, e
quando iniziamo a mettere microfoni ai musicisti, il
misero risultato rigurgitato dai due altoparlanti cade
facilmente in un suono piatto.

IL RICONOSCIMENTO CHE IL MIX È UN MALE NECESSARIO


Qualcuno deve compensare tutto questo e ottenere il
suono di mezzo. Perché è davvero difficile godere di una
performance in cui la chitarra suona come se fosse sotto
una coperta e i suoni vocali come se il cantante stesse
masticando il cuscino in una bara dentro una caverna.
Non importa quanto buoni siano i cuscini o quanto buone
siano le prestazioni, il cattivo suono sta andando a
interferire con l’esperienza di chi ascolta.

RENDERE IL SUONO ESTREMAMENTE LARGO


Una volta che il suono è allontanato, il lavoro più
importante è fatto. Ora si vedrà il mix come mezzo
creativo. Mentre una registrazione non avrà mai il potere
e l’impatto di una performance dal vivo, le prestazioni del
suono registrato possono fare cose che non accadono in
natura. E questa è una bella cosa. Le registrazioni sono
cresciute nella propria arte grazie alla manipolazione che
si può effettuare. Siamo in grado di creare un suono che è
più grande della realtà. Questo avviene in molte forme:
dando al suono uno spazio più grande, creando elementi
più vivi rispetto alla realtà. Anche un buon sistema audio
contribuisce a plasmare i suoni e ad avere un forte impatto
percepito rispetto a quello naturale.
MIGLIORARE LA MUSICALITÀ
Questo è il livello che separa gli aspiranti ingegneri dagli
ingegneri ispirati. La capacità di aiutare la musica nel suo
insieme spesso si perde sulle band e sugli artisti che ne
hanno più bisogno. L’ingegnere sente una pre-produzione
e comincia a interpretare le intenzioni musicali. C’è una
miriade di mezzi in cui si può esprimere la musicalità
interpretata e successivamente aiutarla. Si può estrarre e
realizzare un mix dalla straordinaria e innovativa
musicalità anche a partire da un manico di scopa.

CAPIRE IL PROGETTO GENERALE DEL PEZZO


La musica non esiste in una scatola. Avere un
apprezzamento per la cultura della creazione delle persone
e l’ascolto della musica è fondamentale.
Questo non significa assolutamente adeguarsi all’estetica
del pubblico, ma sorprendere le loro aspettative. Ciò
significa non solo capire che cosa l’ascoltatore vuole, ma
anche perché e quali siano le loro aspettative dall’ascolto.

FARE IL TUTTO PER SERVIRE LA CANZONE


Il ruolo del mix è generalmente inteso come la sartoria
degli elementi all’interno della produzione. Tuttavia, la
fase di mix, è ancora una fase di produzione e, come tale,
c’è ancora tempo per l’aggiunta, la rimozione o il
cambiamento nella visione degli elementi.
Le cose che si sentono al meglio non sono
necessariamente le cose che suonano meglio. Mettere le
cose in equilibrio, lasciandole fangose o sottili,
eccessivamente reverberate o goffamente secche, possono
portare verso l’obiettivo principale: il successo della
canzone, inteso come scelta estetica.

CONCLUSIONE
Tutti questi livelli sono correlati. Non sono infatti fasi o
concetti distinti, ma gradi di maestria. Non sono stati
scelti questi livelli in modo casuale. Sono stati posti in
ordine di importanza primaria e difficoltà di padronanza.
Ci vuole una grande quantità di studio per raggiungere il
controllo, la pratica e la disciplina di un maestro dell’arte
del mix, quindi non abbiate paura mai di rivisitare le
fondamenta della vostra conoscenza durante il viaggio.
13. I dieci comandamenti del mix

1. NON AVERE UNA VISIONE CHIARA DEL LAVORO


È necessario decidere che cosa rende il mix buono prima
che sia possibile realizzarlo. L’errore è non avere una
visione. Se non si conosce ciò che si desidera ascoltare, si
sta girando nel buio.

2. PENSARE ALLA QUANTITÀ, NON ALLA QUALITÀ


Un errore è pensare alla quantità e all’impatto delle
frequenze basse piuttosto che far suonare bene le
frequenze basse. La quantità entra in gioco solo quando si
pensa al rapporto tra gli strumenti e in questo senso è
davvero un problema di qualità.

3. PASSARE TEMPO A COSTRUIRE UN AMBIENTE


L’atmosfera è la caduta di schiena di ogni mix. Se è
registrato attraverso una camera reverberata o con
reverberi sintetici (o entrambi), l’atmosfera ha una grande
influenza su come riempie il suono, così come la qualità
emozionale del mix.
Reverb e delay sono ottimi strumenti per rafforzare il
tono di una registrazione: tutto può essere rafforzato
attraverso le scelte giuste.
Lanciare un po’ di reverbero a casaccio crea un mix
discontinuo. Lasciare qualcosa perfettamente asciutta è
anche un potente strumento creativo.

4. NON AFFIDARSI TROPPO AGLI EFFETTI


Il mix è un gioco di sottili relazioni. Il dilettante cerca di
rendere il proprio mix speciale, caricando ogni traccia con
EQ e compressione. L’esperto ottiene il miglior mix con
la minor quantità di lavorazione, cercando di ridurre il
grado di effetto e rimanere più fedele alla produzione
originale. A meno che non si stia facendo un’esperienza
creativa.

5. FARE UN MIX SENZA CAMBIARE PROSPETTIVA


Se si inizia a mixare una registrazione su un set di
altoparlanti in una sola volta, si ha una prospettiva
limitata.
Il passaggio attraverso altoparlanti scadenti, cuffie, o
spostamenti dalla propria posizione mix, può dare una
prospettiva più ampia.
Scaricare l’aggiornamento delle orecchie prendendo una
pausa considerevole o persino tornando a un mix il giorno
dopo, servirà a fornire una più ampia gamma di
prospettiva.

6. BASARSI SULLE CONVENZIONI


La generalizzazione tende a creare delle convenzioni.
Questa è una trappola. Artisti lungimiranti e produttori
sfidano attivamente le convenzioni. Così, mentre il vostro
cliente inesperto può decidere il prevedibile, questo non
significa che tutti vogliano questo.

7. IL MANCATO RISPETTO DELLE CONVENZIONI


Detto questo, tante convenzioni esistono per un motivo.
È un riflesso di ciò che apprezza la cultura circostante e
non lo stile di musica. Non riconoscere le aspettative di
chi ascolta è in realtà irrispettoso.
No c’è bisogno di sapere come mescolare XYZ, c’è solo
bisogno di sapere come fare un buon mix. Questo è
sicuramente falso e alla fine inibisce il successo. Il suono
di un genere è radicato nella storia e nella cultura di quella
musica, è necessario conoscere e rispettare tale necessità,
anche perché spesso vi sono delle ragioni per le quali
esiste quella aspettativa. Se si desidera rifiutare le
convenzioni, bisogna farlo con la piena consapevolezza di
come l’ascoltatore finale sarà colpito da tale rifiuto. Avere
una visione.

8. DIMENTICARE IL CONTESTO
Fare il mix di un brano è diverso dal farlo di un disco.
Solo perché una canzone suona alla grande da sola non
vuol dire che si stia inserendo bene nel contesto
dell’album.
Un EP/LP dovrebbe contenere canzoni che hanno una
propria identità sonora, ma con il suono equilibrato
all’interno dell’album.

9. ESSERE PIGRI CON L’AUTOMAZIONE


Impostare e dimenticare funziona solo sulle registrazioni
in cui i musicisti sono molto precisi con le loro
dinamiche. E anche questo, è negoziabile.
C’è una differenza tra il trattamento di suoni di origine e
quelli trattati in fase di mix. Tale differenza è
l’automazione.

10. NON AVERE L’INTENZIONE


Questo è l’alfa e l’omega degli errori. Il mix è
un’estensione della produzione. La produzione ha
intenzione. Pertanto il mix deve mantenere questa
intenzione (sillogismo). Questo non significa che la
direzione non si può formare e correggere man mano, ma
a un certo punto bisogna dire a se stessi: “Va bene, qual è
il fine del brano?”.
Avere realmente una direzione rende l’intero processo
molto più semplice e veloce.
Scrivere alcune idee sul brano non appena si ascoltano la
demo e le prime tracce.
Respirare, ottenere un piano di riproduzione, e poi
iniziare il mix.
Avendo questo in mente, ecco uno sguardo ad alcuni
errori nel preparare il mix per la masterizzazione…

TROPPI BASSI
L’utilizzo eccessivo della fascia bassa è probabilmente
uno dei problemi più comuni nel mix proveniente dai
mancati studi di progettazione.
Solitamente questo è direttamente collegato con
l’ambiente di mix. Lo studio di casa o il progetto di una
regia è carente nel trattamento acustico reale ed è pieno di
superfici riflettenti e trappole per le basse frequenze. Il
risultato è una risposta uniforme su tutto lo spettro dei
bassi, con alcune frequenze sottovalutate e altre
praticamente impercettibili. Questo si traduce in una
fascia bassa mal bilanciata nel mix.

SUONI ACUTI TERRIBILI


All’altra estremità dello spettro, i suoni acuti possono
causare problemi. Anche se non è difficile sentirli
nell’ambiente di uno studio, quelle frequenze alte sono in
grado di comparire in modo prepotente durante la fase di
mastering.
Il de-esser, è un buon modo per stroncare sul nascere i
suoni sibilianti prima del mix.

NESSUNA ESCURSIONE DINAMICA


Questo è probabilmente uno dei temi più discussi in
musica mentre si lavora al mix in ambienti moderni. Negli
ultimi 20 anni, l’attenzione si è focalizzata al volume.
L’alto volume è una mentalità iniziata con le inserzioni
TV e radio; si noti come un commerciale ad alto volume
ottenga maggiormente la vostra attenzione, è il risultato
diretto della tecnologia dei compressori notevolmente
migliorata, che ci ha permesso di creare broadcast mix in
cui tutto è forte e incisivo.
Il problema di forzare il volume apparente (peak) sul
mix, sta nel comprimere la gamma dinamica delle tracce.
Le tracce che vengono consegnate al mastering
dovrebbero avere picchi di circa -3 dB per il materiale più
forte, mentre il resto dovrebbe mantenersi nella media tra
-6 dBFS e -8 dBFS.
Il problema con la compressione della gamma dinamica
(o, altrettanto pericoloso, la normalizzazione del volume
relativa di una traccia), è che effettivamente si rischia di
rubare lavoro al mastering.

MANCANZA DI PAN
È importante per dare al vostro mix dimensionalità,
bilanciando elementi diversi all’interno di un campo
ampio, l’impianto stereo. Troppo spesso le persone
tendono a utilizzare il pan tutto in corrispondenza o in
prossimità del centro, creando un mix dal suono
disordinato che manca di definizione. Mentre alcuni
elementi dovrebbero normalmente essere centrati (kick,
snare, voice e bass, …), la panoramica è un ottimo modo
per realizzare la separazione tra le parti di guitar, choir e
altre parti del mix.

PROBLEMI DI FASE
La maggior parte delle DAW offronno tracce illimitate,
la tentazione di registrare tutto in stereo è forte, ed
elementi come una acoustic guitar stereo ben registrata
può aggiungere profondità e carattere a una traccia. Ma è
bene stare attenti a controllare i vostri mix in mono per
evitare la cancellazione di fase da microfoni mal
posizionati. Solamente con i SOLO delle tracce stereo si
sarà in grado di sentire se determinate frequenze
spariscono, quando i due canali vengono sommati in
MONO (mono mix).

SCARSO POSIZIONAMENTO DELLA VOCE


È difficile essere obiettivi sul posizionamento della voce
in un mix.
Nella maggior parte dei casi, una traccia può suonare
ugualmente sia che la voce si apposti davanti al
microfono sia dietro.

USIAMO SEMPRE DELLE FONTI MONO


Guitar, bass, voice…Prendiamo questi 3. Se li
registrassimo in stereofonia avrebbero una marea di
sfumature che li renderebbe certamente difficoltosi da
equalizzare a dovere, dovendo evitare di sovrapporre
frequenze. In più, ogni suono è mono: se ci arriva in
stereofonia è per colpa dell’ambiente e del nostro effetto
surround. Provate anche a testare i vostri mix in MONO:
in questo modo vi renderete conto ancora di più di
eventuali strumenti che scompaiono e della mancanza di
brillantezza.

OGNI TANTO STACCARE AIUTA


Dopo un po’ le orecchie si stancano e iniziano a
confondere le idee. Solitamente le prime frequenze a
rimetterci sono quelle acute e poi lentamente si diventa
sordi. No, non è vero. Però è consigliabile evitare di
mixare ad alto volume, perché, ad un volume più basso, è
più facile percepire gli strumenti in eccesso e soprattutto
fare riferimento a pezzi professionali per controllare il
proprio mix (non prendere come termine di paragone un
formato mp3 di scarsa qualità).

TENERE IL BASSO E LA CASSA AL CENTRO


Così facendo si utilizzano entrambi i canali (L/R) allo
stesso modo, ottenendo un suono importante.

UTILIZZARE L’EQ PER IL CUT E NON PER IL BOOST


Questo perché, ogni volta che si aumenta qualche
frequenza, si enfatizza qualcosa. Se si aumentano tante
frequenze si enfatizzeranno tante cose.
Si avrà a che fare con tante altre frequenze di sottofondo
che disturberanno e pregiudicheranno la pulizia del
proprio mix.
Esempio: invece di alzare l’ hit-hat intorno ai 12.000 Hz,
conviene abbassare le frequenze antecedenti.

LIMITARE I PROBLEMI DI MASK (MASCHERAMENTO)


Quando si equalizzano due strumenti che condividono
un range più o meno ampio di frequenze, il risultato è la
confusione.
Questo perché ogni suono dovrebbe avere una posizione
ben definita all’interno del nostro ambiente.
Per verificare che nessuno si stia sovrapponendo a un
altro:

Provare ad ascoltare il mix in mono, utilizzare


cioè un solo altoparlante centrale, non solo il
semplice ascoltare in mono mix software.
Provare a spostare la traccia sospetta da destra a
sinistra e se non si riesce a sentire chiaramente la
differenza di pan, si ha a che fare con un
problema di mix.

AUMENTARE CON L’EQ VUOL DIRE ALZARE IL VOLUME


Se ci si trova a spingere qualche frequenza più di 5 o 6
dB, si è fuoristrada.
O si ha a che fare con un file audio scadente, oppure si
hanno così tanti problemi di mascheramento con suoni in
guerra civile.
Ad ogni enfasi corrisponde un aumento di volume,
quindi non esagerare.
P.S.: non usare effetti come il compressore per
aumentare il volume.

GLI EFFETTI MIGLIORI SONO QUELLI CHE SI SENTONO MENO


Perché se si mettono 3 minuti di reverbero, un’overdose
di distorsore più effetti vari ed eventuali, il risultato
potrebbe facilmente sfociare in una estrema confusione.

USARE IL GATE CON CRITERIO E PRIMA DEL REVERBERO


Il gate taglia il suono al di sotto di una certa soglia di
decibel, quindi, se si analizza un file audio di una voce, ci
sono tanti piccoli granellini sullo sfondo. Quel rumore
ambientale decisamente sporca la nostra registrazione.
Inserire un gate che taglia sotto i 50 dB può aiutare.
Successivamente è possibile aggiungere un reverbero per
ricreare l’ambiente (questa volta pulito).

TAGLIARE LE FREQUENZE INUTILI


Saranno queste che impediranno di ottenere un suono
importante.
Immaginiamo una marea di bambini che alzano la mano
per attirare la tua attenzione. Ci si stanca in 5 minuti, 10
forse. Levandone un po’ è possibile concentrare
l’attenzione su pochi bimbi-frequenza e aumentare il
volume con chiarezza e potenza senza troppi suoni
superflui.
Difficilmente si rinuncia a qualche sfumatura sonora…
magari si lavora per costruire il proprio suono con
pacatezza, concentrazione e inesorabilmente con tempo.
Però quando ci si ritroverà alla fine del mix con un bass,
synth, voice, drum, guitar, si perderà sicuramente qualche
caratteristica.
Se certe frequenze sono destinate alla morte
equalizzatrice, dev’essere per mano propria piuttosto che
lasciarle in pasto alla confusione a causa del
mascheramento.

EVITA DI MIXARE CON LE CUFFIE


Le cuffie non sono state studiate per mixare: esaltano il
suono direttamente nel cranio, lo fanno sembrare più
potente di quello che è in realtà e mascherano tanti piccoli
difetti. Tuttavia possono tornare utili quando ci si vuole
staccare dagli speaker e sentire una versione diversa del
mix.
In fondo, un mix fatto veramente bene, deve sentirsi allo
stesso modo sulla stragrande maggioranza di sistemi.
MONO
Ascolta la tua traccia in mono, questo perché magari
verrà suonata in questo modo da alcuni locali o
discoteche, ma soprattutto perché permetterà di sentire se
qualche suono si annulla per colpa della fase.

IL BASSO NEL MEZZO


Mettere il basso in centro, in questo modo si utilizzerà in
maniera uguale la potenza di entrambi gli speaker. Il
basso spesso dà il ritmo alla canzone, e la sostiene, quindi
deve sostenerla in maniera uguale a destra e a sinistra.
Provare a rimuovere le frequenze del basso sotto i 40
Hz, per lasciare potenza, eliminando eventuali frequenze
di disturbo.

IL VOLUME PRIMA DI TUTTO


Prima di perdere tempo a equalizzare, si è provato ad
ascoltare tutti gli strumenti assieme e a regolare i volumi,
senza compressioni o altri plug-in che vadano a
modificare la dinamica del suono?
E se uno strumento è stato registrato troppo basso,
registrarlo nuovamente e riprovare. Dovrebbe già suonare
discretamente meglio.

TAGLIARE LE FREQUENZE
Tagliare le frequenze, invece di enfatizzarle, spesso è la
soluzione migliore. L’equalizzazione è un filtro, quindi si
possono eliminare delle risonanze nei punti di taglio (cut
off). Aumentando alcune frequenze si rischia di aumentare
le risonanze, e di sporcare di conseguenza il mix con
frequenze in eccesso.
Non usare delle campane (Q) troppo strette, sono
innaturali; partire con un taglio di second’ordine (-12dB)
all’equalizzazione.

TAGLIARE GLI EFFETTI


Molti preset dei plug-in vengono presentati con
tantissimi effetti attivati. A volte il contrasto può essere
una buona idea: il consiglio generale è di non esagerare
però con gli effetti anche negli altri strumenti.
Piuttosto, provare a impostare un breve reverbero su
ogni traccia da mandare al master, equalizzarlo assieme e
tenerlo a basso volume. In brani di musica elettronica
questo stratagemma serve a riempire la traccia!

MIX CON LE CUFFIE


Con le cuffie tutto sembrerà più alto di volume, suonerà
in maniera diversa globalmente. Ricordare che il proprio
brano spesso e volentieri andrà suonato su impianti
normali, e se suona bene lì si può essere certi che suonerà
bene anche in cuffia.
Usare le cuffie va bene per avere una seconda opinione
sul mix, ed è fondamentale per scolpire alla perfezione i
suoni e fare micro modifiche, che non si sentirebbero
utilizzando solo i monitor.

INOLTRE…

Imparare la teoria della musica! La conoscenza


dell’armonia e dell’orchestrazione non distrugge
il potenziale creativo.
Imparare a far suonare diversi tipi di strumenti
per comprendere la specificità di ciascuno di essi.
Migliorare se stessi! Iniziare con il tentativo di
rendere la vostra traccia migliore di una stella,
rubare la conoscenza. Poi, fare una traccia nel
proprio stile. Provare a sperimentare, questo è
l’unico modo, affiancato da un intenso studio, per
avere successo.
Prestare attenzione alle sfumature. Una traccia
ordinaria e noiosa non sarà gradita dal pubblico.
Se una traccia è fatta bene la rispettiamo.
Ascoltare l’opinione dei professionisti. All’inizio
potrebbe risultare offensivo, ma bisogna mettere
provvisoriamente da parte l’orgoglio e fare tesoro
dei consigli altrui. Per fare di testa propria si fa
sempre a tempo!
È possibile sviluppare un buon orecchio musicale.
C’è sempre una speranza!
Non ci sono rivali tra i produttori, solo colleghi.
Compreso questo, si può favorire il guadagno
reciproco.
Se avete scelto il vostro metodo è necessario
seguirlo fino alla fine e si è sicuri di arrivare a un
prodotto coerente!
14. Riassumendo

FILTRO:
Per eliminare i suoni superflui.

COMPRESSORE:
Si utilizza per ridurre l’estensione dinamica dell’audio
su cui agisce, per poterne poi successivamente aumentare
il volume.
Input > Threshold < Output

EQUALIZZATORE:
L’utilizzo principale di equalizzazione è quello di
eliminare i mascheramenti dei suoni.

REVERBERO:
Viene utilizzato principalmente per inserire il suono in
un ambiente virtuale.
Non esiste un equalizzatore universale ma…in generale:
occupare
Subsonic <40 cut
la headroom disponibile
Mudness 100-300 boost ingrassare un suono
Presenza 1.000-.8000 boost Prepotenza
Ariosità 10.000-18.000 boost aria supplementare

PRINCIPALI STRUMENTI
Kick
Frequenza in
Strumento Azione Risultato
Hz
400 cut Suono più corposo
Aumento delle
60-80 boost
frequenze gravi
5.000 boost/cut Gestione dell’attacco
Frequenza di
200-300 -
riferimento
Kick + sine 1 Miglior lettura
50 sum
ms in un mix
Bass
Strumento Frequenza in Hz Azione Risultato
700 cut molto sub
comp attack 15-35 ms release 40-70 ms

Hit-hat/ride
Strumento Frequenza in Hz Azione Risultato
7.800-8.000 boost Evidenza
shelf 300 < 20.000 cut Superfluo
Snare
Frequenza in
Strumento Azione Risultato
Hz
500 cut Suono pieno
Aumenta la
150-200 boost
presenza
7.000-8.000 boost/cut Brillantezza
snare 14” 200-300 cut Risonanza
Percussion e
800 cut Togliere confusione
plate
Synth
Strumento Frequenza in Hz Azione Risultato
5.000 boost Evidenza
700 cut Inutilità
Guitar
Strumento Frequenza in Hz Azione Risultato
10.000 shelf cut Definizione
260 boost Corpo
1.250 boost/cut Presenza
40-150 cut Chiarezza
9.000-10.000 boost Metallo delle corde
Pianoforte
Strumento Frequenza in Hz Azione Risultato
40-150 shelf cut Definizione
2.000-3.600 boost Percezione
Voice
Strumento Frequenza in Hz Azione Risultato
comp. attack 0.1- release 100 ms ratio 2:1 Comprensione
500 boost + 2dB Spazio
1.200 cut Spazio
300-400 cut Ringiovanimento
Bibliografia

Savage, Steve - Mixing and Mastering in the Box, OUP,


USA, 2014
Whitaker, Jerry C. - Manuale di produzione audio, Ulrico
Hoepli Editore, Milano, 2004
Senior, Mike – Mixing Secrets for the small studio, Focal
Press, USA, 2011
Roey Izhaki – Mixing Audio: Concepts, Practices and
Tools, Focal Press (f.to Kindle), 2011
Burroughs, Lou – Microphones: Design and Application,
Sagamore Publishing Company, 1974
Holman, Tomlinson – 5.1 Surround Sound: Up and
Running, Focal Press, USA, 2000
Howard, David M. & Angus, James – Acoustics and
Psychoacoustics, Focal Press, USA, 2001
Kefauver. Alan P. – Fundamentals of digital audio, A-R
Editions, USA, 1999
Kirk, Ross & Hunt. Andy – Digital Sound processing for
Music and Multimedia, Focal Press, USA, 1999
Nisbett, Alee – The Sound Studio: audio techniques for
radio, television, film and recording, Focal Press, USA,
2003
Owsinski, Bobby – Mastering Engineer’s Handbook. A
collection of interviews with mastering engineers, 2000
Pohlmann, Ken C. – Principles of Digital Audio,
McGrawHill, 2000
Watkinson, John – The art of Digital Audio, Focal Press.,
1988
One To One Magazine – United Business Media
International Ltd, Leics, United Kingdom
Blesser, A. & Locanthi, B. – The Application of Narrow-
Band Dither Operating at the Nyquist Frequency in
Digital Systems to Provide Improved Signal-to-Nose
Ratio over Conventional Dithering, AES 8th Convention,
Preprint, 1986
Cabot, Richard C. – Measuring AES-EBU Digital Audio
Interfaces, AES 87th Convention Preprint 2819(1-8),
1989
Gerzon, M. A., Craven, P.G., Stuart, J.R., & Wilson, R.J.
– Psychoacoustic Noise-Shaped Improvements to CD and
other Linear Digital Media, AES 94th Convention,
Preprint, 1993.
Lipschitz. S.P. & Vanderkooy, J. – Digital Dither. Signal
Processing with Resolution Far Below the Least
Significant Bit, AES 7th International Conference – Audio
In Digital Times, Toronto, 87-96,1989.
Muncy, Neil – Whitlock, Bill et al (1995) Collection of
definitive articles on grounding. shielding. power supply.
EMI, RFI. Journal of the AES Voi. 43 Number 6, a
special excerpt printing.
Nielsen, Soren & Lund, Thomas (2000) o dBFS+ Levels
in Digital Mastering. AES ìogth Convention, Preprint
#5251.
Stuart. J.R. & Wilson, R.J. – A Search for Efficient Dither
for DSP Applications, AES 92nd Convention, Preprint
#3334, 1991
Stuart. J.R. – Noise: Methods for Estimating Detectability
and Threshold, 9th AES Convention, Preprint, 1993

Potrebbero piacerti anche