Documenti di Didattica
Documenti di Professioni
Documenti di Cultura
Diffrazione
SUONO
Come tutte le onde, anche quelle sonore sono caratterizzate da una frequenza (che nel caso del suono è in
diretta relazione con la percezione dell'altezza) e un'intensità (che è in diretta relazione con il cosiddetto
"volume" del suono). Inoltre, caratteristica saliente delle onde sonore è la forma d'onda stessa, che rende in
gran parte ragione delle differenze cosiddette di timbro che si percepiscono tra diverse tipologie di suono.
Come tutti i fenomeni acustici, il suono è una perturbazione di carattere oscillatorio che si propaga con una
data frequenza in un mezzo elastico. Il numero di oscillazioni (variazioni di pressione) al secondo viene
chiamato frequenza del suono e viene misurato in cicli al secondo ossia in Hertz (Hz). Il campo uditivo
dell'uomo si estende da circa 20 Hz fino a 20.000 Hz (ossia 20 kHz).
SUONO
L'altezza è la qualità che fa distinguere un suono acuto da uno grave. Dipende in massima parte
dalla frequenza. L'orecchio umano percepisce solo i suoni che vanno da 20 a 20.000 oscillazioni al
secondo. Al di sotto abbiamo gli infrasuoni, al di sopra gli ultrasuoni.
La pratica musicale copre una gamma di suoni, le cui fondamentali vanno dal do grave che ha una
frequenza di 32Hz al do acuto che ha una frequenza di 4100Hz.
Per calcolare l'altezza dei suoni, è stato scelto come punto di riferimento il La4 (= ottava centrale
del pianoforte) che chiamiamo diapason o corista.
La frequenza del diapason, che fino al XIX secolo variava di Paese in Paese e anche a seconda del
tipo di musica da eseguire (sacra, da camera etc.).
La Conferenza di Londra del 1939, stabilisce la frequenza del diapason a 440 Hz.
SUONO
Il volume è la qualità sonora associata alla percezione della forza di un suono, ed è determinato
dalla pressione che l'onda sonora esercita sul timpano: quest'ultima è a sua volta determinata
dall'ampiezza della vibrazione e dalla distanza del punto di percezione da quello di emissione del
suono.
Per misurare il volume percepito di un suono si fa spesso riferimento al livello sonoro, che viene
calcolato in decibel (dB) come segue:
LP=20xLog10(p/p0)
nella formula, p indica la pressione quadratica media, mentre p0 è una pressione sonora di
riferimento (soglia del silenzio o udibile). È la più piccola variazione di pressione che l'orecchio
umano è in grado di percepire comunemente posta 20 µPa ossia (2x10−5 N/m²)
SUONO
dB Sorgente
20 Respiro umano a 20 cm
30 Sussurri a 1 m
40 Quartiere abitato, di notte
50 Ambiente domestico
60 Ufficio rumoroso, radio, conversazione
70 Aspirapolvere a 1 m
80 Camion pesante a 1 m
90 Urlo
100 Discoteca, concerto rock vicino al palco
110 Motosega a 1 m
120 Sirena
125 Aereo al decollo a 50 m
130 Soglia del dolore
140 Colpo di pistola a 1 m
SUONO
Il timbro, è la qualità che, a parità di frequenza, distingue un suono
da un altro. Il timbro dipende dalla forma dell'onda sonora,
determinata dalla sovrapposizione delle onde sinusoidali
caratterizzate dai suoni fondamentali e dai loro armonici. Dal
punto di vista della produzione del suono, il timbro è determinato
dalla natura (forma e composizione) della sorgente del suono e
dalla maniera in cui questa viene posta in oscillazione.
bi-direzionale direzionale
REGISTRAZIONE SONORA
L'altoparlante è un attuatore che converte un
segnale elettrico in onde sonore.
Si può quindi definire un trasduttore elettroacustico.
Il suono in sostanza è generato da una serie di
compressioni e rarefazioni dell'aria, compito
dell'altoparlante è generare tali compressioni e
rarefazioni nell'ambiente d'ascolto pilotato da un
segnale elettrico che rappresenta l’onda sonora da
riprodurre.
REGISTRAZIONE SONORA
La registrazione e riproduzione digitale converte il segnale analogico del suono, captato dal microfono, in
una forma digitale attraverso un processo di digitalizzazione o campionamento, permettendo così di essere
conservato e trasmesso attraverso una più ampia varietà di supporti.
L'audio digitale viene registrato come una serie di numeri binari che rappresentano campioni dell'ampiezza
del segnale audio a intervalli di tempo uguali, in un frequenza di campionamento abbastanza alta da poter
trasmettere tutti i suoni in grado di essere ascoltati.
Le registrazioni digitali sono considerate di qualità superiore rispetto alle registrazioni analogiche non
necessariamente perché hanno maggior fedeltà (più ampia risposta in frequenza o gamma dinamica), ma
perché il formato digitale può prevenire la perdita di gran parte della qualità che si registra nella
registrazione analogica a causa del rumore, di interferenza elettromagnetica di riproduzione, e per il
deterioramento meccanico o danni al supporto di memorizzazione.
Per la riproduzione, il segnale audio digitale deve essere riconvertito in forma analogica prima di essere
inviato ad un altoparlante o a delle cuffie.
CAMPIONAMENTO
La trasformazione del segnale da analogico (continuo) a digitale (discreto) prende il nome di
campionamento.
Tale termine deriva dal fatto che preleviamo dei campioni del segnale originario (la sua ampiezza),
compiendo questa operazione a intervalli di tempo regolari.
Il ritmo costante viene identificato con una frequenza detta frequenza di campionamento.
La frequenza di campionamento, quindi, descrive il numero di volte che un segnale audio in ingresso è
misurato o "campionato" in un dato periodo di tempo ed è misurata in kHz.
CAMPIONAMENTO
In altre parole la frequenza di campionamento è il parametro che si utilizza quando si "traduce" un
fenomeno naturale - comprensibile per l'essere umano - in una rappresentazione numerica -
"comprensibile" cioè utilizzabile per un computer e per quelle macchine il cui funzionamento è basato sul bit.
Ogni singola misurazione del segnale corrisponde ad un numero memorizzato, e viene detta campione; nella
produzione dei campioni avvengono generalmente innumerevoli errori di campionamento, ascrivibili
soprattutto alla stessa forma digitale con cui sono memorizzati, che per forza di cose deve essere
rappresentata su un numero di cifre finito.
Se nella teoria è sufficiente, nota la larghezza di banda del segnale, applicare il teorema del campionamento
di Nyquist-Shannon per ottenere la frequenza ideale, tale da consentire la completa ricostruzione del
segnale a partire dai suoi campioni, nella pratica la ricostruzione perfetta risulta spesso impossibile, ed anzi si
introducono volontariamente degli errori di precisione per ridurre il numero di cifre necessarie,
procedimento che prende il nome di quantizzazione.
Nella maggior parte delle applicazioni ciò non costituisce un problema, perché una rappresentazione
approssimata è più che sufficiente a consentire un'interpretazione corretta del segnale (ad esempio nel caso
di segnali sonori, grafici o multimediali).
TEOREMA DI
NYQUIST-SHANNON
Il campionamento è il primo passo del processo di conversione analogico-digitale di un segnale.
Consiste nel prelievo di campioni (samples) da un segnale analogico e continuo nel tempo ogni Ỏt
secondi. Il valore Ỏt è detto intervallo di campionamento, mentre fs = 1/Ỏt è la frequenza di
campionamento. Il risultato è un segnale analogico in tempo discreto, che viene in seguito quantizzato,
codificato e reso accessibile a qualsiasi elaboratore digitale.
Il teorema del campionamento pone un vincolo per la progettazione di apparati di conversione
analogico-digitale: se si ha a disposizione un campionatore che lavora a frequenza fs, è necessario
mandargli in ingresso un segnale a banda limitata da fs/2
Un segnale analogico s(t), la cui banda di frequenze sia limitata dalla frequenza fM, può essere
univocamente ricostruito a partire dai suoi campioni
s(nỎt)\ (n∈Z) presi a frequenza fs=1/Ỏt se fs > 2fM.
In generale, tuttavia, un segnale analogico non è limitato in frequenza, ma deve essere filtrato per
eliminare le componenti di frequenza maggiore di fs/2: a tale scopo si usa un filtro anti-alias.
CONVERSIONE
ANALOGICA-DIGITALE
01011010
11011010
1001100
filtro anti alias campionamento quantizzazione
CONVERSIONE
ANALOGICA-DIGITALE
Nella conversione analogico-digitale, la
differenza tra il segnale analogico reale e il
valore digitale quantizzato dello stesso viene
chiamata errore di quantizzazione o
distorsione di quantizzazione.
Questo errore è dovuto all'arrotondamento o
al troncamento del segnale digitalizzato.
Il segnale errore è talvolta considerato come un
segnale casuale aggiuntivo chiamato rumore di
quantizzazione a causa del suo comportamento
stocastico.
CONVERSIONE
ANALOGICA-DIGITALE
48 KHz 16 DAT
Decomprimendo un file compresso con un metodo "lossy" la copia ottenuta sarà peggiore dell'originale per livello di
precisione delle informazioni che codifica, ma in genere comunque abbastanza simile da non comportare perdita di
informazioni irrinunciabili. Ciò è possibile poiché i metodi di compressione a perdita di informazioni in genere tendono
a scartare le informazioni poco rilevanti, archiviando solo quelle essenziali: per esempio comprimendo un brano audio
secondo la codifica dell'MP3 non vengono memorizzati i suoni non udibili, consentendo di ridurre le dimensioni dei file
senza compromettere in modo sostanziale la qualità dell'informazione.
La compressione dei dati con perdita di qualità è ampiamente usata in molti settori dell'informatica: su Internet,
nell'ambito dello streaming dei media, nella telefonia, per la compressione di immagini o altri oggetti multimediali, ecc.
Una volta compresso un file con un metodo lossy, le informazioni perse non saranno più recuperabili. Una sua apertura
e una sua ricompressione con metodi lossless o con un metodo lossy con una compressione minore non
permetteranno di tornare alla quantità di informazioni iniziali ma anzi, l'ulteriore compressione lossy potrebbe far
perdere ulteriori informazioni, ma ingrandendo le dimensioni del file.
COMPRESSIONE DATI
Alcuni codec di compressione lossy per l’audio sono:
AAC (Advanced Audio Coding) è un formato di compressione audio creato dal consorzio MPEG e incluso ufficialmente negli
standard MPEG-4 ed MPEG-2. L'AAC fornisce una qualità audio superiore al formato MP3 a parità di fattore di compressione.
Attualmente viene utilizzato principalmente da Apple nei suoi prodotti dedicati all'audio (iTunes); Apple usa sia una variante
dell'AAC che gestisce i diritti d'autore DRM (AAC Protected), con compressione a 128 kb/s, sia una versione senza protezione
(AAC Plus), con compressione a 256 kb/s.
MP3 (per esteso Moving Picture Expert Group-1/2 Audio Layer 3, noto anche come MPEG-1 Audio Layer III o MPEG-2 Audio Layer
III) è un algoritmo di compressione audio di tipo lossy, sviluppato dal gruppo MPEG, in grado di ridurre drasticamente la quantità di
dati richiesti per memorizzare un suono, rimanendo comunque una riproduzione accettabilmente fedele del file originale non
compresso. La qualità di un file MP3 dipende dalla qualità della codifica e dalla difficoltà con la quale il segnale deve essere codificato.
Buoni codificatori hanno una qualità accettabile da 128 a 160 kbit/s, la chiarezza perfetta di un brano si ottiene da 160 a 192 kbit/s.
Ogg Vorbis è un algoritmo open source e software libero per la compressione audio digitale di tipo lossy, che si pone come
alternativa di altri standard come MP3, AAC. A parità di qualità percepita, permette una maggiore compressione rispetto al formato
MP3, ottenuta mediante avanzate tecniche di psicoacustica. Le caratteristiche distintive del formato Vorbis rispetto allo standard MP3
sono una maggior estensione e pulizia delle alte frequenze (sopra i 16 kHz), il supporto multicanale a livello nativo. Nel trattamento
di segnale stereo musicale Vorbis ha il suo bit rate ideale intorno ai 128 kbit/s, risultando estremamente difficoltoso da distinguere
rispetto all'originale in un ascolto cieco già da 192 kbit/s.
COMPRESSIONE DATI
WMA (Windows Media Audio) è una tecnologia di compressione dei dati audio lossy sviluppata da Microsoft. Microsoft afferma che
WMA può produrre file di dimensione dimezzata rispetto a un file MP3 di qualità equivalente, inoltre ha affermato che un WMA a
"64 kbit/s" corrisponde alla qualità "CD audio". L'affermazione, tuttavia, è stata respinta da alcuni audiofili.
AC-3 è un sistema di codifica cosiddetto "lossy". sviluppato dai Dolby Laboratories. Il sistema prende in input segnali audio digitali
codificati a 48 kHz di frequenza di campionamento e 16 bit di risoluzione, li trasforma analizzandoli nel dominio della frequenza, per
poi scartare parte dei dati utilizzando metodi di analisi di tipo "psicoacustico". Un segnale audio mono digitale lineare (quindi non
compresso) a 48 kHz/16 bit, richiede 768 kbps per essere codificato, pertanto un segnale stereo di questo tipo necessiterebbe di 1
536 kbps, e un segnale a 5 canali di 3 840 kbps. L'AC3 permette di ridurre questi valori anche di un fattore superiore a 10,
richiedendo circa 400 kbps per codificare audio 5.1, e meno di 200 kbps per codificare audio stereo.
COMPRESSIONE DATI
La compressione dati senza perdita (o compressione dati lossless), è una classe di algoritmi di compressione
dati che non porta alla perdita di alcuna parte dell'informazione originale durante la fase di compressione/
decompressione dei dati stessi.
Gli algoritmi di compressione lossless non possono sempre garantire che ogni insieme di dati in input
diminuisca di dimensione. In altre parole per ogni algoritmo lossless ci saranno particolari dati in input che
non diminuiranno di dimensione quando elaborati dall'algoritmo.
Alcuni codec di compressione lossless per l’audio sono:
ALAC (Apple Lossless Audio Codec) è un codec audio sviluppato da Apple Inc. allo scopo di ottenere una
compressione lossless. L'utilizzo di questo codec dimezza lo spazio occupato rispetto ad un file audio non
compresso.
FLAC (Free Lossless Audio Codec) è un diffuso codec audio libero (open source) pensato specificatamente
per dati audio. Riesce ad ottenere un fattore di compressione dell'ordine del 30-50%
PSICOACUSTICA
La psicoacustica è lo studio della percezione soggettiva umana dei suoni. Più precisamente è lo studio della
psicologia della percezione acustica.
In molte applicazioni dell'acustica e dell'elaborazione del segnale sonoro diventa strettamente necessario
conoscere come il suono viene percepito da un essere umano.
Ciò che "si sente" non è solamente una conseguenza di carattere fisiologico legata alla conformazione del
nostro orecchio, ma comporta anche implicazioni psicologiche.
L'udito umano è simile ad un analizzatore di spettro, così che l'orecchio risolve il contenuto spettrale della
pressione dell'onda di pressione.
Il modello psicoacustico conferisce qualità alla compressione audio di tipo "lossy" (con perdita di
informazione) indicando quale parte del segnale audio da comprimere può essere rimossa o pesantemente
compressa senza generare problemi, cioè senza perdite significative nella qualità del suono.
!
PSICOACUSTICA
La psicoacustica è fortemente basata sull'anatomia umana, soprattutto sulle limitazioni di percezione
dell'orecchio. Dette limitazioni sono:
Il Dolby Stereo utilizza un sistema di riduzione di rumore per il miglioramento delle prestazioni audio. Tale sistema è il "Dolby A" e,
a partire dal 1987, il "Dolby SR", quest'ultimo in grado di offrire migliori prestazioni.
L'audio Dolby Stereo prevede tre diverse configurazioni di canali audio, due a tre canali audio e una a quattro:
SUONO MULTICANALE
Il Dolby Surround è uno standard proprietario di audio multicanale sviluppato dalla Dolby Laboratories la quale ne detiene anche i
diritti di utilizzo.
Deriva dall'audio Dolby Stereo del quale rappresenta una versione meno potente. È stato sviluppato per l'home video e utilizzato
in seguito anche per la televisione e i videogiochi, in particolare è stato il primo standard di audio multicanale dotato di surround e
dedicato a tali ambiti di utilizzo. La sua caratteristica principale, che ne ha decretato un vasto successo negli anni novanta del XX
secolo, è che, analogamente all'audio Dolby Stereo, si presenta come audio stereofonico. Attualmente è usato anche nei cinema.
L'audio Dolby Surround prevede tre diverse configurazioni di canali audio, due a tre canali audio e una a quattro:
SUONO MULTICANALE
Il Dolby Digital è un sistema di codifica audio multicanale digitale
sviluppato da Dolby Laboratories e utilizzato al cinema, nella televisione
digitale, nei Laser Disc, DVD e in altri supporti di riproduzione o
trasmissione audio digitale.
Come per il Dolby Digital il DTS può avere anche configurazione 7.1
con l’aggiunta di due canali extra laterali all’ascoltatore
DIGITAL AUDIO
WORKSTATION
Una digital audio workstation (DAW) è un sistema elettronico progettato per la registrazione, l'editing e la
riproduzione dell'audio digitale.
Il termine "DAW" semplicemente si riferisce a una combinazione di software per la registrazione multitraccia
e di hardware audio di alta qualità - quest'ultimo deve avere la capacità di convertire il segnale audio tramite
un convertitore analogico-digitale.
Mentre quasi tutti i personal computer con un software di editing possono funzionare in qualche modo
come una DAW, il termine si riferisce in generale a sistemi informatici con hardware per il campionamento
audio di alta qualità e con un software dedicato alla registrazione e l'editing; alcuni di questi software sono
Logic Pro, Pro Tools, Cubase, Ableton Live, o Digital Performer.
La maggior parte dei software di registrazione e editing permettono di gestire sia audio campionato
acquisito da schede di acquisizione audio sia tracce di sequenziamento musicale, in cui sono presenti
informazioni sulle note musicali da riprodurre tramite sintetizzatori o campionatori hardware o software
controllati tramite protocollo MIDI.
Sostanzialmente un software di editing può essere considerato come un mixer audio virtuale e un
sequencer multitraccia per l’elaborazione delle singole tracce audio o strumentali.
DIGITAL AUDIO
WORKSTATION
MIXER
EQ (equalizzatore): Amplifica o attenua una certa banda di frequenze lasciando inalterate
le altre
Sends: Invia il segnale in ingresso a dei BUS (connessioni interne del mixer) in modo da
poter raggruppare tra loro vari canali sotto un unico controllo
Output: Specifica a quale canale di uscita viene inviato il segnale, normalmente scollegato
se vengono usati dei send verso BUS interni
Fader (cursore): Controlla la quantità di segnale che viene inoltrato verso il mix bus o
verso i gruppi.
Solo (canale solo): Premendo questo bottone, tutti gli altri canali vengono messi in
modalità mute
DIGITAL AUDIO
WORKSTATION
TRACCE AUDIO
Le tracce audio di una DAW sono stracce che contengono un canale audio campionato. Vengono utilizzare per
sequenziare registrazioni dal vivo di strumenti musicali, pattern audio come le basi di batteria o di basso o la voce di un
cantante.
Le tracce audio possono venir filtrate con appositi filtri audio per equalizzare il suono, applicare effetti o migliorare la
qualità del suono.
TRACCE DI
SEQUENZIAMENTO
Le tracce di sequenziamento contengono eventi musicali quali la nota, il tempo di attacco e di sustain, il volume.
Sono tracce che vengono utilizzate per controllare la generazione del suono da parte di strumenti elettronici virtuali o
esterni alla DAW quali i sintetizzatori e i campionatori. Possono anche essere usate per controllare la variazione nel
tempo dei parametri dei filtri di una traccia audio.
SCHEDE ACQUISIZIONE
AUDIO
Le schede di acquisizione audio permettono di registrare canali multitraccia di tipo differente: ingressi
microfono, ingressi linea, ingressi digitali S/PDIF, dispositivi MIDI e di riprodurre in uscita i segnali elaborati
con frequenze di campionamento fino a 192 kHz e fino a 24 bit di quantizzazione
SCHEDE ACQUISIZIONE
AUDIO
Ingressi microfono: sono ingressi analogici per il collegamento di microfoni o
chitarre elettriche.
Ingressi linea: sono ingressi analogici per il collegamento di segnali audio
preamplificati come ad esempio l’uscita di un sintetizzatore, di un campionatore, di
un lettore CD, o di un registratore audio.
Ingressi digitali S/PDIF: è l'acronimo di Sony/Philips Digital Interface Format
(Interfaccia Digitale Sony / Philips). È una collezione di specifiche hardware e
protocolli per il trasporto di segnali audio digitali stereo tra periferiche come ad
esempio un registratore DAT.
Ingressi MIDI: sono connessioni per l’interfacciamento di controller o strumenti
musicali tramite il protocollo MIDI.
MIDI
Con l'acronimo MIDI (Musical Instrument Digital Interface) si indica il
protocollo standard per l'interazione degli strumenti musicali elettronici.
• L'interfaccia umana di uno strumento tradizionale riprogettato come un dispositivo di controllo MIDI. Il tipo più
comune di dispositivo di questa categoria è il controller a tastiera. Tale dispositivo fornisce una tastiera musicale e
spesso altri attuatori (pitch bend e modulation, per esempio) ma non produce alcun suono da solo. Esso è destinato
solo a guidare e controllare altri dispositivi MIDI.
• Strumenti musicali elettronici, compresi sintetizzatori, campionatori, drum machine e batterie elettroniche, che
vengono utilizzate per eseguire musica in tempo reale e sono di per sé in grado di trasmettere un flusso di dati MIDI
legati alla performance.
• Strumenti tradizionali, come batterie, pianoforti acustici e fisarmoniche che sono dotati di sensori e un processore che
accetta input dai sensori stessi per trasmettere in tempo reale dati e informazioni MIDI sulle performance. Le
informazioni sui gesti del musicista (ad esempio, quali note o percussioni sono colpite, e con quanta intensità), vengono
poi inviate ad un modulo o un computer che converte i dati in suoni (ad esempio, campioni o suoni sintetizzati).
• Sequencer, per archiviare e recuperare dati MIDI da inviare al dispositivo MIDI attivato per riprodurre una
performance.
TIMECODE SMPTE
Il timecode è una sequenza di codici numerici generata a intervalli regolari da un sistema temporizzato.
Si tratta di un segnale di ampio utilizzo in diversi ambiti per la sincronizzazione di segnali e per la scalettatura
del materiale registrato su supporti audio/video.
Il timecode è aggiunto a materiale video, audio o cinematografico ed è anche stato adattato per la
sincronizzazione musicale, fornendo in ogni caso un riferimento temporale per il montaggio e la scalettatura
del materiale.
Il timecode SMPTE contiene un'identificazione oraria in formato
ore:minuti:secondi:fotogrammi
ELETTRONICI
Gli elettronici polifonici sono in grado di produrre simultaneamente tutte le frequenze costituenti la
Polifonici La generazione avviene loro estensione. in questo tipo di strumento le oscillazioni sono generate in continuazione e
mediante circuiti vengono convogliate all'altoparlante (tramite l'amplificatore) solo quando i tasti vengono premuti.
elettronici detti Gli elettronici semipolifonici sono strumenti che possono produrre solo un certo numero di
Semipolifonici oscillatori frequenze, inferiori di molto al numero dei tasti di cui sono dotati.
Gli elettronici monofonicisono strumenti in grado di produrre una sola frequenza alla volta perché
Monofonici dotati di un solo oscillatore, la cui frequenza varia in funzione del tasto premuto.
ELETTROMECCANICI
Caratteristica degli strumenti elettronici elettromeccanici è la presenza di elementi
Elettromagnetici Strumenti in cui i
mobili che, spostandosi a frequenza controllata nell'ambito di campi magnetici o
segnali elettrici sono
elettrostatici, generano variazioni di correnti elettriche indotte. Tra gli strumenti
Elettrostatici generati da trasduttori
elettromagnetici troviamo l'organo Hammond, e le chitarre elettriche; tra gli
elettromeccanici
elettrostatici il piano elettrico Wurlitzer
A contatto
Strumenti tradizionali le
cui vibrazioni vengono
raccolte con un Gli strumenti elettronici combinati nascono dall'elaborazione del suono di strumenti
COMBINATI
microfono ed tradizionali tramite microfono e apparecchiature elettroniche.
elaborate con circuiti
elettrici
GENERATORI
L'oscillatore produce il suono elettricamente generando una tensione alternata che oscilla tra zero-positivo-zero-negativo-zero.
Quando il segnale prodotto da un oscillatore si amplifica e si invia ad un altoparlante il suono udibile dipenderà' dall'oscillatore sia per la
frequenza che per il timbro.
Un buon oscillatore si estende in frequenza da circa 0,05 Hz a 20 kHz (full range), ed e' in grado di produrre simultaneamente diverse
forme d'onda. le forme d'onda più' comuni disponibili nella maggior parte degli oscillatori in commercio sono:
I sub eventi che determinano l'inviluppo sono generalmente quattro, essi sono:
Venne inventato nel 1919 dal fisico sovietico Lev Sergeevič Termen e si basa su oscillatori
che, lavorando in isofrequenza al di fuori dello spettro udibile, producono, per alterazioni
delle loro caratteristiche a seguito della presenza delle mani del musicista nel campo
d'onda, dei suoni sul principio fisico del battimento, questa volta nel campo delle
frequenze udibili.
Il theremin è stato utilizzato anche in numerose colonne sonore di film, tra cui “Io ti
salverò” di Alfred Hitchcock, “in Qualcuno volò sul nido del cuculo”, nella sigla iniziale dei
cartoni animati di Scooby Doo.
Il theremin può essere utilizzato anche come interfaccia per pilotare altri strumenti
musicali.
SINTETIZZATORE
L'organo Hammond è un organo elettrico progettato e costruito da Laurens Hammond
nel 1935.
L'organo Hammond sfrutta una serie di ruote foniche (dette tonewheels), formalmente
simili ad ingranaggi, che ruotano grazie ad un motore sincrono, cioè legato alla frequenza
della rete elettrica.
Il continuo avvicinarsi ed allontanarsi dei denti della ruota fonica crea una variazione di
campo magnetico in corrispondenza del pick-up, proprio come avviene per la chitarra
elettrica.
Una caratteristica unica che contraddistingue gli organi Hammond è l'utilizzo dei drawbar
(tiranti) che permettono al musicista di variare a piacere il volume relativo al missaggio
generale delle armoniche. Ogni controllo è dotato di un'asta marcata con 9 posizioni
numerate da 0 a 8, dove a barra tutta inserita (cioè in posizione 0) il volume della relativa
armonica sarà nullo e a barra tutta estratta (cioè in posizione 8) sarà massimo.
Utilizzato da musicisti come Ray Manzarek dei Doors, Richard Wright dei Pink Floyd per
“The Dark Side of the Moon”, Tony Banks dei Genesis, Jon Lord dei Deep Purple.
SINTETIZZATORE
Il sistema Moog modular consisteva in una serie di moduli montati su un
telaio.
Utilizzato da musicisti quali Richard Wright dei Pink Floyd per “The Wall”,
ABBA, Berlin, Paul Mc Cartney, Mike Oldfield.
CAMPIONATORE
Il campionatore (in inglese sampler) è uno strumento musicale elettronico che è in grado di acquisire
campioni audio per riconoscerne un suono approssimativo alle note musicali del pentagramma.
I campioni sono di solito registrazioni digitali di strumenti musicali acustici o elettronici, registrati su più
tonalità per garantire una fedeltà sonora costante su tutta l'estensione della tastiera e con diverse dinamiche
per conservare la personalità dello strumento.
Tuttavia i campionatori sono molto utilizzati anche per riprodurre effetti speciali ed elaborazioni di suoni
artificiali.
È possibile campionare qualsiasi tipo di suono o rumore e, grazie al campionatore, è possibile suonarlo.
Tuttavia è più facile imbattersi in campionamenti di strumenti musicali, perlopiù acustici.
Grazie alla grande disponibilità di memoria nelle apparecchiature digitali, si fa spesso uso del
multicampionamento, che consiste nel campionare più note di uno stesso strumento per aumentare
l'espressività e la veridicità del risultato.
CAMPIONATORE
Il Mellotron è uno strumento musicale a tastiera divenuto popolare tra
la fine degli anni sessanta e la prima metà degli anni settanta.
È stato usato da vari artisti tra cui The Beatles, Moody Blues, Genesis,
Brian Jones dei Rolling Stones, Richard Wright dei Pink Floyd, John Paul
Jones dei Led Zeppelin, Jethro Tull .
FILTRI ED EFFETTI AUDIO
L'equalizzazione è una tecnica molto diffusa e conosciuta nel trattamento
dei segnali audio.