Documenti di Didattica
Documenti di Professioni
Documenti di Cultura
Quelli che seguono sono i formati video di maggiore diffusione e che, pertanto, vengono
riconosciuti da praticamente tutti i player (visualizzatori) che si possono trovare sulla rete
(sia commerciali che open-source):
Adobe Filmstrip (estensione: FLM) E' un formato proprietario della Adobe che raccoglie
in un unico file grafico tutti i fotogrammi della sequenza compilata, a varie risoluzioni. Le
dimensioni dei file sono proibitive e la riproduzione a video è estremamente lenta. Questo
formato risulta utilissimo in fase di montaggio per tecniche di fotoritocco. Non è possibile
integrare audio e né sarebbe utile, essendo questo un formato di solo passaggio.
Autodesk Animation (estensione: FLI/FLC ) Questo è il formato proprietario
dell'Autodesk per le animazioni dei software Animator Pro e 3DStudio, ormai divenuto un
diffuso standard. Fa parte di questa lista perchè, come l'Adobe Filmstrip, risulta spesso
utile per operazioni di fotoritocco o di transizione da un formato all'altro. È un formato
voluminoso ma molto veloce in fase di playback a differenza dell’Adobe Filmstrip.
RealMedia Audio/Video (estensione: RA/RM/RAM) E' un nuovo formato, diventato
ormai standard, per lo streaming audio/video e risulta essere molto diffuso sul WWW.
Concepito inizialmente per l'audio (RealAudio sino alla versione 3), questo formato è stato
adattato anche per la compressione video, diventando un vero e proprio pacchetto per la
creazione e la distribuzione del multimedia sul web.
Microsoft NetShow [estensione: ASF] Recente formato con il quale si possono ottenere
buoni rapporti qualità/dimensione per una riproduzione off-line (oltre che in streaming).
Se oggi possiamo ascoltare la musica su CD il merito è di un matematico francese nato del XVIII
secolo: Joseph Fourier. Con un suo teorema, infatti, ci ha spiegato come si possa scomporre
qualunque suono (anche il più complesso) in tanti suoni semplici, rappresentabili graficamente.
Più precisamente, grazie alla cosiddetta comandata di Fourier possiamo “disegnare” ciascun suono
che compone una canzone sotto forma di una sinusoide.
Per sua natura, questa rappresentazione della forma d’onda (come qualunque altro fenomeno
fisico) è formata da infiniti punti quindi, per ovviare a questo inconveniente dobbiamo prendere
dalla forma d’onda dei punti a campione (da cui il nome “campionamento”), che la rappresentino
meglio possibile. Il risultato che si deve raggiungere è una specie di “riassunto” della forma d’onda
che sia più fedele possibile all’originale ma che sia rappresentabile con una quantità di numeri
ragionevolmente piccola, e quindi scrivibile su un CD audio che ha una capienza massima limitata.
L’operazione con cui si riassume la forma d’onda in una serie discreta di punti presi a campione si
chiama dunque campionamento.
Quella con cui assegniamo a ciascuno di questi punti un valore numerico (che poi sarebbero gli zeri
e gli uni che sono scritti , ad esempio, su un CD) si chiama “quantizzazione“.
L’unità di misura della quantizzazione, invece, è il bit. Guarda il disegno: nell’asse orizzontale è
rappresentata la frequenza di campionamento, mentre su quello verticale è rappresentata la
quantizzazione. Tanto più alta è la frequenza di campionamento, e tanti più sono i bit usati per
quantizzare, tanto più precisa è la rappresentazione della forma d’onda originale.
Tutto questo processo viene svolto da un convertitore detto “A/D” (Analogico/Digitale) che
prende un suono “reale”, lo divide in tante onde semplici, campiona ciascuna di esse, la quantizza
e la trasforma quindi in numeri, scrivibili su un CD, o su un qualunque altro apparecchio digitale.
Quando viene il momento di “ascoltare” questi numeri ci pensa un altro convertitore, chiamato
“D/A” (Digitale/Analogico). Il convertitore D/A legge gli zeri e gli uni creati dal convertitore A/D,
ricreando tutti i puntini che rappresentano le forme d’onda originarie e ritrasformandoli in suoni,
che un amplificatore e delle casse (o delle cuffie) renderanno a loro volta udibili.
I formati audio
Abbiamo anche già detto che la frequenza di campionamento dei brani di un CD audio è di
44.100 Hertz, e la quantizzazione è a 16 bit. Questo, calcolatrice alla mano, vuol dire che, per ogni
secondo di musica, avremo 1.411 kilobit di informazioni (44.100 Hz*16 bit*2 canali) che il
convertitore D/A trasformerà in musica.
Questo numero si chiama bit rate, e ci sarà utile nella seconda parte per introdurre il discorso sulla
compressione dei file audio, e per parlare quindi dei formati musicali che in questo ambito la
fanno da padroni: MP3 e AAC.
----------------------------------------------------------------------------------------------------------------------------------
In questa seconda parte parleremo più dettagliatamente dell’audio compresso e quindi dei
formati MP3 e AAC e del protocollo MIDI, spesso frainteso.
Comprimere la musica
I formati audio compressi usano algoritmi molto evoluti per stabilire cosa togliere e cosa tenere
del file originale che devono comprimere.
Alcuni interventi classici sono:
Tanto maggiore è la quantità di compressione applicata, tanto più piccolo sarà il file risultante, e
tanto maggiore sarà anche la perdita di qualità.
La qualità di un file MP3 dipende dal suo bit rate che, come abbiamo visto, è il numero di unità
binarie (zeri o uni) che fluiscono ogni secondo di musica.
Il bit rate minimo per una qualità audio sufficiente è considerato 128 Kbit/sec, mentre il più alto
possibile in questo formato di compressione è 320 Kbit/sec.
Il formato WAVE (formato digitale NON COMPRESSO) ha un bit rate di 1411 Kbit/sec.
Accanto all’MP3 ci sono altri formati compressi di ampia diffusione. I più utilizzati sono WMA,
OGG, ATRAC e AAC.
Gli algoritmi che ne costituiscono le fondamenta sono diversi tra loro. Questo vuol dire che,
applicati ad un file musicale WAVE, eliminano informazioni diverse rispetto all’algoritmo MP3.
Ma cosa succede se, invece di un file WAVE, comprimiamo un file già compresso in un altro
formato?
Ciascun formato di compressione “ragiona” in modo diverso, bilanciando differentemente ciò che
toglie e ciò che tiene per ottenere risultati soddisfacenti. E in questo frangente, l’unione non fa la
forza: fa la fossa!
Quando si parla di musica c’è un altro formato di cui spesso si parla ma di cui poco si sa: è il MIDI.
Molto spesso mi è stato chiesto: che programma posso usare per convertire un file WAVE o MP3
in un file MIDI? Posso convertirlo, no? La risposta è: ni. Ma più no che sì. Perché? Vediamo.
Un file MIDI non è un file audio come WAVE, MP3 ed AAC, e quindi non contiene musica ma è, di
fatto, una sorta di spartito musicale.
Su di esso sono scritte una serie di informazioni, del tipo: in un dato momento nel tempo suona un
si bemolle centrale, con intensità 100, con una determinata durata, e interrompi l’esecuzione della
nota dopo mezzo secondo.
Perché queste informazioni si trasformino in suoni è necessario che vengano “lette” da uno
strumento hardware o software (campionatori o sintetizzatori, ad esempio), in grado di
trasformarle in musica.
Questo vuol dire che uno stesso file MIDI, a seconda dello strumento che lo legge, può “suonare
diversamente”.
Ora che sappiamo cosa c’è scritto in un file MIDI, possiamo trarre un’importante conclusione:
trasformare un file audio (WAVE, MP3 o qualunque altro) in un file MIDI non è un’operazione
semplice, proprio perché il MIDI non è un formato audio.
Per questo tipo di conversione esistono dei programmi molto complessi (e di norma costosi), in
grado di isolare i diversi strumenti che suonano in un brano musicale, trascriverne le note eseguite
e generare il relativo “spartito” MIDI.
In realtà però questa operazione ha dei grossi margini di errore, a meno che non si tenti di
convertire file audio estremamente semplici.
Per questo motivo, trasformare un file audio in un file MIDI non è un’operazione di routine, e chi
desiderasse farlo sappia che dovrà mettere in conto una spesa importante e dovrà aspettarsi dei
risultati spesso mediocri.
In estrema sintesi, l’audio digitale è una rappresentazione dei suoni “reali” tramite una catena di
zeri e uni. Tanti più ce ne saranno in un file, quindi tanto maggiore sarà la quantità di
informazione, tanto più il suono digitale sarà vicino a quello reale che rappresenta.
Naturalmente, però, esiste il problema del peso del file. Bisogna cercare di raggiungere un buon
compromesso tra esso e la qualità del suono. E da qui inizia la fantastica storia del suono
digitalizzato.
Distinguiamo innanzitutto tre tipi di formato audio in base alla perdita di qualità:
LOSSLESS (non compressi – nessuna perdita di qualità)
LOSSLESS COMPRESSED (con compressione minima – perdita di qualità impercettibile)
LOSSY (compressi – con perdita di qualità)
Wave (.wav): è il formato di file audio non compresso più diffuso. Occupa molto
spazio (1.411 Kilobit di informazioni ogni secondo di musica stereo a 44.100 Hz/16 bit), ma
riproduce i suoni fedelmente.
FLAC (.flac) – Free Lossless Audio Codec: è un codec open source, usato spesso per
archiviare nel computer i CD musicali senza perdita di qualità. Mentre i .wav offrono audio non
compresso, i .flac sono detti “lossless compressed“. La compressione, però, è minima, e la
stragrande maggioranza delle persone non nota differenze tra un file Wave e uno FLAC.
Ciononostante occupano meno spazio dei file WAV. Questo è possibile perché usano una quantità
di compressione variabile in base alle necessità . Questo vuol dire che, in caso di parti musicali
molto complese e ricche, usa codifiche uguali ai file WAV (1.411 Kb/s di dati). In caso di parti più
“semplici”, invece, la quantità di bit usata per rappresentarle sarà inferiore. È adatto alle orecchie
esigenti che vogliono anche risparmiare un po’ di spazio nei loro hard disk.
Apple Lossless Audio Codec: assimilabile al FLAC, di cui però applica sempre la
compressione massima. La qualità è mediamente buona, ma il formato non è efficiente quanto il
FLAC per quanto riguarda il peso. Non tutti i riproduttori lo supportano, quindi se la tua vita non è
esclusivamente votata alla Apple e ai suoi prodotti, non è un formato consigliabile.
MP3 (.mp3) o MPEG-1, o MPEG-2 Audio Layer III: è lo standard dell’audio compresso
più conosciuto ed è tuttora il più usato.
Comprimendo un file WAV in MP3, se ne ottiene uno fino al 90% più leggero in termini di MB. La
qualità è variabile a seconda del bit rate, che va da 32 a 320 Kbit di informazione per ogni
secondo di musica.
AAC (.aac): Advanced Audio Coding. È uno standard Apple, usato di default da iTunes
quando importi musica.
Funziona in modo simile all’MP3, e a parità di bit rate, occupa lo stesso spazio ma la differenza è
nel modo con cui tratta la compressione.
In parole semplici, “riassume” la musica in modo diverso. Secondo molte persone suona meglio
dell’MP3. Adatto soprattutto a chi usa iPhone e iPod per ascoltare la musica.
WMA (.wma): è un formato proprietario di Microsoft, ed è considerato la risposta di
Redmond all’MP3. La sua incompatibilità con gli iPod lo rende molto scomodo. Tra l’altro, mentre
l’MP3 è supportato dalla maggior parte dei sequencer, il WMA non lo è. In sostanza, a meno che il
tuo mondo musicale non inizi e finisca con Windows Media Player, è un formato generalmente
sconsigliabile. Non è compatibile con Mac e con iTunes.
Ogg Vorbis: è un formato open source e patent free, il che vuol dire che non necessita
di alcuna licenza per essere implementato in un lettore audio.
La qualità è paragonabile all’MP3, forse leggermente superiore. Una creazione nobile e ben
realizzata, ma non abbastanza diffuso da giustificarne un uso massiccio.
Alla luce di tutto questo, quindi, registrare musica in WAV e diffonderla in MP3 o AAC è la scelta
più ragionevole. In questo modo avrai qualità quando serve, e la garanzia di fruibilità della musica
ovunque tu sia.
Doppiaggio e tecnologia
05 11 2015 da Davide Pigliacelli
Per la pellicola di proiezione, il formato più diffuso è senza dubbio il 35 mm, stabilito già all’inizio
del secolo come standard a livello internazionale per contrastare la crescente diffusione di
pellicole e macchine da presa e di proiezione contraffatte. Tale formato è stato chiamato così per
via della misura di larghezza della pellicola (34.98 millimetri, per la maggior parte occupati dal
fotogramma, mentre il resto dalle tracce sonore del film e dalle perforazioni all’esterno). Esso è
rimasto lo standard per film su pellicola fino al 2014, anno in cui il cinema internazionale ha
abbandonato definitivamente la pellicola per passare completamente alla tecnologia digitale. Tale
rivoluzionario passaggio è iniziato con la fine degli anni Ottanta ed è stato costituito da graduali
cambiamenti tecnologici, sia per quanto riguarda la realizzazione dei film sia la loro distribuzione e
proiezione nelle sale.
La rivoluzione digitale ha portato notevoli vantaggi al cinema rispetto ai tempi della pellicola:
l’immagine elettronica, ad esempio, presenta formati più grandi ed è molto più brillante e nitida di
quella analogica, eliminando anche difetti e anomalie derivanti dal deterioramento del supporto –
quali segni di usura, grana e perdita di luminosità – così come il cosiddetto “sfarfallio”. Per quanto
riguarda la produzione cinematografica, oggi si eseguono le riprese con le telecamere digitali,
apparecchi più economici e meno voluminosi delle macchine da presa con pellicola. Eventuali
errori possono sempre essere corretti in fase di post-produzione. Inoltre, c’è la possibilità, da parte
della troupe, di poter visualizzare in tempo reale la resa finale della scena su monitor, mentre
questa viene girata, il che porta un notevole risparmio di materiale, tempo e costi, sia per il regista
che per i tecnici della post-produzione, specialmente in fase di montaggio.
Un grande vantaggio sta anche nei supporti utilizzati: il girato viene inciso non più su un rullo di
pellicola, ma sotto forma di file digitali su dispositivi di memoria di massa, come hard disk e unità a
stato solido, più capienti e meno pesanti e ingombranti delle pellicole. Questo ha permesso una
maggiore versatilità del girato, ma anche una semplificazione notevole del trasporto e della
distribuzione del materiale, con la possibilità di portare il film nelle sale cinematografiche
abbattendo i costi dei trasporti e di carico/scarico delle cosiddette pizze. A quest’ultima fase si è
sostituito il trasferimento del film sotto forma di dati digitali criptati, tramite un hard disk oppure
attraverso una connessione a banda larga satellitare.
L’avanzare e il mutare della tecnologia impiegata nel cinema ovviamente non hanno coinvolto solo
l’immagine, ma anche il sonoro.
Negli anni Sessanta, fu poi l’americano Ray Dolby a far compiere al sonoro cinematografico un
nuovo passo rivoluzionario, con un sistema in grado di ridurre il rumore di fondo denominato
Dolby A, che in anni più recenti si è poi evoluto nel noto Dolby Digital; esso è un sistema di
codifica audio multicanale di tipolossy (cioè soggetto a perdita di informazioni durante la codifica)
ed è ad oggi il sistema di audio digitale più diffuso al mondo, utilizzato sia al cinema che in
televisione e nei supporti ottici.
La tecnologia digitale ha permesso notevoli passi avanti dal punto di vista della qualità e della
velocità di svolgimento del lavoro. Grazie ai computer e ai software utilizzati (primo fra tutti Pro
Tools) oggi si può avere una qualità audio generalmente migliore, così com’è possibile apportare
modifiche di ogni genere alle tracce incise – se ne possono gestire molte contemporaneamente –
modifiche che in passato richiedevano molto più tempo o erano addirittura impossibili. Ad
esempio, si possono accorciare o allungare le pause tra le battute senza alterare le armonie del
suono, rifare solo una parte della battuta recitata, oppure aggiungere particolari effetti.
Pro Tools è un sistema di Digital Audio Workstation sviluppato da Digidesign (prima) Avid Technology (adesso). È uno
degli strumenti software più usati per l'elaborazione e la produzione digitale di musica, a livello professionale.
Inizialmente progettato per l'utilizzo su MacOS, nel tempo è diventato un prodotto multipiattaforma. Pro Tools è
disponibile nelle versioni "MP", "standard" e HD Native, in cui usa la CPU del computer per processare i segnali audio e
in versione HD TDM (time division multiplexing) e HDX in cui i segnali audio sono processati da dedicati DSP chips
all'interno delle schede HD Core, HD Accel (in tecnologia TDM) e HDX.
I sistemi HD Native permettono un monitoring del segnale senza latenza, un processing a 64 bit floating point e tutte le
funzioni software della versione HD, a eccezione del processing su processori dedicati.
Nell'ottobre 2011 è stato presentato il nuovo sistema HDX, che va a sostituire il sistema Pro Tools | HD (introdotto nel
2002). Il sistema HDX è basato su schede con processori dedicati con precisione di 64 bit in virgola mobile. Il numero di
tracce gestibili da un sistema è passato da 192 a 768; la potenza di una scheda HDX è paragonabile a 4 o 5 schede
TDM, in funzione delle specifiche di confronto.
I sistemi Pro Tools | HD permettono di utilizzare un elevato numero di plug-ins molto sofisticati e utilizzare fino a 192
tracce a 44,1/48 kHz e 24 bit indipendentemente dall'hardware della piattaforma host (grazie alla tecnologia TDM II,
che dispone di ben 512 time slots bidirezionali). Pro Tools | HD, inoltre, dispone di un avanzato supporto tecnologico
per la somma dei dati digitali in output del sistema a 48 bit a virgola fissa, che offre un range dinamico di 288 dB sul
bus principale di uscita.
Pro Tools è un software spesso utilizzato nelle fasi di post produzione e montaggio, dagli studi televisivi a quelli
cinematografici, dagli stabilimenti di doppiaggio sino a quelli per lo sviluppo audio dei video-games.