Sei sulla pagina 1di 7

INFORMATICA MUSICALE - Prof.

Sylviane Sapir

CODIFICA E COMPRESSIONE
DELLAUDIO DIGITALE
Luca Monteverdi

INTRODUZIONE

Laudio digitale la tecnologia che viene utilizzata per registrare, memorizzare, generare e

manipolare suoni mediante segnali audio codificati in forma digitale.

La rappresentazione digitale dellaudio, a differenza di quella analogica, non raffigura la curva

continua dellampiezza con una curva dallandamento analogo, come ad esempio la variazione del

campo magnetico in un nastro o landamento dei solchi di un vinile, ma assegna dei numeri che

rappresentano il valore dellampiezza in istanti di tempo successivi e regolari.

Vantaggi
La conversione del segnale audio in un formato digitale permette una comoda rielaborazione,

processamento e trasmissione di un segnale audio, perch la manipolazione consiste unicamente in

operazioni matematiche effettuate su valori numerici, invece che nellutilizzo di dispositivi elettronici

applicati al segnale.
A differenza dei supporti analogici, fare copie dei dati non comporta una degradazione della qualit

del segnale, poich anche in questo caso si tratta di copie di semplici numeri.

Un aspetto non possibile lavorando con supporti analogici la possibilit di correggere errori

introdotti dai supporti di memorizzazione e dai dispositivi di trasmissione, mediante codifiche a

rilevazione e correzione derrore.

Svantaggi
Occorre un sistema di comunicazione tra linterno e lesterno dellelaboratore per trasformare il dato

digitale in pressione sonora ed essere ascoltato, introducendo quindi ritardi temporali. Nella

rappresentazione analogica invece unonda sonora rimane comunque una forma donda che

mantiene le caratteristiche del segnale originale, semplificando il processo di trasduzione.

Inoltre, un segnale digitale di qualit comparabile a quella di un segnale analogico necessita grande

capacit di memoria e velocit di elaborazione e trasmissione, comportando anche costi maggiori.

Questo svantaggio ha portato allo sviluppo di tecniche di compressione dei dati permettendo

allaudio digitale di venire impiegato nella multimedialit e di venire trasmesso via Internet.

PROCESSO DI CONVERSIONE

Un sistema audio digitale inizia con un convertitore ADC (analog to digital converter). Questo

dispositivo campiona il segnale a una specifica frequenza e converte il valore di ampiezza in dato

digitale con una risoluzione in bit prestabilita. Prima di campionare il segnale occorre filtrare le

frequenze inferiori alla frequenza di Nyquist (pari alla met della frequenza di campionamento) per

evitare fenomeni di aliasing, secondo il teorema del campionamento di Nyquist-Shannon, il quale

sostiene che per digitalizzare un segnale che contiene componenti di frequenza fino a x hertz,

bisogna campionare ad un tasso di campionamento di almeno 2x campioni al secondo. Nel campo

dellaudio e in particolare della musica i segnali possono raggiungere 20KHz, quindi occorre una

frequenza di campionamento maggiore di 40KHz.

Il CD audio, ad esempio, utilizza una frequenza di campionamento di 44.1 KHz e 16 bit di risoluzione

per ogni canale stereo.

2
Pulse-Code Modulation
La modulazione a codice di impulsi (PCM) un metodo di rappresentazione digitale di un segnale

analogico. Lampiezza del segnale analogico campionata a intervalli regolari, ed ogni campione

viene poi quantizzato.

Un tipo specifico di PCM la LPCM (Linear pulse-code modulation), in cui gli intervalli di

quantizzazione sono lineari. Viene utilizzata nella codifica dei CD audio.

Gli algoritmi A-law e -law utilizzano invece livelli di quantizzazione proporzionali allampiezza del

segnale.

Esempio di quantizzazione lineare a 4 bit (16 valori).

Tutti i valori che rientrano in una regione di quantizzazione verranno convertiti nello stesso codice.

Questo introduce il cosiddetto errore di quantizzazione, corrispondente in ampiezza alla met della

dimensione di una regione di quantizzazione e affine al rumore bianco, in quanto si pu considerare

casuale in frequenza. Allaumentare del numero di bit diminuisce il rumore di quantizzazione, perch

le regioni diminuiscono di ampiezza.

Per evitare la degradazione dei segnali deboli dovuta allerrore di quantizzazione pu essere

utilizzata una quantizzazione non lineare: il numero di bit (e quindi di regioni) rimane lo stesso, ma la

dimensione delle regioni corrispondenti alle ampiezze deboli diminuisce, mentre aumenta quella

3
delle ampiezze forti. In questo modo il guadagno in qualit alle ampiezze deboli compensato da

una perdita di qualit alle ampiezze forti.

Differenza tra quantizzazione lineare e non lineare

Formati audio in PCM


WAV (Windows), AIFF (Macintosh) e AU sono formati di audio non compresso molto conosciuti ed

utilizzati. I file risultanti sono di dimensioni consistenti, ma non richiedono una potenza di calcolo

elevata per essere riprodotti. Essendo la loro codifica lossless, cio senza perdita di informazioni,

vengono molto utilizzati nel campo dellaudio professionale - grazie anche alla loro relativa

semplicit e velocit di manipolazione.

Il formato WAV diviso in chunks (blocchi), ognuno dei quali descrive una caratteristica del file. I

chunk sono quasi tutti a 32 bit.

4
4 caratteri, RIFF (Resource Interchange File Format)

Dimensione del file

4 caratteri, WAVE

Subchunk FMT: specificano le caratteristiche del file wave

(frequenza di campionamento, numero di canali, profondit

di bit)

Subchunk DATA: contengono i campioni audio

Un file WAV stereo campionato a 44.1kHz, 16bit/s occupa il seguente spazio:

1 secondo: 44100 * 2 byte = 88.2 kB. Essendo stereo questo valore va raddoppiato, quindi lo spazio

occupato 176.4 kB.

1 minuto: 176.4 * 60 = 10584 kB, che corrispondono a 10.1 MB.

5
Digitalizzazione come parte del processo PCM
Certe forme di PCM combinano lelaborazione e la codifica del segnale; implementazioni recenti di

queste tecniche applicano il processo direttamente al segnale digitale.

DPCM (Differential pulse-code modulation): codifica i valori della PCM come differenze tra due

campioni adiacenti, oppure effettuando una predizione della differenza seguendo un

modello matematico. Questa tecnica permette una riduzione di circa il 25% nel numero di bit

in un campione.
ADPCM (Adaptive differential pulse-code modulation): variante della DPCM che rende variabile

il passo di campionamento, riducendo ulteriormente la larghezza di banda.


Modulazione Delta: un tipo di DPCM che utilizza un solo bit per sample, richiedendo

quindi che ogni valore campionato differisca dal precedente di +1 o -1. Loccupazione della

banda della classica PCM.

Cenni sulla compressione dei dati audio


Nel processamento del segnale, la compressione del dato comporta la codifica dellinformazione
utilizzando un numero di bit minore rispetto alla rappresentazione digitale originale.
Il vantaggio principale della compressione la riduzione delle risorse necessarie per la
memorizzazione e la trasmissione dei dati, ma allo stesso tempo richiede una potenza di calcolo
maggiore la decodifica di un file compresso, al punto che il tempo e i mezzi per la decompressione
possono comportare uninconvenienza maggiore rispetto allo spazio di archiviazione risparmiato.
Nel caso dei file audio si ha un costo anche in termini di qualit dellaudio.

Compressione Lossless
Nella compressione senza perdita, linformazione contenuta nel file compresso identica a
quella nel file originale. Nel campo audio viene utilizzata per scopi di archiviazione o
produzione; altrimenti utile in situazioni in cui importante che il dato originale sia
identico a quello decompresso, come in programmi eseguibili, documenti testuali e codici
sorgente.
La compressione lossless utilizza generalmente algoritmi come la codifica di Huffman, in cui
i caratteri di un file sono ordinati per la loro frequenza di apparizione e codificati di
conseguenza. Viene utilizzata ad esempio nella compressione dei formati ZIP e come
complemento dei codec JPEG e MP3.

Esempi di formati audio lossless sono Apple Lossless, FLAC, APE, WMA Lossless

6
Compressione Lossy

Nella compressione con perdita, il file decompresso avr una precisione minore nella

rappresentazione dellinformazione, ma abbastanza simile all'originale da non comportare

perdita di informazioni indispensabili. Questo perch gli algoritmi di compressione

scartano le informazioni poco rilevanti, mantenendo quelle necessarie.

Nel campo audio si utilizzano modelli psicoacustici per determinare quali siano le

informazioni necessarie e quelle che possibile eliminare, come ad esempio fenomeni di

mascheramento o frequenze troppo alte e troppo basse per essere udite.

Questo tipo di compressione viene maggiormente utilizzato nel campo multimediale,

streaming su internet di audio, video, immagini e nella telefonia.

Esempi di formati audio lossy sono MP3, WMA, Ogg Vorbis.

CONCLUSIONI

La rappresentazione digitale ha portato notevoli vantaggi nellelaborazione,

trasmissione e memorizzazione dei segnali audio.

Certe cautele vanno prese sia in fase di acquisizione e digitalizzazione del segnale

per assicurare che il dato digitale sia il pi accurato possibile (frequenza di

campionamento, profondit in bit), e ulteriori provvedimenti possono essere

utilizzati per adattare il file risultante ai diversi utilizzi che se ne possono fare

(tipologia di codifica ed eventuale compressione).

BIBLIOGRAFIA E SITOGRAFIA
V. Lombardo, A. Valle Audio e Multimedia

http://soundfile.sapp.org/doc/WaveFormat/

http://www.digitalpreservation.gov/formats/fdd/fdd000011.shtml