Sei sulla pagina 1di 4

RAPPRESENTAZIONE DIGITALE DEI FILMATI.

Com' fatto un filmato? Un filmato formato da una sequenza di immagini statiche (fotogrammi o frame) che se fatti vedere in sequenza (soprattutto con una cadenza temporale precisa) ad una velocit sufficientemente elevata ci dar l'impressione che la sequenza sia continua. Come mai proiettando delle immagini statiche abbiamo l'impressione di una continuit? Ci dovuto al sistema di visione umano: se guardiamo un' immagine questa entra nel nostro sistema visivo e viene proiettata su una superficie posta sul fondo del bulbo oculare chiamata retina, l'immagine viene ribaltata. La retina molto importante, essa composta di organi fotorecettori (coni e bastoncelli), che convertono la luce in impulsi di natura elettrica. L'immagine viene poi ricostruita dal cervello. Le informazioni arrivano al cervello per mezzo dei nervi ottici. Ciascuno dei due occhi separa l'immagine in due campi visivi: destro e sinistro. Quello sinistro viene elaborato dalla parte destra del cervello, quello destro dalla parte sinistra.

Per un fenomeno chiamato "persistenza della visione" il cervello umano interpreta una sequenza di immagini che si succedono come un flusso in movimento. Il fenomeno della persistenza ottica legato al fatto che la retina nel convertire la luce in impulso elettrico conserva per una frazione (allincirca 1/50) di secondo l'informazione, quindi anche se noi sostituiamo l'immagine il nostro occhio non se ne rende conto. Questo fenomeno venne sfruttato per riprodurre in modo artificiale il movimento come un susseguirsi di immagini statiche ad intervalli regolari di tempo e sfruttato dal cinema e dalla televisione.

La velocit con la quale si susseguono le immagini detta "frame rate" e si esprime in frame per secondo (FPS). Valori tipici di frame rate sono: 24 FPS per il cinema; 25FPS per la televisione PAL; 30FPS per la televisione NTSC.

Maggiore la frame rate e migliore la qualit del filmato riprodotto.

CODIFICA DEI FILMATI Cosa codifico in digitale? Dati video + dati audio, opportunamente sincronizzati altrimenti si rischia di vedere un filmato in cui l'audio non sincronizzato perfettamente con il movimento (si pensi al parlato non perfettamente sincronizzato col movimento delle labbra). Il metodo pi semplice sarebbe quello di codificare in sequenza separatamente le varie immagini, tuttavia questo approccio sconsigliabile a causa della mole di informazioni da veicolare. Esempio Nel caso si abbia una velocit di 25 FPS in 10 minuti di video ci sono: 106025=15.000 immagini Se ogni immagine da 6404808bpp = 300 KB, l'occupazione totale sar di 15.000300KB=4.39GB Ci richiede oltre 4 GB, dunque crea problemi di ingombro. Per questo motivo sono state studiate tecniche di codifica che riducono sensibilmente l'occupazione di spazio, dette tecniche di COMPRESSIONE. Esse si basano sulla RIDUZIONE DELLA RIDONDANZA (spaziale e temporale) dei dati; spesso infatti in un'immagine la stessa informazione ripetuta pi volte. Esempio Lo sfondo in una ripresa fatta col cellulare (che pi o meno costante) viene inviato con una frequenza inferiore, mentre viene inviato pi frequentemente l'oggetto che sta in primo piano dove si rileva un piccolo movimento. Fondamentalmente abbiamo due tipi di tecniche di compressione: intra-frame: all'interno dell'immagine; opera una compressione di tipo spaziale in quanto sfrutta le similitudini presenti all'interno del singolo fotogramma. In un'immagine con sfondo e primi piani le zone con maggiore uniformit vengono fuse facendoci ottenere delle

regioni pi grandi, ci significa che si adotta un campionamento spaziale che non uniforme. inter-frame: confronta i vari fotogrammi; opera una compressione di tipo temporale in quanto sfrutta anche le similitudini presenti in sequenze di fotogrammi successivi. Esempio: calciatore in movimento, la sagoma pi o meno sempre la stessa, si tratta di spostarla o spostare le singole parti in movimento. Dunque si invia solo il vettore di movimento (motion vector) che indica le coordinate di posizionamento del nuovo blocco.

TECNICHE DI COMPRESSIONE A CONFRONTO: La intra-frame perdente in quanto ha un fattore di compressione inferiore, lo svantaggio per compensato dal fatto di richiedere meno risorse per effettuare le operazioni di compressione e decompressione. La inter-frame permette una riduzione maggiore, ma questo richiede il dispendio di un maggior numero di risorse (memoria e processore). Le codifiche Intra-frame pi diffuse sono: DV digital video) un formato molto diffuso per le riprese digitali. Il tasso di compressione arriva fino a 1:5, quindi riesce a comprimere fino al 20% il video originale. I supporti ai quali si affida questa tecnica sono quelle tradizionali, la minicassetta a nastro. M-JPEG: JPEG lo standard utilizzato per la codifica di immagini compresse. Il MOTION JPEG codifica i fotogrammi di un filmato utilizzando algoritmi di compressione simili al JPEG.

Le due codifiche consentono entrambe una discreta qualit ed una quantit ridotta di risorse per la codifica e decodifica. La codifica Inter-frame MPEG rappresenta lo standard attualmente pi diffuso. Esistono diverse varianti che lo rendono applicabile in moltissimi contesti. MPEG 1 lo standard utilizzato per i video CD e supporta un numero ristretto di dimensioni e velocit di trasmissioni. MPEG 2 quello utilizzato nei DVD e nelle trasmissioni digitali terrestri e satellitari. MPEG 4 quello destinato a fornire compressioni superiori e a lavorare a velocit di trasmissione ridotte.

Lacronimo MPEG sta per Movie Pictures Experts Group, l'estensione che indica questo tipo di file .mpg Siccome il formato MPEG ricade nella compressione inter-frame esso opera una compressione sia spaziale (nellambito del singolo fotogramma) che temporale.

ALTRI FORMATI VIDEO: Per i calcolatori: WMV MOV per Apple AVI Per videocamere digitali: DV HDV D8 Per dispositivi ottici VDC DVD Blu ray disc Per tv digitale: DVB

DIGITALIZZAZIONE DI UN FILMATO Il segnale video pu essere visto come la composizione di due segnali: immagini in movimento + audio. Per quanto riguarda le immagini in movimento la digitalizzazione avviene attraverso un campionamento spaziale e temporale seguito da quantizzazione e codifica. Per quanto riguarda il suono viene digitalizzato attraverso un campionamento temporale seguito da quantizzazione e codifica.

IL SUONO in un filmato: Nel tempo si avuta una evoluzione anche per la componente audio: si passati cos da una primordiale colonna sonora monofonica alla gestione dellaudio multicanale. Un filmato pu essere multicanale ovvero la parte audio costituita da diverse piste indipendenti ciascuna delle quali interesser un diverso diffusore come ad esempio avviene in un impianto stereofonico (2 canali L ed R). Lavvento delle tecnologie digitali ha ulteriormente arricchito questo panorama agaggiungendo ulteriori tracce per la fruizione multilingua (nel caso del DVD si pu cambiare lingua o leggere i sottotitoli) e rendendo ancora pi sofisticata la gestione multicanale (si pensi ai sistemi Dolby Surround che nei vari upgrade pu arrivare alla configurazione 7.1).