Sei sulla pagina 1di 2

CAPITOLO 3 - VIDEO

I video analogici sono un segnale continuo variante nel tempo mentre i video digitali sono una sequenza di immagini digitali. Tipi di colori nei segnali video Component video Ogni colore primario inviato come un segnale video separato. I primari possono essere RGB o luminanza-crominanza (o trasformazioni di queste). Questo metodo richiede pi banda e una buona sincronizzazione delle componenti restituendo, per la migliore riproduzione di colori. Composite video Luminanza e crominanza sono combinate allinterno del segnale portante. Le interferenze tra i segnali sono inevitabili. S-Video Il separeted-video un compromesso tra il component ed il composite. Utilizza due linee: una per la luminanza ed una per il segnale di crominanza composito. NTSC 30 fps - 525 linee scansionate per frame. 20 linee sono riservate per il controllo dellinformazione allinizio di ogni campo (ogni frame diviso in due campi di 262.5 linee). Utilizza il modello di colore YIQ. PAL 25 fps 625 linee scansionate per frame (diviso in due campi da 312.5 linee). Usa il modello YUV. Decimazione crominanza 4:1:1 (YUV) decimazione orizzontale di fattore 4. 4:2:0 (YUV) decimazione verticale ed orizzontale di un fattore 2. ATSC E uno standard per la televisione digitale statunitense. Include anche lo standard HDTV. Compressioni Video H.261 Sviluppata per le video conferenze su linee ISDN. Utilizza un sampling 4:2:0 e frame di 352x288 e 176x144. Ci sono due tipi di frame: gli intra-frames (frame compressi in jpeg) e gli inter-frames (contengono le variazioni dal frame precedente). E presente un algoritmo che confronta i pixel di luminanza del macroblocco dell'immagine corrente con il macroblocco (16x16 px) nella medesima posizione riferito per all'immagine precedente. Sono diversi gli algoritmi di ricerca: ricerca completa, ricerca logaritmica bidimensionale e la stima gerarchica del moto. H.263 E uno standard sviluppato per i video a basso bitrate, come lH261 adotta gli inter e gli intra frames. MPEG1 E stata sviluppata per i video a basso bitrate. La compressione MPEG aggiunge un terzo tipo di frame: il frame bidirezionale, dove si ricerca la corrispondenza sia nei blocchi precedenti che in

quelli futuri. I macroblocchi dei B-frame spossono specificare due vettori di movimento (uno passato ed uno futuro). MPEG2 Sviluppato come standard per la televisione digitale. Supporta le codifiche predittive sia a livello di frame che a livello di campi ed i sampling di 4:2:2 e 4:2:0. MPEG4 Originalmente sviluppato per video con bitrate molto basso. Enfatizza il concetto di oggetti visivi. Utile per la segmentazione e compressione dei video. MPEG7 E uno standard nato per codificare i contenuti multimediali, per definire come sono organizzati i dati multimediali. Mosaicizzazione Lanalisi dei movimenti nei singoli fotogrammi permette la creazione attraverso la tecnica del mosaicing del background. Il mosaico pu essere utilizzato come un key frame per il rapido accesso allintera sequenza video. Una volta creata una in cui singola immagine gli oggetti sono identificati e separati essa pu essere trattata con le tecniche di ricerca delle foto statiche. Gli indici pittorici basati su immagini statiche giocano un ruolo simile a quello delle lettere e parole in un testo.. possono essere suddivisi e classificati come sintattici o semantici secondo il tipo di informazioni contenute nella loro struttura. La rappresentazione basata sulla scena composta essenzialmente da: Immagine mosaico panoramica: rappresenta una vista spaziale estesa dellintera scena inquadrata nel video. La mosaicizzazione rimuove la ridondanza contenuta tra i successivi frame che si sovrappongono. Informazioni dinamiche sugli oggetti: informazioni relative agli oggetti in movimento che non sono rappresentate nellimmagine statica e panoramica del mosaico. Esse sono completamente rappresentate dalla traiettoria e dallapparenza delloggetto. Indicizzazione basata sulla posizione o sulla dinamica. Il processo di inseguimento cerca di comparare gli oggetti di due frame basandosi sullammontare dellarea sovrapposta. Successivamente si determina la corrispondenza di oggetti tra frame attraverso una fase di inseguimento. Ogni sequenza MPEG risulta composta da pi AVO (audio video object), ognuno dei quali costituito da informazioni sul contenuto dell'oggetto (campioni audio e/o video) e d informazioni su come, quando e dove l'oggetto vada riprodotto. Costruzione del mosaico: dallunione dei frame si ottiene un immagine che descrive esattamente lambiente in cui si girata la scena. I frame di filmati contengono informazioni spaziali temporali e di movimento: oggetti che appaiono e scompaiono , luci che si accendono e spengono, oggetti che si spostano. Il Mosaico contiene essenzialmente le informazioni spaziali. Flusso ottico Il flusso ottico il campo delle velocit dei punti di una scena rappresentato nel piano dellimmagine dovuto al movimento dellosservatore e della scena. Moltissimi sono gli algoritmi per il calcolo del flusso ottico e tutti sono classificabili in tre categorie: Metodi basati sul Gradiente; Metodi basati sulle Features; Metodi basati sulla Correlazione.