Sei sulla pagina 1di 62

Introduzione alla Grafica

PDF generato attraverso il toolkit opensource ''mwlib''. Per maggiori informazioni, vedi [[http://code.pediapress.com/ http://code.pediapress.com/]].
PDF generated at: Thu, 29 Oct 2009 16:43:46 UTC
Indice
Voci
Introduzione - Luce e colore 1
Luce 1
Colore 6
Spazio dei colori 11
Temperatura di colore 15
RGB 16
CMYK 18
Hue Saturation Brightness 20

Grafica Digitale 21
Grafica raster 21
Pixel 23
Risoluzione (grafica) 26
Risoluzioni standard 27
Immagine digitale 33
Compressione dei dati 35
Compressione dati lossy 36
Compressione dati lossless 37
Joint Photographic Experts Group 41
Portable Network Graphics 44

Formati del video digitale 46


Formato contenitore 46
Audio Video Interleave 47
Matroska 48
MPEG-4 50
MOV (formato di file) 53
Ogg 54

Note
Fonti e autori delle voci 57
Fonti, licenze e autori delle immagini 58

Licenze della voce


Licenza 59
1

Introduzione - Luce e colore

Luce
Il termine luce (dal latino, lux, lucis) si
riferisce alla porzione dello spettro
elettromagnetico visibile dall'occhio umano,
ed è approssimativamente compresa tra 400
e 700 nanometri di lunghezza d'onda,
ovvero tra 750 e 428 THz di frequenza.
Questo intervallo coincide con la regione di
massima emissione da parte del sole. I limiti
dello spettro visibile all'occhio umano non
Un prisma scompone la luce
sono uguali per tutte le persone, ma variano
soggettivamente e possono raggiungere i
730 nanometri, avvicinandosi agli infrarossi, e i 380 nanometri avvicinandosi agli ultravioletti. La presenza
contemporanea di raggi di tutte le lunghezze d'onda visibili forma la luce bianca.

La luce, come tutte le onde elettromagnetiche, interagisce con la materia. I fenomeni più comuni osservabili sono:
l'assorbimento, la trasmissione, la riflessione, la rifrazione e la diffrazione.
Sebbene nell'elettromagnetismo classico la luce sia descritta come un'onda, l'avvento della meccanica quantistica agli
inizi del XX secolo ha permesso di capire che questa possiede anche proprietà tipiche delle particelle e di spiegare
fenomeni come l'effetto Compton. Nella fisica moderna la luce (e tutta la radiazione elettromagnetica) viene descritta
come composta da quanti del campo elettromagnetico chiamati fotoni.

Teorie sulla luce


Molteplici sono state le teorie formulate, nel
corso del tempo, per spiegare il fenomeno
luminoso ed i comportamenti della luce.

Teoria corpuscolare
Formulata da Isaac Newton nel XVII secolo.
La luce veniva vista come composta da
piccole particelle di materia (corpuscoli)
emesse in tutte le direzioni. Oltre che essere
matematicamente molto più semplice della
teoria ondulatoria, questa teoria spiegava
molto facilmente alcune caratteristiche della
propagazione della luce che erano ben note Fasci di luce solare che filtrano tra le nubi

all'epoca di Newton.
Luce 2

Innanzitutto la meccanica galileiana prevede,


correttamente, che le particelle (inclusi i corpuscoli di
luce) si propaghino in linea retta ed il fatto che questi
fossero previsti essere molto leggeri era coerente con
una velocità della luce alta ma non infinita. Anche il
fenomeno della riflessione poteva essere spiegato in
maniera semplice tramite l'urto elastico della particella
di luce sulla superficie riflettente.

La spiegazione della rifrazione era leggermente più


complicata ma tutt'altro che impossibile: bastava infatti
pensare che le particelle incidenti sul materiale
rifrangente subissero, ad opera di questo, delle forze
perpendicolari alla superficie che ne cambiassero la
traiettoria.

I colori dell'arcobaleno venivano spiegati tramite


l'introduzione di un gran numero di corpuscoli di luce
diversi (uno per ogni colore) ed il bianco era pensato come formato da tante di queste particelle. La separazione dei
colori ad opera, ad esempio, di un prisma poneva qualche problema teorico in più perché le particelle di luce
dovrebbero avere proprietà identiche nel vuoto ma diverse all'interno della materia.
Una conseguenza della teoria corpuscolare della luce è che questa, per via dell'accelerazione gravitazionale, aumenti
la sua velocità quando si propaga all'interno di un mezzo.

Teoria ondulatoria
Formulata da Christiaan Huygens nel 1678 ma pubblicata solo nel 1690 nel Traité de la Lumière. La luce veniva
vista come un'onda che si propaga (in maniera del tutto simile alle onde del mare o a quelle acustiche) in un mezzo,
chiamato etere, che si supponeva pervadere tutto l'universo ed essere formato da microscopiche particelle elastiche.
La teoria ondulatoria della luce permetteva di spiegare (anche se in maniera matematicamente complessa) un gran
numero di fenomeni: oltre alla riflessione ed alla rifrazione, Huygens riuscì infatti a spiegare anche il fenomeno della
birifrangenza nei cristalli di calcite.
Nel 1801 Thomas Young dimostrò come i fenomeni della diffrazione (osservato per la prima volta Francesco Maria
Grimaldi nel 1665) e dell'interferenza fossero interamente spiegabili dalla teoria ondulatoria e non lo fossero dalla
teoria corpuscolare. Agli stessi risultati arrivò Augustin-Jean Fresnel nel 1815. Nel 1814 Joseph von Fraunhofer fu il
primo ad investigare seriamente sulle righe di assorbimento nello spettro del Sole, che vennero esaurientemente
spiegate da Kirchhoff e da Bunsen nel 1859, con l'invenzione dello spettroscopio. Le righe sono ancora oggi
chiamate linee di Fraunhofer in suo onore.
Un problema della teoria ondulatoria era tuttavia la propagazione rettilinea della luce. Infatti era ben noto che le onde
sono capaci di aggirare gli ostacoli mentre è esperienza comune che la luce si propaghi in linea retta (questa
proprietà era già stata notata da Euclide nel suo Optica). Questa apparente incongruenza può però essere spiegata
assumendo che la luce abbia una lunghezza d'onda microscopica.
Al contrario della teoria corpuscolare, quella ondulatoria prevede che la luce si propaghi più lentamente all'interno di
un mezzo che nel vuoto; restano ambiguità.
Luce 3

Teoria elettromagnetica
Per la grandissima maggioranza delle applicazioni questa teoria è ancora utilizzata al giorno d'oggi. Proposta da
James Clerk Maxwell alla fine del XIX secolo, sostiene che le onde luminose sono elettromagnetiche e non
necessitano di un mezzo per la trasmissione, mostra che la luce visibile è una parte dello spettro elettromagnetico.
Con la formulazione delle equazioni di Maxwell vennero completamente unificati i fenomeni elettrici, magnetici ed
ottici.

Teoria quantistica
Per risolvere alcuni problemi sulla trattazione del corpo nero nel 1900 Max Planck ideò un artificio matematico,
pensò che l'energia associata ad una onda elettromagnetica non fosse proporzionale al quadrato della sua ampiezza
(come nel caso delle onde elastiche in meccanica classica), ma direttamente proporzionale alla frequenza e che la sua
costante di proporzionalità fosse discreta e non continua.
L'interpretazione successiva che Albert Einstein diede dell'effetto fotoelettrico incanalò il pensiero dei suoi
contemporanei verso una nuova strada. Si cominciò a pensare che quanto fatto da Planck non fosse un mero artificio
matematico, ma piuttosto l'interpretazione di una nuova struttura fisica, cioè che la natura della luce potesse avere un
qualche rapporto con una forma discreta di alcune sue proprietà. Si cominciò a parlare di pacchetti discreti di
energia, battezzati fotoni. Con l'avvento delle teorie quantistiche dei campi (ed in particolare dell'elettrodinamica
quantistica) il concetto di fotone venne formalizzato ed oggi sta alla base dell'ottica quantistica.

La velocità della luce


La luce si propaga a una velocità finita. Anche gli osservatori in movimento misurano sempre lo stesso valore di c, la
velocità della luce nel vuoto, dove c = 299 792 458 m/s. Nell'uso comune, questo valore viene arrotondato a 300 000
km/s.
La velocità della luce è stata misurata molte volte da numerosi fisici. Il primo tentativo di misura venne compiuto da
Galileo Galilei con l'ausilio di lampade oscurabili ma la rudimentalità dei mezzi disponibili non permise di ottenere
alcun valore. La migliore tra le prime misurazioni venne eseguita da Olaus Roemer (un fisico danese), nel 1676. Egli
sviluppò un metodo di misurazione, osservando Giove e una delle sue lune con un telescopio. Grazie al fatto che la
luna veniva eclissata da Giove a intervalli regolari, calcolò il periodo di rivoluzione della luna in 42,5 ore, quando la
Terra era vicina a Giove. Il fatto che il periodo di rivoluzione si allungasse quando la distanza tra Giove e Terra
aumentava, poteva essere spiegato assumendo che la luce impiegava più tempo a coprire la distanza Terra-Giove,
ipotizzando quindi, una velocità finita per essa. La velocità della luce venne calcolata analizzando la distanza tra i
due pianeti in tempi differenti. Roemer calcolò una velocità di 227 326 km/s.
Albert A. Michelson migliorò il lavoro di Roemer nel 1926. Usando uno specchio rotante, misurò il tempo impiegato
dalla luce per percorrere il viaggio di andata e ritorno dal monte Wilson al monte San Antonio in California. La
misura precisa portò a una velocità di 299 796 km/s.
Questo esperimento in realtà misurò la velocità della luce nell'aria. Infatti, quando la luce passa attraverso una
sostanza trasparente, come l'aria, l'acqua o il vetro, la sua velocità c si riduce a v=c/n (dove n è il valore dell'indice di
rifrazione del mezzo) ed è sottoposta a rifrazione. In altre parole, n = 1 nel vuoto e n > 1 nella materia. L'indice di
rifrazione dell'aria di fatto è molto vicino a 1, e in effetti la misura di Michelson è un'ottima approssimazione di c.
Luce 4

Ottica
Lo studio della luce e dell'interazione tra luce e materia è detto ottica. L'osservazione e lo studio dei fenomeni ottici,
come ad esempio l'arcobaleno offre molti indizi sulla natura della luce.

Colori e lunghezze d'onda


Le differenti lunghezze d'onda vengono interpretate dal cervello come colori, che vanno dal rosso delle lunghezze
d'onda più ampie (minore frequenza), al violetto delle lunghezze d'onda più brevi (maggiore frequenza). Ci preme,
tuttavia sottolineare, che non a tutti i colori possiamo associare una lunghezza d'onda. Spesso questo aspetto non
viene sottolineato e si diffonde l'errata convinzione, inconsapevolmente foraggiata anche da immagini come quelle
presenti in codesta pagina, che ci sia una relazione biettiva tra un colore e una lunghezza d'onda. In realtà, è vero che
ad ogni lunghezza d'onda è associabile un → colore, ma non è vero il contrario. Quei colori a cui non sono associate
lunghezze d'onda, sono invece generati dal meccanismo di funzionamento del nostro apparato visivo
(cervello+occhio). In particolare i coni, cellule della retina responsabili della visione del colore, si differenziano in
tre tipi perché sensibili a tre diverse regioni spettrali della luce. Quando, ad esempio, due diverse onde
monocromatiche, appartenenti a due regioni diverse di cui prima, sollecitano contemporaneamente l'occhio, il nostro
cervello interpreta la sollecitazione come un nuovo colore, "somma" dei due originari.
Le frequenze immediatamente al di fuori dello spettro percettibile dall'occhio umano vengono chiamate ultravioletto
(UV), per le alte frequenze, e infrarosso (IR) per le basse. Anche se gli esseri umani non possono vedere l'infrarosso,
esso viene percepito dai recettori della pelle come calore. Telecamere in grado di captare i raggi infrarossi e
convertirli in luce visibile, vengono chiamati visori notturni. La radiazione ultravioletta non viene percepita dagli
esseri umani, se non in maniera molto indiretta, in quanto la sovraesposizione della pelle ai raggi UV causa
scottature. Alcuni animali, come le api, riescono a vedere gli ultravioletti; altri invece riescono a vedere gli
infrarossi.

Lunghezze d'onda della luce visibile

La luce visibile è una porzione dello spettro elettromagnetico compresa approssimativamente tra i 400 e i 700
nanometri (nm) (nell'aria). La luce è anche caratterizzata dalla sua frequenza. Frequenza e lunghezza d'onda
obbediscono alla seguente relazione: l=v/f (dove l è la lunghezza d'onda, v è la velocità nel mezzo considerato - nel
vuoto in genere si indica con c - , f è la frequenza della radiazione).
Luce 5

Grandezze misurabili
Di seguito sono riportate quantità o unità di misura legate a fenomeni luminosi:
• Tonalità (o → temperatura)
• luminosità
• illuminamento (unità SI: lux)
• flusso luminoso (unità SI: lumen)
• intensità luminosa (unità SI: candela)

Sorgenti di luce
• Radiazione termica
• Lampade ad incandescenza
• Luce solare
• fuoco
• Qualsiasi corpo ad di sopra di una certa temperatura (cioè incandescente, ad es. metallo fuso)
• Emissione spettrale atomica (la fonte di emissione può essere stimolata o spontanea)
• Laser e Maser (emissione stimolata)
• LED (light emitting diode)
• lampade a scarica di gas (insegne al neon, lampade al mercurio, etc)
• Fiamme dei gas
• Accelerazione di una particella dotata di carica (solitamente un elettrone)
• Radiazione ciclotronica
• Bremsstrahlung
• Effetto Čerenkov
• luce di sincrotrone
• chemioluminescenza
• fluorescenza
• fosforescenza
• tubo catodico
• bioluminescenza
• sonoluminescenza
• triboluminescenza
• radioattività
• annichilazione particella-antiparticella

Altri progetti
• Wikimedia Commons contiene file multimediali su luce
• Wikiquote contiene citazioni riguardanti la luce
• Wikizionario contiene la voce di dizionario «luce»
Spettro elettromagnetico
(Ordinato in base alla frequenza, ordine crescente)

Onde radio | Microonde | Radiazione terahertz | Infrarosso | Luce visibile | Ultravioletto | Raggi X | Raggi gamma
Luce 6

Spettro delle onde radio

ELF SLF ULF VLF LF MF HF VHF UHF SHF EHF

3 Hz 30 Hz 300 3 kHz 30 kHz 300 3 MHz 30 MHz 300 3 GHz 30 GHz


Hz kHz MHz

30 300 3 kHz 30 300 3 MHz 30 300 3 GHz 30 300


Hz Hz kHz kHz MHz MHz GHz GHz

Spettro visibile: Rosso | Arancione | Giallo | Verde | Ciano | Blu | Violetto

ckb:‫ کشیت‬mwl:Lhuç

Colore
Il colore è la percezione visiva generata dai
segnali nervosi che i fotorecettori della
retina mandano al cervello quando
assorbono radiazioni elettromagnetiche di
determinate lunghezze d'onda e intensità.

Matite colorate, rappresentano alcuni colori

Percezione del colore

Spettro ottico (progettato per monitor con gamma 1.5).


Colore 7

I colori dello spettro di luce visibile


colore intervallo di lunghezza intervallo di frequenza
d'onda

rosso ~ 700–630 nm ~ 430–480 THz

arancione ~ 630–590 nm ~ 480–510 THz

giallo ~ 590–560 nm ~ 510–540 THz

verde ~ 560–490 nm ~ 540–610 THz

blu ~ 490–450 nm ~ 610–670 THz

viola ~ 450–400 nm ~ 670–750 THz

La formazione della percezione del colore avviene in tre fasi:


1. Nella prima fase un gruppo di fotoni (stimolo visivo) arriva all’occhio, attraversa cornea, umore acqueo, pupilla,
cristallino, umore vitreo e raggiunge i fotorecettori della retina (bastoncelli e coni), dai quali viene assorbito.
Come risultato dell’assorbimento, i fotorecettori generano (in un processo detto trasduzione) tre segnali nervosi,
che sono segnali elettrici in modulazione di ampiezza.
2. La seconda fase avviene ancora a livello retinico e consiste nella elaborazione e compressione dei tre segnali
nervosi, e termina con la creazione dei segnali opponenti, segnali elettrici in modulazione di frequenza, e la loro
trasmissione al cervello lungo il nervo ottico.
3. La terza fase consiste nell’interpretazione dei segnali opponenti da parte del cervello e nella percezione del
colore.

Prima fase
Nella prima fase una sorgente luminosa emette un flusso di fotoni di diversa frequenza. Questo flusso di fotoni può:
1. arrivare direttamente all'occhio:
2. essere riflesso da un corpo che ne assorbe alcuni e ne riflette altri:
3. essere trasmesso da un corpo trasparente che ne assorbe alcuni e riflette altri.
In ogni caso i fotoni che giungono all'occhio costituiscono lo stimolo di colore. Ogni singolo fotone attraversa la
cornea, l'umore acqueo, la pupilla, il cristallino, l'umore vitreo e raggiunge uno dei fotorecettori della retina (un
bastoncello, oppure un cono L, un cono M o un cono S) dal quale può essere o non essere assorbito. La probabilità
che un tipo di fotorecettore assorba un fotone dipende dal tipo di fotorecettore e dalla frequenza del fotone.
Come risultato dell'assorbimento ogni fotorecettore genera un segnale elettrico in modulazione di ampiezza,
proporzionale al numeri di fotoni assorbiti. Gli esperimenti mostrano che i segnali generati dai tre coni L, M e S sono
direttamente collegati con la sensazione di colore, e sono detti segnali di tristimolo.
Colore 8

Seconda fase
Nella seconda fase i segnali di tristimolo vengono elaborati e compressi con modalità non ancora completamente
note. Questa elaborazione avviene nella altre cellule della retina (cellule orizzontali, bipolari e gangliari) e termina
con la generazione di altri tre segnali elettrici, questa volta in modulazione di frequenza, che sono chiamati segnali
opponenti e vengono trasmessi al cervello lungo il nervo ottico.

Terza fase
I segnali chimici opponenti che lungo i due nervi ottici (che sono costituiti dagli assoni delle cellule gangliari)
raggiungono il cervello arrivano nei cosiddetti corpi genicolati laterali, che costituiscono una stazione intermedia per
i segnali, che da qui vengono proiettati in apposite aree della corteccia visiva, dove nasce la percezione del colore.

Terminologia del Colore


Berlin e Kay studiarono il numero di nomi
dedicati ai colori nelle diverse culture
stabilendo che si può passare da un minimo
di 2, chiaro e scuro ad un massimo di 11.
Dimostrarono inoltre che man mano che si
procede con la definizione di più colori lo
sviluppo è omogeneo in tutte le culture, ad
esempio dopo il chiaro e lo scuro si indica
come colore il rosso, poi il verde e il giallo e
così via fino a giungere all'arancione che è il
colore definito in meno culture. La teoria dei
due antropologi era che il numero di colori
dipendesse dalla complessità della cultura,
ma questa teoria venne criticata in quanto
essi non consideravano che alla percezioni Variopinto mercato a Karachi.
colore erano legate delle sensazioni emotive
e quindi la percezione del colore è legata alla cultura stessa. Al termine si lega quindi una connotazione, un alone di
significati a seconda del contesto. Inoltre alcuni colori non vengono definiti se non associandoli al colore di un
elemento naturale (es. "verde" diviene "foglia") così come accade quando noi definiamo un rosso come "ruggine".
Nella cultura orientale "i colori sono inebrianti, magnifici; ma le forme sono meschine e brutte, volutamente
meschine e brutte, e cattive". La cultura occidentale precristiana era invece molto attenta alla forma e all'uso, ma
poverissima di colore: in greco antico e in latino le poche parole che definiscono un colore si riferiscono in realtà al
suo grado di opacità, oppure sono associate a un elemento naturale. Addirittura, le sculture e le pitture erano
compiute con colori eccessivamente sgargianti ai nostri occhi, ma sotto-percepiti come normali dagli antichi greci.
Solo con l'avvento del vangelo avviene l'integrazione della forma e del colore; tuttavia, vi sono zone, quali l'Europa
settentrionale, in cui il cristianesimo si diffonde solo in forma idealistica, che mantengono perciò un forte squilibrio a
favore della forma, determinato dal substrato germanico.
Colore 9

Contrasti cromatici
I contrasti cromatici si producono tramite l'accostamento di due o più colori diversi tra loro.

Contrasto tra colori puri


Il contrasto tra colori puri si produce tramite l'accostamento di Colori primari.

Contrasto tra colori complementari


Il contrasto tra colori complementari si ottiene tramite l'accostamento di un colore primario e del colore risultante
dall'unione degli altri due primari rimasti, tali contrasti sono: giallo-viola, rosso-verde, blu-arancione.

Contrasto di quantità
Ogni tinta presenta un diverso grado di luminosità, per cui se vogliamo creare un equilibrio percettivo è necessario
stendere in modo molto proporzionale le varie zone di colore, ad esempio un colore molto luminoso dovrà occupare
un'area minore rispetto a un colore con un minore grado di luminosità.

Studio del colore


Da quanto sopra si evince che lo studio del colore riguarda più discipline:
• la fisica, in particolare l'ottica per tutto ciò che avviene all'esterno del sistema visivo
• la fisiologia, per quanto riguarda il funzionamento dell'occhio e la generazione, elaborazione, codifica e
trasmissione dei segnali nervosi dalla retina al cervello
• la psicologia per quanto riguarda l'interpretazione dei segnali nervosi e la percezione del colore. Se ne interessò in
particolare Kristian Birch-Reichenwald Aars filosofo e psicologo nervegese.
ma coinvolge anche:
• la psicofisica che studia la relazione tra lo stimolo e la risposta del sistema visivo (la colorimetria è una parte della
psicofisica)
• la matematica necessaria per lo sviluppo di modelli rappresentativi della visione del colore

Voci correlate
• Associazione Internazionale del Colore
• Basic design
• Colori primari
• Colorimetria
• → CMYK
• Cromoforo
• Cromoterapia
• Lista dei colori
• → Luce
• Mescolanza additiva
• Mescolanza sottrattiva
• Metamerismo
• Pantone
• Rappresentazione dei colori
• Sistema NCS
• → Spazio dei colori
Colore 10

• Stimolo di colore

Bibliografia
• G. Wyszecki, W.S. Stiles: Color Science: Concepts and Methods, Quantitative Data and Formulae Wiley 1982
(II ed.)
• C. Oleari (a cura di): Misurare il colore Hoepli 1998
• R.W.G. Hunt: "Measuring Color" Fountain Press 1998 (III ed.)
• G.A. Agoston: Color Theory and Its Application in Art and Design Springer 1987 (II ed.)
• D.B. Judd, G. Wyszecki: Color in Business, Science, and Industry Wiley 1975 (III ed.)
• M.D. Fairchild: Color Appearance Models Addison Wesley 1998
• CIE: International Lighting Vocabulary 1970 (III ed.)
• J.W. von Goethe: ''"La teoria dei colori. Lineamenti di una teoria dei colori", a cura di Renato Troncon, Il
Saggiatore 1981

Altri progetti
• Wikimedia Commons contiene file multimediali su colore
• Wikizionario contiene la voce di dizionario «colore»
• Wikiquote contiene citazioni sul colore

Collegamenti esterni
• La psicologia dei colori [1]
• Un dizionario dei sinonimi dei colori [2]
• I principali schemi di colori [3]

Note
[1] http:/ / www. lucacoladarci. it/ colori. htm
[2] http:/ / www. communities. hp. com/ online/ blogs/ mostly_color/ archive/ 2008/ 07/ 30/ un-dizionario-dei-sinonimi-dei-colori. aspx
[3] http:/ / computer-acquisti. com/ blog/ gli-schemi-di-colori-cosa-sono-e-come-usarli/
Spazio dei colori 11

Spazio dei colori


Uno spazio dei colori è la combinazione di un modello di colore e di
una appropriata funzione di mappatura di questo modello.
Un modello di colore, infatti, è un modello matematico astratto che
descrive un modo per rappresentare i colori come combinazioni di
numeri, tipicamente come tre o quattro valori detti componenti colore.
Tuttavia questo modello è una rappresentazione astratta, per questo viene perfezionato da specifiche regole adatte
all'utilizzo che se ne andrà a fare, creando uno spazio dei colori.
Così, ad esempio, spazi di colore come Adobe RGB e sRGB sono diversi, pur basandosi entrambi sullo stesso
modello di colore → RGB.

Lo spazio dei colori dell'Osservatore standard


Nel 1931 la Commission Internationale de l'Eclairage (Commissione Internazionale per l'Illuminazione) definì uno
spazio di colore che comprendeva tutte le tinte visibili dall'occhio umano, a prescindere dalla luminanza. Infatti
qualunque colore all'interno di questo spazio bidimensionale può avere una luminanza che varia dal bianco al nero e
se si tiene conto anche di questo fattore (la luminanza) lo spazio così definito diviene tridimensionale e rappresentato
mediante coordinate XYZ. Il modello CIE 1931 si basa, come altre codifiche note, sull'utilizzo di tre → colori
primari che, opportunamente miscelati tra loro in sintesi additiva, permettevano di ottenere tutti i colori che l'occhio
umano può percepire. La commissione CIE ha comunque definito diversi modelli matematici di percezione del
colore indicati come spazi di colore e rappresentati da sigle come XYZ (è il modello CIE 1931), xyY, Lab, Luv.
A differenza, però, dei metodi → RGB o → CMYK (usati rispettivamente in sintesi additiva e in sottrattiva), il
diagramma di cromaticità proposto dalla CIE non dipendeva dal comportamento di questo o quel dispositivo di
visualizzazione o stampa in quanto basato sul concetto di Osservatore Standard.
Quest'ultimo è definito a partire dalle proprietà del sistema visivo dell'uomo e si basa su analisi sistematiche
effettuate su un vasto campione di osservatori umani. E in base a numerosi studi effettuati nel primo dopoguerra fu
notata l'impossibilità di riuscire a riprodurre per sintesi additiva tutti i colori comunque si scegliesse la terna di
primari reali da miscelare.
Poiché può rappresentare tutte le tinte percepibili, lo spazio di colore del CIE è preso come riferimento per tutti gli
altri, tuttavia nella pratica non viene molto usato a causa della sua complessità.
Spazio dei colori 12

Primari immaginari
Solo aggiungendo un colore primario alla tinta da codificare era
possibile individuare una terna cromatica che la riproducesse
fedelmente: fu ipotizzato così che la risposta dei fotorecettori retinici
umani (i coni) avesse un andamento negativo per alcune frequenze
dello spettro visibile.
I primari scelti dalla CIE per generare tutti i colori visibili sono tinte
ipersature: colori (in realtà, non essendo visibili, non dovrebbero essere
indicati come tali) più saturi di quanto i nostri fotorecettori retinici
siano in grado di decifrare.
I tre "primari immaginari", con notevole sforzo di fantasia, sono stati
denominati X, Y, e Z. X corrisponde a un rosso violaceo ipersaturo
contraddistinto da due picchi nello spettro cromatico rispettivamente Esempio di uno spazio dei colori

intorno ai 450 nm e ai 600 nm (quest'ultimo molto superiore al primo),


Y e Z corrispondono a tinte spettrali - sempre irrealisticamente ipersature - con lunghezza d'onda dominante
rispettivamente di 520 e 477 nanometri.

Inoltre la tinta Y (quella corrispondente al "verde ipersaturo") ha un andamento proporzionale alla nostra sensibilità
alla luminosità delle tinte. Scelti i tre primari tramite i quali è possibile ottenere, per sintesi additiva, qualsiasi tinta
reale è possibile a questo punto utilizzare uno spazio tridimensionale, avente per assi i tre primari utilizzati, per
catalogarle tutte.
Per non ricorrere ad un diagramma tridimensionale è possibile normalizzare le tinte facendo in modo che la loro
somma sia sempre pari ad uno. Se X, Y, e Z sono i tre valori che identificano un colore, X+Y+Z la loro somma, e noi
poniamo:
x = X/(X+Y+Z)
y = Y/(X+Y+Z)
z = Z/(X+Y+Z)
risulta, con semplici passaggi algebrici e stando attenti a minuscole e maiuscole, che x+y+z è sempre uguale ad 1 per
qualsiasi valore originario di X, Y e Z. Da questo si ricava tra l'altro che:
z = 1-x-y
ed è dunque possibile utilizzare due sole coordinate cromatiche (x e y, ad esempio) per identificare un colore essendo
la terza (z, in questo caso) ricavabile sottraendo all'unità le altre due. Il vantaggio è evidente: normalizzando i colori
col meccanismo della somma costante (uguale a 1) è possibile utilizzare un grafico bidimensionale per catalogare
qualitativamente (e non quantitativamente) tutte le tinte reali.
Ovvero si tracciano tutti i colori possibili ed immaginabili la cui intensità totale è costante e pari ad uno: tutte le altre
tinte sono ottenute semplicemente indicando, oltre ai valori x e y (il valore z si ottiene, come detto, dagli altri due) il
suo grado di luminosità espresso, volendo, in forma percentuale.
Spazio dei colori 13

Colori reali e irreali


Tutti i colori (reali e irreali) generabili
con i primari x e y giacciono su un
triangolo rettangolo avente come
vertici l'origine (0,0) il punto massimo
di x e minimo di y (1,0) e il punto
massimo di y e minimo di x (0,1).
All'interno di questo triangolo
rettangolo è tracciato il diagramma
CIE dei colori reali: una campana che
racchiude tutte le tinte possibili. Al di
fuori della campana (ma sempre
all'interno del triangolo) ci sono tutti i
colori non visibili o non distinguibili
da quelli presenti lungo il perimetro
esterno. Il diagramma CIE gode,
proprio per il modo in cui è stato
generato, di alcune importanti
caratteristiche che andiamo ora ad
illustrare maggiormente in dettaglio.

Più o meno al centro del diagramma Lo spazio dei colori CIE 1931
CIE è presente un punto (un colore),
come si vedrà tra breve, di importanza strategica, indicato con la lettera "C". È il cosiddetto "Illuminante CIE",
assunto come riferimento e corrispondente alla radiazione emessa da una superficie bianca illuminata da luce diurna
media. Lungo il perimetro curvo della campana si trovano tutte le tinte spettrali alla loro massima saturazione. Nella
parte alta del diagramma vivono le famiglie dei verdi; in basso a sinistra i blu, in basso a destra i rossi.

Sul segmento rettilineo che congiunge i due vertici inferiori della campana si trovano i colori non spettrali (o
porpore) alla loro massima saturazione. Tutti i colori non spettrali, dalla saturazione via via decrescente, sono situati
nel triangolo delimitato in basso dal segmento delle porpore e avente come vertice il punto C.

Colori spettrali
Lo stesso vale per i colori spettrali, situati nella rimanente parte del diagramma: man mano che ci si avvicina
all'illuminante C i colori sono sempre meno saturi. Per come è costruito il diagramma, prendendo due tinte qualsiasi,
il segmento che le unisce rappresenta tutte le possibili mescolanze additive dei due colori prescelti. Non solo: la
posizione relativa lungo il segmento di congiunzione rappresenta la percentuale di mescolanza delle tinte.
Così nel baricentro del segmento è possibile trovare la tinta esattamente formata dal 50% del primo colore e dal 50%
del secondo colore. Spostandosi ad esempio ai "tre quarti" del segmento, la tinta individuata corrisponde alla somma
del 75% del primo colore e del 25% del secondo colore e così via.
Lo stesso discorso vale per la sintesi additiva di tre o più componenti cromatiche: le tinte ottenibili dalla loro
mescolanza sono tutte quelle delimitate dal poligono convesso che ha come vertici i punti del diagramma che
corrispondono ai colori utilizzati. Tornando al caso di due sole tinte, se il segmento che le unisce passa per il punto C
i colori presi in considerazione sono tra loro complementari. Se il punto C "cade" nel baricentro del segmento, le due
tinte hanno la medesima saturazione (è uguale la loro distanza dall'illuminante CIE) e sommandole tra di loro si
ottiene il colore bianco.
Spazio dei colori 14

Mescolanze sottrattive
Il diagramma di cromaticità CIE può essere utilizzato, prendendo le dovute precauzioni, anche per le mescolanze
sottrattive (come avviene per la stampa). I colori ottenuti dalla mescolanza sottrattiva di due tinte non giacciono sul
segmento rettilineo che li unisce ma lungo un segmento curvilineo del quale non è nota a priori la forma esatta. Per
tracciare la curva (il luogo dei punti corrispondenti ai colori ottenibili dalla sintesi sottrattiva dei due colori) è
necessario "campionare" alcune mescolanze tipiche (ad esempio 10%-90%, 20%-80%, 30%-70%, ecc. ecc.) ed
interpolare così l'andamento complessivo.
Da segnalare due cose interessanti. Innanzitutto, proprio per la forma a campana di quest'ultimo, comunque
scegliamo i tre primari all'interno dei colori reali non riusciremo mai a riprodurre con essi tutte le tinte ma ne
escluderemo sempre una certa quantità. Dunque si può dire che non esistono monitor RGB in grado di riprodurre
tutto il riproducibile o scanner a colori altrettanto sensibili. La seconda considerazione riguarda lo spazio cromatico
della stampa a colori, ridotto rispetto allo spazio RGB ma leggermente più accurato per quel che riguarda la stampa
delle tinte azzurro ciano.
Se un colore appartiene al perimetro esterno è, come già detto, al suo massimo grado di purezza, se cade all'interno
del diagramma ha come saturazione la distanza relativa la tinta e il punto C, misurata lungo il segmento passante per
il colore e congiungente il bianco col bordo esterno. Il punto in cui il prolungamento del segmento incontra il
perimetro identifica la lunghezza d'onda dominante della tinta considerata.

Altri spazi di colore


• Basati sul modello → RGB:
• Adobe RGB
• sRGB
• ISO RGB e Extended ISO RGB
• Apple RGB
• Studiati per la televisione
• Y'UV, utilizzato per PAL e recentemente per NTSC
• YIQ, storicamente utilizzato per NTSC
• YDbDr, utilizzato per il SECAM
• Studiato per la stampa
• → CMYK
• HSV
• HSL

Voci correlate
• ColorSync
• Colorimetria
Temperatura di colore 15

Temperatura di colore
Temperatura di → colore è un termine usato in illuminotecnica per quantificare la tonalità della → luce, che si
misura in kelvin.

Definizione
Il termine deriva dal fatto che lo spettro luminoso emesso da un corpo nero presenta un picco di emissione
determinato in base alla legge di Wien esclusivamente dalla sua temperatura. Una sorgente reale differisce da un
corpo nero ideale ma l'analogia rimane valida.
Una temperatura bassa (sempre però nell'incandescenza, intorno ai 2000 K) corrisponde ad un colore giallo-arancio.
Scendendo si passa al rosso ed all'infrarosso, non più visibile, mentre salendo di temperatura la luce si fa dapprima
più bianca, quindi azzurra, violetta ed ultravioletta. Quando comunemente si dice che una luce è calda, in realtà
questa corrisponde ad una temperatura di colore bassa, viceversa un temperatura maggiore produce una luce definita
comunemente fredda.

Si noti che ha senso parlare di temperatura di colore solo se la sorgente di luce emette uno spettro di energia
continuo. Questo non si verifica però per tutte le sorgenti luminose.

Determinazione
Una corpo solido riscaldato all'incandescenza emette prevalentemente nella gamma della luce visibile, ma la
lunghezza d'onda del picco di emissione varia al variare della temperatura. Nelle normali lampade ad incandescenza
la lunghezza d'onda è spostata verso valori maggiori e la luce prodotta, intorno ad un valore di 2800 K presenta una
componente gialla. Nelle lampade alogene si riesce ad aumentare la temperatura del filamento ottenendo una luce
più bianca, intorno ad un valore di 3200 K.
Nelle lampade a scarica il colore è determinato dallo spettro di emissione del gas alla pressione a cui si trova. Nelle
lampade fluorescenti , che sono anch'esse lampade a scarica ma che producono luce attraverso un procedimento
elettrochimico diverso, dove cioè la vera e propria scarica elettrica provoca l'eccitazione, e perciò la luminescenza,
delle polveri fluorescenti depositate uniformemente all'interno della lampada stessa, la tonalità della luce dipende
dalla scelta del materiale fluorescente utilizzato (per questo si possono avere lampade a fluorescenza di colori
differenti. Si noti che il fenomeno della fluorescenza differisce da quello della fosforescenza, in quanto nel primo
caso, al cessare dell'eccitazione causante la luminescenza, l'emissione di luce è pressoché istantanea, nel secondo
caso può durare a lungo. Ricordiamo, inoltre, che le lampade appartenenti alla categoria delle fluorescenti non ha
nulla a che fare con le lampade al neon, usate in prevalenza per le insegne commerciali .
Spesso sono riportate le temperature di → colore del bianco dei monitor per PC, siano essi di tipo CRT, LCD o al
plasma, ma questa temperatura, in realtà, non avrebbe senso, in quanto tale bianco è prodotto per metamerismo dalla
somma dei colori fondamentali (Red, Green e Blue) prodotti dai diversi fosfori.
Temperatura di colore 16

Esempi
Qui di seguito sono riportate le temperature di colore di alcune sorgenti di luce comuni:
• Luce solare a mezzogiorno: 5 400 K
• Luce del cielo: da 10 000 a 18 000 K
• Lampada Photoflood da 500 W per uso fotografico: 3 400 K
• Lampada da 100 W per uso generale: 2 900 K
• Lampada da 40 W per uso generale: 2 650 K

Voci correlate
• Metamerismo

RGB
RGB è il nome di un modello di colori le cui specifiche sono state descritte
nel 1931 dalla CIE (Commission internationale de l'éclairage). Tale modello
di colori è di tipo additivo e si basa sui tre colori rosso (Red), verde (Green) e
blu (Blue), da cui appunto il nome RGB, da non confondere con i colori
primari sottrattivi giallo, ciano e magenta (popolarmente chiamati anche
giallo, rosso e blu). Un'immagine può infatti essere scomposta, attraverso
filtri o altre tecniche, in questi colori base che, miscelati tra loro, danno quasi
tutto lo spettro dei colori visibili, con l'eccezione delle porpore.

Più specificamente i 3 colori principali corrispondo a forme d'onda


(radiazioni luminose) di periodo fissato. A una lunghezza d'onda di 700 nm Miscelazione additiva
corrisponde il rosso, a 546.1 nm il verde, a 455.8 nm il blu.
L'RGB è un modello additivo: unendo i tre colori con la loro intensità massima si ottiene il bianco (tutta la luce viene
riflessa). La combinazione delle coppie di colori dà il cìano, il magenta e il giallo.
Per poter trasferire un'immagine video
è necessario inviare anche un segnale
di sincronismo che fornisca le
informazioni su quando inizia
un'immagine (sincronismo verticale)
Tricromia additiva RGB di un'immagine reale
e su quando inizia una riga
dell'immagine (sincronismo
orizzontale). Questi due sincronismi possono essere combinati in un unico sincronismo (sincronismo composito)
RGB 17

Principi fisici per la scelta del rosso, verde e blu


La scelta dei colori primari è correlata alla fisiologia dell'occhio umano; buoni primari sono stimoli che
massimizzano la differenza tra le risposte delle cellule cono della retina alle differenze di lunghezza d'onda della
luce, cioè hanno un triangolo di colore esteso.[1]
I tre tipi normali di cellule fotorecettive sensibili alla luce nell'occhio umano (le cellule cono) rispondono più alla
luce gialla (lunghezza d'onda lunga), verde (media), e viola (corta), con picchi vicini ai 570 nm, 540 nm e 440 nm,
rispettivamente[1] . La differenza nei segnali ricevuti dai tre tipi permette al cervello di differenziare un largo gamut
di colori diversi, essendo più sensibile soprattutto alla luce verde-giallognola e alle differenze di tonalità nella
regione verde-arancione.
L'uso dei tre colori primari non è sufficiente a riprodurre tutti i colori; solo i colori entro il triangolo dei colori
definito dalla cromaticità dei primari può essere riprodotto tramite sintesi additiva di quantità non negative di tali
colori.[1]

RGsB
Quando su un'interfaccia video si trasmette il colore RGB con tre canali solamente il sincronismo composito viene
posto sul verde (G). Questa modalità si chiama RGsB.

RGBS
Quando su un'interfaccia video si trasmette il colore RGB con quattro canali, il quarto è utilizzato per il sincronismo
composito. Questa modalità si chiama RGBS utilizzata ad esempio su un'interfaccia SCART.

RGBHV
Quando su un'interfaccia video si trasmette il colore RGB con cinque canali, il quarto è utilizzato per il sincronismo
orizzontale (H) e il quinto per il sincronismo verticale (V). Questa modalità si chiama RGBHV utilizzata ad esempio
su un'interfaccia Video Graphics Array o Digital Visual Interface.

Voci correlate
• Colorimetria
• → CMYK
• Sintesi additiva
• Sintesi sottrattiva
• YUV
• RGBA
RGB 18

Collegamenti esterni
• [2] (pagina che consente di sperimentare l'effetto della sovrapposizione dei colori base, visualizzando l'effetto
della sintesi additiva e della sintesi sottrattiva)

Note
[1] R. W. G. Hunt, The Reproduction of Colour, 6th ed., Chichester UK, Wiley – IS&T Series in Imaging Science and Technology, 2004. ISBN
0-470-02425-9
[2] http:/ / ww2. unime. it/ dipart/ i_fismed/ wbt/ ita/ colors/ colors_ita. htm

CMYK
CMYK è l'acronimo per Cyan, Magenta, Yellow, BlacK; è
un modello di colore detto anche di quattricromia o
quadricromia. La scelta della lettera K per il nero, anziché
la lettera B iniziale nella traduzione inglese, è stata fatta per
evitare confusioni con l'iniziale del colore Blue ed è dovuta al
fatto che, nella stampa, si usa un procedimento di separazione
dei colori per produrre tante diverse immagini quanti sono gli
inchiostri usati. Nella quadricromia CMYK l'immagine
corrispondente al nero è quella che contiene più dettagli e la
lastra di stampa corrispondente è quindi normalmente
considerata la lastra chiave, in inglese key plate. Da qui l'uso
di K, con riferimento a tale lastra, per indicare il nero.

Quadricromia CMYK
CMYK 19

I colori ottenibili con la quadricromia (sintesi sottrattiva) sono un


sottoinsieme della gamma visibile, quindi non tutti i colori che
vediamo possono essere realizzati con la quadricromia, così come
non tutti i colori realizzati con l'insieme → RGB (RED GREEN
BLUE) cioè quelli che vediamo sui nostri monitor (sintesi
additiva) hanno un corrispondente nell'insieme CMYK.

Quando sono sovrapposti nelle diverse percentuali, i primi tre


possono dare origine quasi a qualunque altro → colore. Il 100% di
tutte e tre le componenti (CMYK 100,100,100,0) non genera
solitamente il nero, bensì il bistro, colore simile a una tonalità di
marrone molto scura, tuttavia alcune stampanti inkjet fotografiche
(es.: Hp Photosmart) lavorano esclusivamente in tricromia (Cyan,
Miscelazione sottrattiva Magenta, Giallo) anche per l'ottenimento del nero. Perciò nei
processi di stampa si è aggiunto l'inchiostro di un quarto colore per
avere il nero pieno (CMYK 0,0,0,100) risparmiando sulle componenti degli altri tre inchiostri (v. Gray Component
Replacement (GCR) e Under Color Removal (UCR))

Voci correlate
• Colorimetria
• → RGB
• Sintesi additiva
• Sintesi sottrattiva
• Oleografia
• Stampa offset
Hue Saturation Brightness 20

Hue Saturation Brightness


HSB, è l'acronimo di Hue Saturation Brightness (tonalità,
saturazione e luminosità) e indica sia un metodo additivo di
composizione dei → colori che un modo per rappresentarli in un
sistema digitale. Viene anche chiamato HSV, Hue Saturation
Value (tonalità, saturazione e valore), o HSI, Hue Saturation
Intensity (tonalità, saturazione ed intesità).

Per saturazione si intende l'intensità e la purezza del colore, mentre


la luminosità (valore) è un'indicazione della sua brillantezza.
Ovviamente la tonalità indica il colore stesso.
Il modello HSB è particolarmente orientato alla prospettiva
Descrizione grafica dello spazio colore HSV.
umana, essendo basato sulla percezione che si ha di un colore in
termini di tinta, sfumatura e tono. Il sistema di coordinate è
cilindrico e il modello HSB è definito come un cono distorto
all'interno del cilindro.
La tonalità H viene misurata da un angolo intorno all'asse
verticale, con il rosso a 0 gradi, il verde a 120 e il blu a 240.
L'altezza del cono rappresenta la luminosità (B) con lo zero che
rappresenta il nero e l'uno il bianco. La saturazione (S) invece va
da zero, sull'asse del cono, a uno sulla superficie del cono.

Voci correlate
• Hue Saturation Lightness
• saturazione
• tonalità
• luminosità HSL visto come un doppio cono.

Collegamenti esterni
• Implementazione in C dell'algoritmo per convertire i colori da HSV a RGB e viceversa. [1]

Note
[1] http:/ / mamo139. altervista. org/ index. php?tipo=c& id=0
21

Grafica Digitale

Grafica raster
La grafica bitmap, o grafica raster (in inglese bitmap graphics,
raster graphics), è una tecnica utilizzata in computer grafica per
descrivere un'→ immagine. Un'immagine descritta con questo tipo di
grafica è chiamata immagine bitmap o immagine raster.
La grafica bitmap si contrappone alla grafica vettoriale.

Significato del termine


Il termine raster (= trama, reticolo, griglia) trae origine dalla
tecnologia televisiva analogica, ovvero dal termine che indica le righe
orizzontali (dette anche scan line) dei televisori o dei monitor[1]). In
computer grafica, indica la griglia ortogonale di punti che costituisce
un'immagine raster. Nella → grafica raster l'immagine viene vista
come una scacchiera e ad ogni elemento della scacchiera, chiamato →
pixel, viene associato uno specifico colore. Il colore può essere definito con due tecniche:

• se l'immagine contiene pochi colori (massimo 256) si crea un elenco dei colori da utilizzare e nella scacchiera
viene inserito l'indice che punta allo specifico colore del pixel;
• nel caso si vogliano utilizzare molti più colori il singolo pixel non definisce più l'indice a una tavolozza di colori
ma definisce il colore direttamente.
Il colore viene definito come un'unione delle componenti blu, rossa e verde. Questo non è l'unico modo di definire
un colore, esistono molti modi che vengono chiamati → spazi di colore ma nel caso delle immagini generate al
computer il sistema → RGB (RED Rosso, GREEN verde BLUE Blu) è il più diffuso dato che le schede grafiche lo
utilizzano nativamente per generare il segnale da visualizzare con il monitor.

Proprietà della grafica raster


La bitmap è caratterizzata da due proprietà:
• risoluzione;
• profondità di colore.
La prima è determinata dal numero di pixel contenuti nell'unità di misura considerata (in genere il pollice inglese,
che misura 2,54 cm) ed è ottenuta moltiplicando il numero di pixel orizzontali per quello dei pixel verticali; si misura
in PPI (Points Per Inch). La seconda è definita dalla memoria che si dedica ad ogni pixel, ovvero dal numero di bit
dedicati ad ogni pixel per descrivere il colore, e si misura in BPP (Bit Per Pixel); maggiore è il numero di bit,
maggiore è il numero di colori che è possibile descrivere.
La grafica bitmap non è vantaggiosa se l'utente necessita di apportare modifiche all'immagine, perché nel caso ad
esempio di uno zoom, la risoluzione diventa bassissima e quindi la qualità dell'immagine peggiora notevolmente. I
software grafici, per ridurre il problema, sono in grado di ripristinare la risoluzione inserendo nuovi pixel che
vengono calcolati facendo una interpolazione di punti, il processo inserisce, perciò, deliberatamente una quantità di
informazioni presunte.
Grafica raster 22

La grafica bitmap è invece ideale per rappresentare immagini della realtà, per modificare contrasti e luminosità di
queste, per applicare filtri di colore.

Formati di immagini raster


I dati raster possono essere memorizzati attraverso tipologie di file che sfruttando algoritmi di compressione diversi,
gravando in modo differente sul supporto di memorizzazione. I formati raster più comuni sono i seguenti:

Non compressi
Questi formati di file hanno richieste di elaborazione minima, non essendo necessari algoritmi di compressione (in
fase di scrittura) e decompressione (in fase di lettura), tuttavia, mancando di compressione, risultano particolarmente
voluminosi, in termini di spazio occupato su disco (o altro dispositivo di memorizzazione), rispetto agli altri formati:
• raw
• bmp (in alcuni casi i file bmp sono compressi con un algoritmo RLE)

Con compressione lossless


Le immagini salvate con un algoritmo di → compressione dati lossless occupano meno spazio nei dispositivi di
memorizzazione, mantenendo inalterata tutta l'informazione originale:
• → png (certe applicazioni permettono anche la scrittura di file png non compressi)
• tga
• tiff (sebbene questo sia l'uso più comune, questo formato permette diversi tipi di compressione)
• gif (per immagini fino a 256 colori)

Con compressione lossy


Le immagini memorizzate con un algoritmo di compressione → lossy, subiscono una perdita di informazione;
pertanto questa tecnica non è adatta per salvare le immagini che vengono rielaborate coi programmi di fotoritocco
(le continue modifiche comporterebbero un progressivo degrado dell'immagine ad ogni salvataggio e riapertura);
invece, in virtù delle ridotte dimensioni del file, sono particolarmente indicate per la trasmissione di immagini o per
ridurre le dimensioni di un'applicazione o di un prodotto da distribuire.
• → jpeg
• gif (per immagini con più di 256 colori si ottiene una compressione lossy poiché vengono eliminate la maggior
parte delle sfumature di colore)

Altre applicazioni
Nel campo dei Sistemi informativi territoriali o GIS, il termine raster è usato per indicare la tipologia di dato
impiegata nella rappresentazione cartografica digitale. Con i dati raster il territorio viene riprodotto attraverso una
matrice di pixel di forma quadrata o rettangolare. A ciascun pixel è associato un attributo che definisce le
caratteristiche dell'elemento rappresentato. Ad esempio in un modello digitale di elevazione a ciascun pixel è
associato il valore della quota sul livello del mare in quel punto. La dimensione dei pixel è inversamente
proporzionale alla precisione della carta. I dati raster possono essere implementati in un sistema GIS mediante
acquisizione diretta con apparecchiature a lettura ottica quali ad esempio scanner d'immagini o attraverso
l'elaborazione di dati, raster o vettoriali, già acquisiti.
Grafica raster 23

Voci correlate
• Grafica vettoriale
• → Immagine digitale
• Rasterizzazione

Note
[1] http:/ / www. answers. com/ topic/ raster

Pixel
In computer grafica, con il termine pixel (contrazione della locuzione
inglese picture element) si indica ciascuno degli elementi puntiformi
che compongono la rappresentazione di una → immagine raster nella
memoria di un computer.
Solitamente i punti sono così piccoli e numerosi da non essere
distinguibili ad occhio nudo, apparendo fusi in un'unica immagine
quando vengono stampati su carta o visualizzati su un monitor. Ingrandimento di una versione precedente del
Ciascun pixel, che rappresenta il più piccolo elemento autonomo logo di Wikipedia in cui sono evidenti i pixel che
compongono l'immagine
dell'immagine, è caratterizzato dalla propria posizione e da valori quali
→ colore e intensità, variabili in funzione del sistema di
rappresentazione adottato.

L'esempio qui a destra mostra un logo in grafica raster ingrandito in modo da evidenziare i singoli pixel. Si noti che
in questo caso l'illusione di una immagine uniforme è resa più realistica mediante l'uso di sfumature di grigio sul
bordo dei caratteri, evitando bruschi passaggi di colore (tale processo è detto di antialiasing).

Aspetti tecnici
Il numero di pixel in un'immagine (talvolta impropriamente detto "risoluzione" dell'immagine) determina la quantità
di dettagli fini che possono essere rappresentati. Sebbene il concetto di pixel si applichi in tutti i contesti con il
medesimo significato, per l'indicazione del numero di pixel da cui è costituita una immagine sono in uso diverse
convenzioni per diverse tecnologie specifiche. Per esempio, il numero di pixel di cui è costituita l'immagine prodotta
da una fotocamera digitale viene espresso come un singolo valore, in megapixel (milioni di pixel), mentre il numero
di pixel di un display viene in genere espresso come un prodotto (pixel in altezza per pixel in larghezza), per esempio
640 × 480.
I punti colorati che formano un'immagine digitale (come una → JPEG) vengono chiamati anch'essi pixel. Possono
non essere in corrispondenza uno-a-uno con i pixel dello schermo. Nei casi in cui questa distinzione è importante, i
punti del file possono essere chiamati texel.
In informatica, un'immagine composta da pixel è conosciuta come immagine bitmap o → immagine raster. La parola
raster trae origine dalla tecnologia della televisione analogica. Le immagini bitmap sono usate per codificare il video
digitale e per produrre arte generata da computer.
Poiché la → risoluzione del monitor può essere regolata dal sistema operativo del computer, un pixel è una misura
relativa. I moderni schermi per computer sono progettati con una risoluzione nativa, che si riferisce al perfetto
accoppiamento tra pixel e triadi. La risoluzione nativa darà origine all'immagine più netta tra quelle che lo schermo è
in grado di produrre. Comunque, l'utente può aggiustare la risoluzione, il che si ottiene disegnando ogni pixel usando
più di una triade. Questo processo normalmente dà origine a una immagine sfuocata. Ad esempio, uno schermo con
Pixel 24

risoluzione nativa di 1280×1024 produrrà le migliori immagini se impostato a quella risoluzione, mostrerà la
risoluzione a 800×600 in modo adeguato, disegnando ogni pixel con più di una triade, e non sarà in grado di
mostrare immagini a 1600×1200 a causa della mancanza di un numero sufficiente di triadi.
Normalmente, una risoluzione non nativa viene mostrata meglio su uno schermo CRT che su un LCD.
I pixel possono essere sia quadrati che rettangolari. Un valore chiamato pixel aspect ratio, descrive le proporzioni di
un pixel per la sua corretta visualizzazione. Ad esempio, un pixel aspect ratio di 1,25:1, significa che ogni pixel
dev'essere visualizzato 1,25 volte più largo che alto perché quanto rappresentato sia proporzionato. I pixel sugli
schermi dei computer sono in genere quadrati, ma i pixel utilizzati nel video digitale hanno forma non quadrata,
come nel D1 aspect ratio.
Ogni pixel di un'immagine monocroma ha la sua luminosità. Un valore pari a zero di norma rappresenta il nero,
mentre il valore massimo rappresenta il bianco. Ad esempio, in un'immagine a otto bit, il massimo valore senza
segno che può essere immagazzinato è 255, così questo è il valore usato per il bianco.
Nelle immagini a colori, ogni pixel ha la sua luminosità e colore, tipicamente rappresentate da una tripletta di
intensità di rosso, verde e blu (vedi → RGB). I monitor a colori usano pixel composti da 3 sotto-pixel. Nelle
immagini in scale di grigio i valori di accensione dei 3 subpixels è sempre uguale (ad esempio R=71, G=71, B=71).
Il numero di colori distinti che possono essere rappresentati da un pixel dipende dal numero di bit per pixel (BPP).
Valori comuni sono:
• 8 bpp (256 colori)
• 16 bpp (65.536 colori, noto come Highcolour)
• 24 bpp (16.777.216 colori, noto come Truecolour).
Immagini composte da 256 colori o meno, vengono normalmente immagazzinate nella memoria video del computer,
in formato chunky o planar, dove un pixel in memoria è l'indice di una lista di colori chiamati palette (tavolozza).
Queste modalità sono quindi chiamate modalità indicizzate. Mentre vengono mostrati solo 256 colori, questi sono
presi da una tavolozza molto più ampia, tipicamente di 16 milioni di colori. Cambiare i valori della tavolozza
permette una specie di effetto animato. Il logo animato di avvio di Windows 95 e Windows 98 è probabilmente il più
noto esempio di questo tipo di animazione.
Per profondità di colore più ampie di 8 bit, il numero è il totale dei tre componenti RGB (rosso, verde e blu). Una
profondità di 16 bit viene di solito divisa in cinque bit di rosso e blu e sei di verde, (il verde ha più bit perché l'occhio
e più sensibile a quel colore). Una profondità di 24 bit permette 8 bit per componente. Su alcuni sistemi è disponibile
una profondità di 32 bit: questo significa che ogni pixel a 24 bit ha 8 bit extra per descrivere l'opacità. Sui sistemi più
vecchi è comune il formato a 4 bpp (16 colori).
Quando un file immagine viene mostrato a video, il numero di bit per pixel viene espresso separatamente per il file
raster e per lo schermo. Alcuni formati di file raster, hanno una grande profondità in bit rispetto ad altri. Il formato
GIF, ad esempio, ha una profondità massima di 8 bit, mentre il TIFF può gestire pixel a 48-bit. Non ci sono monitor
che possano rappresentare colori a 48 bit, e quindi questa profondità viene di solito usata per applicazioni
professionali specializzate che lavorano con scanner d'immagini o stampanti. Questi file vengono "renderizzati" su
schermo con 24-bit di profondità.
Altri oggetti derivati dal pixel, come i voxel (elementi di volume), i texel (elementi di consistenza) e i surfel
(elementi di superficie), sono stati creati per altri utilizzi della computer grafica.
Pixel 25

Sotto-pixel
Sugli schermi a cristalli liquidi e su quelli a tubo catodico, ogni pixel è costruito da tre sotto-pixel, ognuno per i tre
colori, posti a distanza ravvicinata. Ogni singolo sotto-pixel è illuminato in base a un determinato valore, e a causa
della loro prossimità, creano l'illusione ottica di un singolo pixel di un colore particolare.
Una tecnica recente per aumentare la risoluzione apparente di un monitor a colori, chiamata sub-pixel font rendering,
usa la conoscenza della geometria dei pixel per manipolare separatamente i tre sotto-pixel, il che sembra essere
particolarmente efficace con gli schermi LCD impostati con risoluzione nativa. Questa è una forma di antialiasing, e
viene usata principalmente per migliorare l'aspetto del testo. Il Cleartype di Microsoft, che è disponibile su Windows
XP, ne è un esempio. Un altro esempio è la tecnologia Quartz utilizzata dal Mac OS X per l'interfaccia grafica. In
questo caso l'intera interfaccia grafica utilizza questa tecnologia. Ciò rende l'interfaccia grafica più gradevole ma
rende le singole linee meno definite e questo in alcuni casi può disturbare l'utente.

Megapixel
Un megapixel è 1 milione di pixel, e viene solitamente usato con riferimento alle macchine fotografiche digitali.
Alcune macchine fotografiche digitali usano i CCD, che registrano i livelli di luminosità. Vecchie fotocamere
digitali, che non usano i CCD Foveon X3 [1] hanno filtri colorati rossi, verdi e blu, in modo che ogni pixel possa
registrare la luminosità di un singolo colore primario. Quindi, i pixel delle fotocamere digitali che non usano i CCD
Foveon X3, sono simili a sotto-pixel. La fotocamera interpola l'informazione di colore per creare l'immagine finale.
Quindi, un'immagine a 'x'-megapixel, proveniente da una fotocamera con 1/4 della risoluzione di colore della stessa
immagine acquisita da uno scanner. La risoluzione dei dettagli non ne risente. Quindi, un'immagine di un oggetto blu
o rosso (di solito ci sono più pixel verdi) tenderà ad apparire sfuocata, se confrontata con lo stesso oggetto in toni di
grigio.
È importante sapere che in numero di megapixel non è un diretto indice di qualità delle macchine fotografiche; è
vero che un numero più elevato di pixel permette, in linea teorica, un maggior potere risolutivo, ma questo è spesso
limitato dal sistema ottico utilizzato per convogliare l'immagine sul sensore. Se il potere risolutivo del complesso di
lenti è inferiore al potere risolutivo della matrice di pixel allora non si avrà alcun guadagno nell'aumentare in numero
di pixel, anzi si avrà un peggioramento delle prestazioni del sistema a causa del maggiore rumore elettronico
introdotto.

Gigapixel
Un gigapixel corrisponde a 1 miliardo di pixel, e viene solitamente usato con riferimento alle schde grafiche (Pixel
Fillrate).

Pel
Pel è un termine che viene usato di solito come abbreviazione di pixel, ma può anche riferirsi ai sub-pixels.

Voci correlate
• Dot pitch
• Grafica vettoriale
• Pixel art
Pixel 26

Altri progetti
• Wikizionario contiene la voce di dizionario «pixel»

Note
[1] http:/ / www. foveon. com/ X3_tech. html

Risoluzione (grafica)
La risoluzione indica il grado di qualità di un'immagine. Generalmente si usa questo termine riguardo immagini
digitali, ma anche una qualunque fotografia ha una certa risoluzione.
Nelle immagini su computer, la risoluzione indica la densità dei → pixel, ovvero la quantità dei puntini elementari
che formano l'immagine rapportata ad una dimensione lineare (ad esempio pixel/cm o pixel/pollice). Lo schermo di
un computer non può mostrare linee o disegni, ma soltanto punti; se questi sono sufficientemente piccoli, tali da
essere più piccoli della risoluzione percepita dall'occhio umano, l'osservatore ha l'impressione di vedere linee
anziché punti allineati, e disegni anziché ammassi di puntini distinti.

Misura della risoluzione


La risoluzione, quindi, essendo una misura della densità dei pixel, si misura in punti per unità di lunghezza, di solito
pollici (ppi, pixel per inch o dpi, dot per inch). Per alcuni dispositivi, la densità dei pixel è diversa nelle due
dimensioni, come per gli scansionatori d'immagine, quindi occorre indicare sia la risoluzione orizzontale che quella
verticale. Uno schermo per computer ha valori di risoluzione intorno ai 72 dpi. Le attuali stampanti casalinghe
permettono di stampare immagini con risoluzioni di alcune centinaia di dpi. La risoluzione equivalente di una
normale pellicola fotografica è di 3-4.000 dpi.

Bassa risoluzione
La distinzione tra alta risoluzione e bassa risoluzione ha assunto anche rilevanza giuridica perché la legge 9 gennaio
2008, n. 2, integrando l'articolo 70 della legge n. 633/41 sul diritto d'autore, ha previsto per i siti non lucrativi, la
possibilità di riprodurre immagini per fini didattici o scientifici. Manca tuttavia una più esatta definizione di che cosa
debba intendersi per bassa risoluzione, che evidentemente deve essere ricavata da norme di buona tecnica.

Modifica della risoluzione


La risoluzione con la quale è stata digitalizzata un'immagine si può modificare anche a posteriori con un processo di
interpolazione, ma questo non comporta un miglioramento della qualità dell'immagine stessa; quindi, al momento
dell'acquisizione, occorre prestare attenzione ad avere un'immagine con risoluzione sufficiente per lo scopo
dell'immagine stessa.

Voci correlate
• Telescopio
Risoluzioni standard 27

Risoluzioni standard
Le risoluzioni standard o modalità
video sono combinazioni di parametri
utilizzate dall'industria elettronica per
definire l'interfaccia video di un
computer. Tali parametri di solito sono
la risoluzione dei display (specificata
dalla larghezza e altezza in → pixel), la
profondità di colore (espressa in bit) e
la velocità di refresh (refresh rate,
espressa in hertz).

Storia
Le risoluzioni standard utilizzate nei
PC in questi anni (fine del XX secolo e
inizi XXI secolo) si sono evolute
moltissimo: si va dai semplici frame Comparazione delle risoluzioni standard. La colorazione blu, rossa, gialla verde e viola
buffer dei primi anni, caratterizzati indica il display aspect ratio (DAR)

solo da risoluzione video e refresh rate,


fino ai moderni sistemi dotati di un insieme molto più ampio di comandi e funzioni pilotabili via software.

L'evoluzione dell'informatica e dell'elettronica ha modificato nel tempo l'interfaccia di interazione tra computer ed
operatore. Se fino alla metà negli anni '70, era la normalità l'uso delle schede perforate e di pannelli a spie luminose
per leggere i risultati dei calcoli, divenne poi possibile interagire con gli elaboratori attraverso videoterminali a
carattere. L'evoluzione successiva ha portato alla nascita di numerosi standard grafici che introdussero linee e curve e
successivamente i colori.
La continua evoluzione dell'elettronica e della tecnologia di visualizzazione aumenta sempre più la definizione, la
superficie visualizzabile e le dimensioni stesse degli schermi.
Fino al 2003, la maggior parte dei monitor aveva un Aspect ratio di 4:3 e qualcuno di 5:4. Dal 2003 al 2006 si sono
resi disponibili vari monitor con un rapporto di risoluzione di 16:10, inizialmente sui laptop e successivamente sui
monitor per PC. Questo cambiamento è dovuto sia al fatto che con questo rapporto si vedono meglio film e giochi
ma soprattutto le attività di videoscrittura ne hanno tratto beneficio potendo visualizzare due pagine A4 affiancate,
così come anche il CAD che ha potuto sfruttare lo spazio in più per la visualizzazione dei menù a fianco del disegno
grafico. La Video Electronics Standards Association (VESA) ha definito diversi standard video mentre quelli
ergonomici sono definiti dal TCO.
Risoluzioni standard 28

Principali risoluzioni utilizzate in informatica


Nella tabella, qui sotto riportata, troviamo le risoluzioni video più comuni nei PC che si sono evoluti dall'originale
IBM PC, più alcune che sono supportate da altri tipi di computer come ad esempio gli Apple Macintosh. La Video
Electronics Standards Association (VESA) ha curato le specifiche di molti di questi standard.

Tabella delle risoluzioni standard dei display


Standard Nome completo Descrizione risoluzione Aspect profondità Interfaccia
Video del display ratio del colore video
(→ pixel) (bpp)

MDA Monochrome Lo standard originale sugli IBM PC e IBM PC XT con 720×350 72:35 1 bpp MDA
Display Adapter 4 KB di video RAM. Introdotto nel 1981 dall'IBM. (text)
Supporta unicamente la modalità testuale.

CGA Color Graphics Introdotto nel 1981 by IBM è il primo standard video a 640×200 16:5 1 bpp CGA
Adapter colori per gli IBM PC. Le schede grafiche CGA erano (128k) 16:10 2 bpp
dotate di 16 KB video RAM. 320×200 4:5 4 bpp
(64k)
160×200
(32k)

Hercules Una modalità video monocromatica con un'ottima 720×348 60:29 1 bpp MDA
visualizzazione del testo e della grafica per l'epoca in (250.5k)
cui fu introdotta (1982). Divenne molto popolare
abbinata al software di foglio elettronico Lotus 1-2-3
che è stato una delle prime killer application.

EGA Enhanced Introdotta da IBM nel 1984 con una risoluzione di 640 640×350 64:35 4 bpp EGA
Graphics Adapter × 350 pixel su 16 colori (4 bit per pixel, o bpp), (224k)
selezionabili fra 64 colori di base (palette) (2 bit per
ciascuna componente rossa-verde-blu).

Professional Introdotta nel 1984 per il PC-bus ISA a 8 bit, aveva a 640×480 4:3 8 bpp PGC
Graphics bordo un acceleratore hardware 2D e 3D ed era stata (307k)
Controller pensata per applicazioni CAD

MCGA Multi-Color Introdotta nel 1987 per gli IBM Personal System/2 320×200 16:10 8 bpp VGA
Graphics Array (PS/2) con un costo ridotto rispetta alla VGA. MCGA (64k) 4:3 1 bpp Standard
ha una risoluzione di 320x200 pixel con 256 color (da 640×480
una palette di 262,144 colori, e una risoluzione di (307k)
640x480 unicamente in bianco e nero in quanto la
video ram era di soli 64k mentre quella della VGA era
di 256k.

8514 Modalità video di IBM introdotta nel 1987 1024×768 4:3 8 bpp VGA
praticamente assieme alla VGA. Era caratterizzata (786k) Interlacciato
dalla risoluzione 1024x768 (precursore di XGA) ma
aveva un video interlacciato a 43.5 Hz.

VGA Video Graphics Introdotta nel 1987 da IBM. Oggi per VGA si intende 640×480 4:3 4 bpp VGA
Array la risoluzione 640x480 a 16 colori ma VGA è un (307k) 64:35 4 bpp Standard
insieme di risoluzioni che comprendono anche 640×350 16:10 4/8 bpp
320x200 a 256 colori e 720x400 in modalità testo. I (224k) 9:5 4 bpp
display VGA e le schede video VGA sono 320×200
generalmente in grado di operare in modalità grafica (64k)
Mode X, una modalità non documentata per aumentare 720×400
le prestazioni, utilizzata in, particolare, dai giochi. (text)

SVGA Super VGA Uno standard video introdotto nel 1989 dalla Video 800×600 4:3 4 bpp VESA VGA
Electronics Standards Association (VESA) per il (480k)
mercato dei PC IBM compatibili.
Risoluzioni standard 29

XGA Extended Introdotto da IBM nel 1990. XGA-2 ha poi aggiunto 1024×768 4:3 8 bpp VESA VGA
Graphics Array un supporto per più colori e ad un maggiore refresh (786k) 4:3 16 bpp
rate e il supporto della risoluzione 1360 × 1024 a 16 640×480
colori (4 bit per pixel). (307k)

XGA+ Extended Nome non ufficiale per riferirsi alla risoluzione di 1152 1152×864 4:3 8 bpp VESA VGA
Graphics Array x 864, che è la risoluzione 4:3 più ampia sotto il (786k) 4:3 16 bpp
Plus milione di pixel. Apple Computer ha impiegato una 640×480
variante di questa risoluzione a 1152x870 e Sun (307k)
Microsystems a 1152x900.

QVGA Quarter VGA Un quarto della risoluzione VGA 320×240 4:3 Non definita
(75k)

WQVGA Wide Quarter Risoluzione orizzontalmente ampia come la VGA ma 480×272 16:9 Non definita
VGA con circa la metà delle linee (126k)

HQVGA Half QVGA Un ottavo della risoluzione VGA 240×160 3:2 Non definita
(38k)

QQVGA Quarter QVGA Un sedicesimo della risoluzione VGA 160×120 4:3 Non definita
(19k)

WXGA Widescreen Una variante dello standard XGA con un Aspect ratio 1280×720 16:9 or 32 bpp VESA VGA
Extended 16:9 o 16:10 che si è molto diffuso sui notebook più (922k) 16:10
Graphics Array recenti (2008). 1280×800
(1024k)
1440×900
(1296k)

SXGA Super XGA Una modalità de facto ampiamente utilizzata con 32 bit 1280×1024 5:4 32 bpp VESA VGA
Truecolor, con un particolare aspect ratio di 5:4 invece (1310k)
del più comune 4:3 che comporta una leggera
distorsione delle immagini in formato 4:3. Questa
modalità è utilizzata sulla maggior parte dei display
LCD da 17".
• Alcuni produttori hanno chiamato questa modalità
Extended Video Graphics Array or XVGA in
considerazione che VGA è la risoluzione standard.

WXGA+ Widescreen Variante del formato WXGA molto utilizzata sugli 1440×900 16:10 32 bpp VESA VGA
Extended ultimi (2008) portatili e sui monitor 19" caratterizzate (1296k)
Graphics Array da un rapporto di risoluzione 16:10.
PLUS

SXGA+ Super Extended Molto frequente su laptop con display da 14" e 15" e su 1400×1050 4:3 32 bpp VESA VGA
Graphics Array videoproiettori DLP. (1470k)
Plus

WSXGA+ Widescreen Super molto frequente su Monitor Widescreen da 19" 21" e 1680×1050 16:10 32 bpp VESA VGA
Extended 22" e su laptop con display 15.4" e 17. (1764k)
Graphics Array
Plus

UXGA Ultra XGA Una risoluzione standard de facto Truecolor. 1600×1200 4:3 32 bpp VESA VGA
(1920k)

WUXGA Widescreen Ultra Una versione wide di UXGA molto utilizzato nei 1920×1200 16:10 32 bpp DVI Single
Extended notebook di fascia alta con display da 15,4" o 17" (2304k) Link
Graphics Array

QXGA Quad Extended Quattro volte la risoluzione XGA 2048×1536 4:3 32 bpp DVI Dual
Graphics Array (3146k) Link
Risoluzioni standard 30

WQXGA Widescreen Quad Modalità video apparsa per la prima volta su Apple 2560×1600 16:10 32 bpp DVI Dual
Extended Cinema 30" e divenuta standard su monitor da 30", (4096k) Link
Graphics Array richiede connessioni DVI o HDMI dual link.

QSXGA Quad Super 2560×2048 5:4 32 bpp DisplayPort


Extended (5243k) 1.1 4-Lane
Graphics Array

WQSXGA Wide Quad Super 3200×2048 25:16 32 bpp Non ancora


Extended (6554k) supportata
Graphics Array

QUXGA Quad Ultra Quattro volte la risoluzione UXGA. Richiede più 3200×2400 4:3 32 bpp Non ancora
Extended connessioni DVI (4 single link o 2 dual link). In futuro (7680k) supportata
Graphics Array sarà supportata da una singola connessione
DisplayPort.

WQUXGA Wide Quad Ultra Utilizzata dai monitor IBM T220/T221 LCD non più 3840×2400 16:10 32 bpp Non ancora
Extended disponibili sul mercato. (9216k) supportata
Graphics Array

HXGA Hexadecatuple 4096×3072 4:3 32 bpp Non ancora


Extended (12583k) supportata
Graphics Array

WHXGA Wide 5120×3200 16:10 32 bpp Non ancora


Hexadecatuple (16384k) supportata
Extended
Graphics Array

HSXGA Hexadecatuple 5120×4096 5:4 32 bpp Non ancora


Super Extended (20972k) supportata
Graphics Array

WHSXGA Wide 6400×4096 25:16 32 bpp Non ancora


Hexadecatuple (26214k) supportata
Super Extended
Graphics Array

HUXGA Hexadecatuple 6400×4800 4:3 32 bpp Non ancora


Ultra Extended (30720k) supportata
Graphics Array

WHUXGA Wide 7680×4800 16:10 32 bpp Non ancora


Hexadecatuple (36864k) supportata
Ultra Extended
Graphics Array

Significato prefissi nella nomenclatura delle risoluzioni


Sebbene i prefissi comuni super S e ultra'U non indicano una specifica variazione alla risoluzione standard, molti
prefissi hanno, invece, uno specifico significato:
Quarter (Q)
Un quarto della risoluzione di base. Es. QVGA indica una risoluzione di 320×240 che è la metà della
larghezza e la metà dell'altezza, ossia un quarto del totale dei → pixel, della risoluzione VGA di 640×480.
Nelle alte risoluzioni Q significa "Quad" ossi quattro volte.
Wide (W)
Risoluzione più ampia di quella base, di cui mantiene il numero di righe, che permette un Aspect ratio di 16:9
o 16:10.
Quad(ruple) (Q)
Risoluzioni standard 31

Quattro volte i → pixel della risoluzione di base ossia due volte in orizzontale e due volte in verticale il
numero di → pixel.
Hexadecatuple (H)
Sedici volte i → pixel della risoluzione di base ossia quattro volte in orizzontale e quattro volte in verticale il
numero di → pixel.
Ultra (U)
eXtended (X)
Questi prefissi possono anche combinarsi come, ad esempio in WQXGA o WHUXGA.

Tipi di interfacce video per PC


Nella colonna interfaccia video della tabella precedente è riportata il tipo di interfaccia video che permette di
collegare un monitor ad un PC e visualizzare la risoluzione indicata secondo le seguenti specifiche:
• MDA - Interfaccia dedicata digitale Monochrome Display Adapter.
• CGA - Interfaccia dedicata digitale Color Graphics Adapter.
• EGA - Interfaccia dedicata digitale Enhanced Graphics Adapter.
• PGC - Interfaccia dedicata analogica Professional Graphics Controller.
• VGA standard - Per visualizzare questa risoluzione può essere utilizzata un'interfaccia analogica VGA originale
o superiore (VESA VGA, DVI Sigle Link ecc.).
• VGA interlacciato - L'interfaccia è uguale alla VGA originale ma richiede un monitor in grado di visualizzate un
segnale video interlacciato.
• VESA VGA - Per visualizzare questa risoluzione può essere utilizzata un'interfaccia analogica VESA VGA o
superiore (Digital Visual Interface Single Link, Digital Visual Interface Dual Link o DsplayPort 1.1).
• Non definita - Queste non sono risoluzione adottate dai monitor per PC ma solo ad un formato video.
• DVI Single Link - Per visualizzare questa risoluzione può essere utilizzata un'interfaccia digitale Digital Visual
Interface Single Link, Dual Link o DisplayPort.
• DVI Dual Link - Per visualizzare questa risoluzione può essere utilizzata un'interfaccia digitale Digital Visual
Interface Dual Link o DisplayPort.
• DisplayPort 1.1 4-Lane - Per visualizzare questa risoluzione può essere utilizzata un'interfaccia digitale
DisplayPort 1.1 4-Lane o superiore.
• Non ancora supportata - Attualmente non esiste un'interfaccia video singola che permetta questa risoluzione
anche se, in futuro, ci saranno delle specifiche DisplayPort che permetteranno di andare oltre alla risoluzione.
N.B. Queste sono indicazioni generali per un corretto funzionamento. In realtà, ad esempio, si potrebbe anche
utilizzare una connessione VESA VGA per visualizzare in risoluzione WUXGA anche se questo non è consigliato.
Per aumentare la risoluzione si possono aumentare anche i collegamenti video, utilizzando ad esempio 2 o 4
collegamenti DVI, o diminuire la velocità di refresh.
Risoluzioni standard 32

Principali risoluzioni utilizzate in TV e Videoproiettori


Nella tabella qui sotto riportata troviamo le risoluzioni video più comuni nei TV e nei videoproiettori. Nella tabella
seguente 60Hz o 60 FPS sono un'approssimazione. Il valore preciso è ossia circa 59,94.

Tabella delle risoluzioni standard di TV e Videoproiettori


Standard Descrizione risoluzione del Aspect profondità del frame per
Video display (→ pixel) ratio colore (bpp) secondo

480i Video a risoluzione standard NTSC a 60Hz interlacciato 720×480 (337.5k) 3:2 (1,5) 24 bpp 30

480p Video a risoluzione standard NTSC a 30Hz progressivo. 720×480 (337.5k) 3:2 (1,5) 24 bpp 30

576i Video a risoluzione standard PAL a 50Hz interlacciato 720×576 (405k) 4:3 (1,33) 24 bpp 25

576p Video a risoluzione standard PAL a 25Hz progressivo. 720×576 (405k) 4:3 (1,33) 24 bpp 25

720p Formato video HDTV 1280 x 720 a 60Hz progressivo. 1280×720 (900k) 16:9 24 bpp 50-60
Esistono anche le varianti a 24,25,30 e 50 Hz (1,78)

1080i Formato video HDTV 1920 x 1080 a 60Hz interlacciato. 1920×1080 (2000k) 16:9 24 bpp 25-30
Esiste anche la variante a 50 Hz (1,78)

1080p Formato video HDTV 1920 x 1080 a 60Hz progressivo. 1920×1080 (2000k) 16:9 24 bpp 50-60
Esistono anche le varianti a 24,25,30 e 50 Hz (1,78)

2K Proiezione di film digitali in sale cinematografiche DLP 2048×1080 (2212k) 1,89 48 bpp 24

4K Proiezione di film digitali in sale cinematografiche DLP 4096×1716 (7029k) 2,39 48 bpp 24

Voci correlate
• Informatica
• Scheda video
• Risoluzione del display

Collegamenti esterni
• (EN) Aspect Ratios [1] - Dal sito Widescreen.org

Note
[1] http:/ / www. widescreen. org/ aspect_ratios. shtml
Immagine digitale 33

Immagine digitale
Un'immagine digitale è la rappresentazione di un'immagine bi-dimensionale tramite una serie di valori numerici,
che la descrivono a seconda della tecnica utilizzata.

Tecniche di rappresentazione
Le immagini digitali sono fondalmentalmente di due tipi: una matrice di punti (o pixel) nelle immagini bitmap o,
nelle immagini vettoriali, un insieme di punti (o nodi) uniti in linee o altre primitive grafiche che compongono
l'immagine, insieme ad eventuali colori e sfumature.

Immagini bitmap
In questo tipo di immagini, i valori memorizzati indicano le caratteristiche di ogni punto dell'immagine da
rappresentare (→ pixel):
• nelle immagini a colori, viene memorizzato solitamente il livello di intensità dei colori fondamentali (nel modello
di colore → RGB, uno dei più usati, sono tre: rosso, verde e blu. Un altro esempio è → CMYK, usato per la
stampa, basato su quattro colori fondamentali: ciano, magenta, giallo e nero.)
• nelle immagini monocromatiche in scala di grigio (dette impropriamente bianco e nero) il valore indica l'intensità
del grigio, che varia dal nero al bianco.
Il numero (detto anche "profondità") di colori o di livelli di grigio possibili dipende dal massimo numero di
combinazioni permesse dalla quantità di bit utilizzata per ognuno di questi dati: un'immagine con 1 bit per pixel avrà
al massimo due combinazioni possibili (0 e 1) e quindi potrà rappresentare solo due colori o solo bianco e nero; nelle
immagini a 4 bit per pixel, si possono rappresentare al massimo 16 colori o 16 livelli di grigio; un'immagine a 8 bit
per pixel, 256 e così via.
Oltre a questi dati, è solitamente presente un header, che contiene diverse informazioni sull'immagine, a partire dal
numero di righe e colonne di pixel: le dimensioni sono necessarie per poter dividere e disporre la sequenza di pixel
in linee, in modo da formare una griglia rettangolare di punti, simile ad un mosaico, in cui ogni riga è formata da un
numero preciso (indicato appunto dal valore larghezza) di tessere.
La tecnica utilizzata per queste immagini, rappresentate da una matrice NxM, dove N è il numero delle righe di pixel
dell'immagine e M delle colonne, è detta raster.
Le immagini bitmap possono venire memorizzate in diversi formati, spesso basati su un algoritmo di compressione,
che può essere → lossy (in cui c'è perdita di informazione), come nelle immagini JPEG, oppure → lossless (senza
perdita), come nel caso dei file d'immagine GIF o PNG.
Questo tipo di immagini può venire generato da una grande varietà di dispositivi d'acquisizione: scanner e
fotocamere digitali (contenenti dei sensori CCD o CMOS), ma anche da radar e microscopi elettronici; inoltre
possono venire sintetizzate anche a partire da dati arbitrari, come funzioni matematiche bidimensionali o modelli
geometrici tridimensionali.
Il campo dell'elaborazione digitale delle immagini studia gli algoritmi per modificare tali immagini.
Immagine digitale 34

Immagini vettoriali
Le immagini vettoriali sono un tipo di immagine facilmente scalabile e ruotabile, ottenuto dall'unione di un certo
numero di punti o nodi, che formano linee e poligoni, a loro volta uniti in strutture più complesse, fino a formare
l'immagine voluta.
Questo tipo di immagine è utilizzato nel disegno tecnico per la progettazione architettonica ed industriale, nella
rappresentazione di certi font, nella grafica per la creazione di loghi e marchi o altri oggetti, eccetera.

Voci correlate
• Elaborazione digitale delle immagini
• → Grafica raster
• Grafica vettoriale

Collegamenti esterni
• Introduzione al libro "VETTOR, dal bitmap al vettoriale" [1], con la definizione di immagini digitali, distinte in
bitmap (o raster) e vettoriali.
• Bitmap o vettoriale? I due tipi di immagini digitali [2]
• Differenze tra grafica bitmap e vettoriale [3]

Note
[1] http:/ / www. edilio. it/ libreriaspecializzata/ schedalibro. asp?cod=5736
[2] http:/ / venus. unive. it/ pmlett/ autoapprendimento/ grafica/ iduetipi. htm
[3] http:/ / www. stampasubito. it/ store/ stampasubito_guide_grafica_vettoriale_grafica_bitmap. asp
Compressione dei dati 35

Compressione dei dati


La compressione dati è una tecnica utilizzata in ambito informatico per la riduzione della quantità di bit necessari
alla rappresentazione in forma digitale di un'informazione.
La compressione dati viene utilizzata sia per ridurre le dimensioni di un file, e quindi lo spazio necessario per la sua
memorizzazione e l'occupazione di banda necessaria per la sua trasmissione, sia per ridurre l'occupazione di banda
necessaria in una generica trasmissione dati come ad esempio una trasmissione televisiva in diretta.
Le varie tecniche di compressione organizzano in modo più efficiente i dati, spesso perdendo una parte
dell'informazione originale, al fine di ottenere una rappresentazione dell'informazione più compatta quindi
comportante minori risorse per la sua memorizzazione e trasmissione. Come controparte la compressione dati
necessita però di potenza di calcolo per le operazioni di compressione e decompressione, spesso anche elevata se tali
operazioni devono essere eseguite in tempo reale.

Tipologie di compressione dati


Le tecniche di compressione dati si dividono in due grandi categorie:
• → compressione dati lossy: comprime i dati attraverso un processo con perdita d'informazione che sfrutta le
ridondanze nell'utilizzo dei dati;
• → compressione dati lossless: comprime i dati attraverso un processo senza perdita d'informazione che sfrutta le
ridondanze nella codifica del dato.
Le tecniche senza perdita di informazione come dice il nome si preoccupano di preservare il messaggio originale
quando effettuano la compressione. Un loro esempio è il formato ZIP per i file o il GIF per le immagini. A partire da
un file in uno di questi formati, è sempre possibile ricostruire esattamente il file d'origine.
Le tecniche con perdita di informazione ottengono delle compressioni molto spinte dei file a scapito dell'integrità del
file stesso. Il file prima della compressione e il file dopo la decompressione sono simili ma non identici.
Normalmente viene utilizzata per comprimere i file multimediali. I file multimediali in origine sono troppo grandi
per essere agevolmente trasmessi o memorizzati quindi si preferisce avere una piccola riduzione della qualità ma nel
contempo file molto più leggeri, un esempio sono le immagini in formato → JPEG (per compressione di immagini) o
in formato MPEG (per compressione di dati video e/o audio).

Bibliografia
• Bonazzi R., Catena R., Collina S., Formica L., Munna A., Tesini D.. Telecomunicazioni per l'ingegneria
gestionale. Codifica di sorgente. Mezzi di trasmissione. Collegamenti. Pitagora Editrice, 2004, ISBN
88-371-1561-X
Compressione dati lossy 36

Compressione dati lossy


La compressione dati con perdita, anche chiamata compressione dati lossy, è una classe di algoritmi di
compressione dati che porta alla perdita di parte dell'informazione originale durante la fase di
compressione/decompressione dei dati che la rappresentano.
Decomprimendo un file compresso con un metodo "lossy" la copia ottenuta sarà peggiore dell'originale per livello di
precisione delle informazioni che codifica, ma in genere comunque abbastanza simile da non comportare perdita di
informazioni irrinunciabili. Ciò è possibile poiché i metodi di compressione a perdita di informazioni in genere
tendono a scartare le informazioni poco rilevanti, archiviando solo quelle essenziali: per esempio comprimendo un
brano audio secondo la codifica dell'MP3 non vengono memorizzati i suoni non udibili, consentendo di ridurre le
dimensioni dei file senza compromettere in modo sostanziale la qualità dell'informazione.
La compressione dei dati con perdita di qualità è ampiamente usata in molti settori dell'informatica: su Internet,
nell'ambito dello streaming dei media, nella telefonia, per la compressione di immagini o altri oggetti multimediali,
ecc.
Una volta compresso un file con un metodo lossy, le informazioni perse non saranno più recuperabili. Una sua
apertura e una sua ricompressione con metodi lossless o con un metodo lossy con una compressione minore non
permetteranno di tornare alla quantità di informazioni iniziali ma anzi, l'ulteriore compressione lossy potrebbe far
perdere ulteriori informazioni, ma ingrandendo le dimensioni del file.

Esempi
Esempio di immagine compressa con l'algoritmo JPEG standard a diverse qualità:

Qualità 100% - 87,7 kB Qualità 90% - 30,2 kB Qualità 50% - 6,7 kB Qualità 10% - 3,2 kB

Come si può notare il miglior rapporto qualità/dimensione si ha con valore intorno al 90%. È inoltre immediatamente
osservabile come, all'aumentare del livello di compressione, compaiano artefatti sempre più visivamente evidenti.

Compressione dati

Audio
• ADPCM

Musica e suoni
• AAC
• MPC o Musepack
• MP3
• → Ogg Vorbis (non ristretto da brevetti)
• VQF
• WMA
• AC3
Compressione dati lossy 37

Voce
• GSM 06.10
• → Ogg Speex (non ristretto da brevetti)

Foto (immagini ferme)


• JPEG
• JPEG 2000

Video (immagini in movimento)


• MPEG-1
• MPEG-2
• → MPEG-4
• → Ogg Theora (non ristretto da brevetti)
• DivX
• XviD
• 3GPP
• WMV

Voci correlate
• → Compressione dati lossless
• Compressione dati
• Codec

Compressione dati lossless


La compressione dati lossless (compressione dati senza perdita), è una classe di algoritmi di compressione dati
che non porta alla perdita di alcuna parte dell'informazione originale durante la fase di compressione/decompressione
dei dati stessi.
Un esempio di questo tipo di compressione è dato dai formati Zip, Gzip, Bzip2, Rar, 7z. I file per cui non è
accettabile una perdita di informazione, come i testi o i programmi, utilizzano questo metodo. Per le immagini
fotografiche generalmente non si usano algoritmi lossless in quanto sarebbero veramente poco efficienti, ma per le
immagini che contengano ampie aree con colori puri spesso la compressione lossless non solo è applicabile, ma
anche conveniente (GIF, PNG, MNG, TIFF con compressione LZW, ZIP o RLE).

Problemi della compressione lossless


Gli algoritmi di compressione lossless non possono sempre garantire che ogni insieme di dati in input diminuisca di
dimensione. In altre parole per ogni algoritmo lossless ci saranno particolari dati in input che non diminuiranno di
dimensione quando elaborati dall'algoritmo. Questo è facilmente verificabile con della matematica elementare:
• Si assuma che ogni file sia rappresentato da una stringa di bit di lunghezza arbitraria.
• Si supponga (per assurdo), che esista un algoritmo di compressione che trasformi ogni file in un file più corto
distinto. (se i file risultanti non sono distinti, l'algoritmo non può essere reversibile senza perdita di dati.)
• Si considerino l'insieme dei file con lunghezza massima di N bit. Questo set ha 1 + 2 + 4 + ... + 2N = 2N+1-1
elementi, se si include il file di lunghezza zero.
Compressione dati lossless 38

• Ora considerando l'insieme dei file con N-1 bit, vi sono 1 + 2 + 4 + ... + 2N-1 = 2N-1 file che vi appartengono,
sempre considerando anche il file di lunghezza zero.
• Tale numero di elementi è più piccolo di 2N+1-1. Non è possibile collegare in modo univoco gli elementi di un
insieme più grande (i file da comprimere) con gli elementi di un insieme più piccolo (i file dopo la compressione).
• Questa contraddizione implica che l'ipotesi originale (che un algoritmo di compressione renda tutti i file più
piccoli) sia errata.
Si può notare che la differenza di dimensione è così elevata che non fa alcuna differenza se si considerano file di
dimensione esattamente N come insieme dei file da comprimere: tale insieme è comunque di dimensioni maggiori
(2N) dell'insieme dei file compressi.
Una dimostrazione anche più semplice (ma equivalente) è come segue:
1. Si assuma che ogni file sia rappresentato da una stringa di bit di lunghezza arbitraria.
2. Si supponga (per assurdo), che esista un algoritmo di compressione C che trasformi ogni file di lunghezza
maggiore di 1 in un file più corto distinto. (se i file risultanti non sono distinti, l'algoritmo non può essere
reversibile senza perdita di dati.)
3. Dato un qualunque file F di lunghezza L(F)=N, si applichi C a questo file, ottenendo il file C(F)
4. Si ripeta il passo precedente applicando C a C(F) e si continui in questo modo: per l'ipotesi al punto (2), si ha:

L(F)=N>L(C(F)) > L(C2(F)) > ...

e quindi:

L(C(F))<= N-1
L(C2(F))<= N-2
L(Ck(F))<= N-k

Dopo al massimo N iterazioni, si deve avere L(CN-1(F))=1, perché ogni iterazione deve diminuire la lunghezza di
almeno un bit: questo procedimento non dipende dal valore di N. Dalle nostre ipotesi consegue quindi che
esisterebbero due soli file distinti (quello contente il bit 0 e quello contenente il bit 1). Questo è evidentemente falso,
quindi l'ipotesi è falsa.
Quindi, ogni algoritmo di compressione che rende alcuni file più piccoli, deve necessariamente rendere altri file più
grandi o lasciarli di lunghezza invariata.
Nell'uso pratico, si considerano buoni gli algoritmi di compressione che comprimono effettivamente la maggior parte
dei formati più comuni: questo non corrisponde necessariamente ad una misura di bontá in senso teorico (che misura
la distanza media, misurata su tutti i file possibili, tra la lunghezza ottenuta e il numero di bit di entropia contenuti
nel file, che, per un teorema di Shannon, è il limite di comprimibilitá teorico). Inversamente, un algoritmo
teoricamente buono potrebbe non avere applicabilitá pratica (ad esempio perché non riduce formati di uso comune).
In realtà, molti applicativi che utilizzano la compressione lossless prevedono di lasciare invariati gli insiemi di dati la
cui dimensione sia aumentata dopo la compressione. Ovviamente, il flag che indica che questo gruppo di dati non va
processato dall'algoritmo aumenta la dimensione effettiva necessaria a memorizzare il gruppo di dati, ma permette di
evitare un ulteriore spreco di spazio e di tempo necessario alla compressione/decompressione.
Compressione dati lossless 39

Qualità della compressione e velocità


In generale, non vi è un rapporto di proporzionalità indiretta tra qualità della compressione ottenibile da un algoritmo
e la sua velocità di esecuzione.
Prendiamo ad esempio la seguente stringa di dati:

005555550055555500555555005555550055555500555555

La stringa richiede 48 caratteri, ma è immediatamente disponibile all'utilizzo. Un algoritmo di compressione lossless


potrebbe essere "cifra-numero di ripetizioni". La stringa, utilizzando questo algoritmo, diviene quindi:

025602560256025602560256

È chiaro che i dati non sono più direttamente disponibili ma occorre svolgere un passaggio intermedio
(decompressione).
Poiché, dato uno stesso archivio dati, la decompressione è solitamente molto più frequente della compressione molti
algoritmi sono fortemente asimmetrici: il tempo richiesto per la compressione è sostanzialmente superiore a quello
richiesto per la decompressione. Questo accade anche nei riguardi delle richieste di memoria e di capacità di calcolo.

Tecniche di compressione
Esistono diversi algoritmi di compressione. Tra i più noti:
• Huffman
• Codifica aritmetica (o "compressione aritmetica")
• Lempel-Ziv-Welch (LZW)
• LZ77
• LZ78
• LZMA
• DEFLATE - tecnica mista: LZ77 e Huffman
• Prediction by Partial Matching (PPM)
• Trasformata di Burrows-Wheeler - (BWT)

Programmi generici per la compressione


Tra i tanti programmi di compressione molti usano un algoritmo tra quelli elencati sopra, mentre alcuni ne hanno uno
proprio:
• Arj - algoritmo proprio
• Gzip - usa DEFLATE
• PKZIP - usa DEFLATE
• WinZip - usa DEFLATE
• WinRar - algoritmo proprio
• Bzip2 - usa la trasformata di Burrows-Wheeler
• 7-Zip - usa LZMA
Compressione dati lossless 40

Formati ed algoritmi

Audio
• Apple Lossless - ALAC (Apple Lossless Audio Codec)
• Direct Stream Transfer - DST
• FLAC - Free Lossless Audio Codec
• Meridian Lossless Packing - MLP
• APE Monkey's Audio
• RealPlayer - RealAudio Lossless
• Shorten - SHN
• TTA - True Audio Lossless
• WavPack - WavPack lossless
• WMA - comprende anche una variante lossless

Immagini
• ABO - Adaptive Binary Optimization
• GIF - Lempel-Ziv-Welch (LZW) per immagini da 2 a 256 colori
• Portable_Network_Graphics Portable Network Graphics - usa una variante di DEFLATE
• HD Photo - Contempla un metodo di compressione lossless
• OptiPNG - Metodo di compressione lossless in formato PNG
• JPEG - comprende una variante lossless JPEG-LS[1] (poco utilizzata)
• JPEG 2000 - comprende un metodo di compressione lossless
• JBIG2 - comprende una compressione lossless di immagini in bianco e nero
• TIFF (Tagged Image File Format) - permette di scegliere tra diversi algoritmi sia lossless (tra cui LZW e RLE) o
lossy (JPEG)
• WMPhoto - Contempla un meodo di compressione lossless
• Qbit Lossless Codec - Dedicato alla compressione intra-frame
• RLE Run-length encoding algoritmo usato nei formati TGA, BMP, TIFF
• FAX Gruppo 3 (1D) e Gruppo 4 (2D) - algoritmo per immagini bianco e nero usato dai FAX e dal formato TIFF

Video
• Huffyuv [2]
• CorePNG [3]
• MSU Lossless Video Codec [4]
• Sheervideo [5]
• LCL [6]
• Qbit Lossless Codec [7]
• Animation codec [8]
• Lagarith [9]
• H.264/MPEG-4 AVC
• Motion JPEG2000 comprende anche una variante lossless
Compressione dati lossless 41

Voci correlate
• → Compressione dati lossy
• Compressione dati

Note
[1] http:/ / en. wikipedia. org/ wiki/ Lossless_JPEG
[2] http:/ / neuron2. net/ www. math. berkeley. edu/ benrg/ huffyuv. html
[3] http:/ / corepng. corecodec. org/
[4] http:/ / compression. ru/ video/ ls-codec/ index_en. html
[5] http:/ / www. bitjazz. com/ it/ products/ sheervideo/ index. php
[6] http:/ / translate. google. com/ translate?u=http%3A%2F%2Fwww. geocities. co. jp%2FPlaytown-Denei%2F2837%2FLRC. htm&
langpair=ja%7Cen& hl=en& safe=off& c2coff=1& ie=UTF-8& oe=UTF-8& prev=%2Flanguage_tools
[7] http:/ / www. qbit. com
[8] http:/ / en. wikipedia. org/ wiki/ Animation_codec
[9] http:/ / lags. leetcode. net/ codec. html

Joint Photographic Experts Group


Sviluppatore Joint Photographic Experts Group

Tipo Compressione dell'immagine

→ Lossy / → Lossless lossy (solitamente) e lossless

Licenza Royality free

Sito web http:/ / www. jpeg. org

|+ style="text-align: center; font-size: larger; margin-left: inherit;" | Joint Photographic Experts Group (JPEG)
JPEG è l'acronimo di Joint Photographic Experts Group, un comitato ISO/CCITT che ha definito il primo standard
internazionale di compressione per → immagini a tono continuo, sia a livelli di grigio che a → colori. È un formato
gratuito e open-source.
Attualmente JPEG è lo standard di compressione delle immagini fotografiche più utilizzato. Le estensioni più
comuni per questo formato sono .jpeg, .jpg, .jfif, .JPG, .JPE, anche se il più comune in tutte le piattaforme è .jpg.
JPEG specifica solamente come una immagine può essere trasformata in uno stream di byte, ma non come questo
può essere incapsulato in supporti di memorizzazione. Un ulteriore standard chiamato JFIF (JPEG File Interchange
Format), creato da Independent JPEG Group, specifica come produrre un file appropriato per la memorizzazione su
computer di uno stream JPEG. Nell'uso comune, quando qualcuno parla di "file JPEG" generalmente intende un file
JFIF o alcune volte un file Exif JPEG. Ci sono, comunque, altri formati di file basati su JPEG, come ad esempio
JNG.
Joint Photographic Experts Group 42

Da Raster Image a JPEG


Essenzialmente il JPEG opera in 3 passi fondamentali per trasformare un'immagine raster in una JPEG e viceversa.
Tali passi sono:
• Rappresentazione in ambito frequenziale tramite DCT (trasformata discreta del coseno) se opera in modalità →
lossy, uso dei predittori in modalità → lossless.
• Quantizzazione effettuata tramite opportune matrici, che solitamente, pesano i coefficienti di ordine più basso
(rappresentano le basse frequenza spaziali) in maniera più decisa, in quanto, per le proprietà della DCT, sono più
importanti ai fini della sintesi dell'immagine. Questo perché il sistema visivo umano percepisce maggiormente le
basse frequenze spaziali rispetto alle alte frequenze, risulta quindi necessario dare maggior importanza alle basse
frequenze spaziali.
• Codifica entropica ed eliminazione delle ridondanze di tipo statistico tramite codifica RLE e codici di Huffman;
la componente continua della DCT invece è codificata in DPCM.
Il fattore di compressione che si può raggiungere è determinato essenzialmente da un parametro di scalature per le
matrici di quantizzazione, tanto più piccolo è questo parametro, tanto peggiore è la qualità. Si può ottenere un fattore
di compressione 15:1 senza alterare visibilmente la qualità dell'immagine.

Compressione
Lo standard JPEG definisce due metodi di compressione di base, uno basato sull'uso della trasformata discreta del
coseno (DCT) con compressione di tipo "→ lossy" cioè con perdita di informazione, l'altro sull'uso di un metodo
predittivo con compressione di tipo "→ lossless" cioè senza perdita di informazione. L'algoritmo base dello JPEG di
tipo "lossy" viene detto "baseline", inoltre sono state definite delle estensioni opzionali del metodo "lossy" per la
compressione di tipo gerarchico e progressivo.
Esempio di immagine compressa con l'algoritmo standard a diverse qualità:

JPEG qualità 10% - 3,2 Kb JPEG qualità 50% - 6,7 Kb

JPEG qualità 90% - 30,2 Kb JPEG qualità 100% - 87,7 Kb


Joint Photographic Experts Group 43

Come si può notare il miglior rapporto qualità/dimensione si ha con valore intorno al 90%. È inoltre immediatamente
osservabile come, all'aumentare del livello di compressione, compaiano artefatti sempre più visivamente evidenti.
Tra questi il più tipico per il formato JPEG (come per tutti i formati che si basano sulla DCT) è la quadrettatura o
"blocking"; oltre ad esso si verificano fenomeni di "ringing" (fenomeno di Gibbs) e "blurring" o "blur" (sfocatura).

Utilizzo
JPEG/JFIF è il formato più utilizzato per la memorizzazione di fotografie. È inoltre il formato più comune su World
Wide Web.
Non è invece adatto per disegni geometrici, testo o icone, per cui sono utilizzati comunemente i formati → PNG e
GIF.

Altri formati di compressione "lossy"


Nuovi metodi lossy, in particolare basati sulle DWT (Discrete Wavelet Transform), garantiscono migliori risultati in
alcuni casi.
Il comitato JPEG ha creato un nuovo standard basato su wavelet, JPEG2000, con la prospettiva di sostituire nel
tempo lo standard JPEG.

Voci correlate
• → Immagine digitale
• Elaborazione digitale delle immagini
• Trasformata discreta del coseno

Collegamenti esterni
• (EN) Sito ufficiale JPEG [1]
• (EN) Formato file JFIF [2]

Note
[1] http:/ / www. jpeg. org/
[2] http:/ / www. w3. org/ Graphics/ JPEG/ jfif3. pdf
Portable Network Graphics 44

Portable Network Graphics


Portable Network Graphics (PNG)
Estensione .png

Sviluppatore Thomas Boutell (ideatore originario)

Tipo Compressione dell'immagine

Licenza BSD-Like/GPL

Sito Web http:/ / www. libpng. org

In informatica, il Portable Network


Graphics (abbreviato PNG) è un formato di
file per memorizzare immagini.
Il PNG è stato creato nel 1995 da un gruppo
di autori indipendenti e approvato il 1º
ottobre 1996 dal World Wide Web
Consortium (W3C), terminando il suo iter
nel gennaio 1997 come oggetto del Request
for Comments (RFC) 2083.

L'ideazione del PNG avvenne in seguito


all'introduzione del pagamento di royalties
dell'allora popolarissimo e usatissimo
Confronto tra immagine JPEG (a sinistra) e PNG (a formato GIF. Infatti nel 1994 i detentori del
destra)
brevetto decisero improvvisamente di
chiedere un pagamento per ogni programma
che utilizzasse il loro formato. La prima
reazione della comunità informatica a tale
improvviso cambiamento fu la sorpresa, a
cui seguì la scelta di indirizzarsi verso lo
sviluppo di un'alternativa.

Il formato PNG è superficialmente simile al


GIF, in quanto è capace di immagazzinare
immagini in modo → lossless, ossia senza
perdere alcuna informazione, ed è più
efficiente con immagini non fotorealistiche
(che contengono troppi dettagli per essere
compresse in poco spazio).

Essendo stato sviluppato molto tempo dopo,


Immagine PNG opaca non ha molte delle limitazioni tecniche del
formato GIF: può memorizzare immagini in
colori reali (mentre il GIF era limitato a 256 colori), ha un canale dedicato per la trasparenza (canale alfa). Esiste
inoltre un
Portable Network Graphics 45

formato derivato, Multiple-image Network


Graphics o MNG, che è simile al GIF
animato.
Il formato PNG supporta:
• gestione dei colori classica tipo bitmap
oppure indicizzata;
• possibilità di trasmettere l'immagine
lungo un canale di comunicazione seriale
(serializzazione dell'immagine);
• visualizzazione progressiva
dell'immagine, grazie all'interlacciamento
della medesima;
• supporto alla trasparenza mediante un
canale alfa dedicato, ampliando le
Immagine PNG trasparente
caratteristiche già presenti nel tipo
GIF89a;
• informazioni ausiliare di qualsiasi natura accluse al file;
• completa indipendenza dall'hardware e dalla piattaforma in uso;
• compressione dei dati di tipo lossless;
• immagini truecolor fino a 48 bpp;
• immagini in scala di grigio sino a 16 bpp;
• filtro dei dati prima della (eventuale) compressione;
• correzione della gamma dei colori presenti nell'immagine, per riprodurre esattamente quanto visualizzato all'atto
della creazione dell'immagine;
• (debole) verifica dell'integrità dei file;
• rapida presentazione iniziale dell'immagine grazie alla visualizzazione progressiva.
L'utilizzo del PNG è stato inizialmente limitato, a causa del fatto che pochi programmi erano capaci di scrivere o
leggere tali immagini. Col tempo, tutti i maggiori programmi di grafica e di navigazione accettarono il formato PNG,
che trovò così più largo utilizzo.
Nel giugno 2003, il brevetto originale sul formato GIF è scaduto, ma solo negli USA. Nel resto del mondo è scaduto
durante il 2004.
Nonostante questo, nulla lascia sospettare che l'utilizzo del PNG diminuirà come conseguenza.
46

Formati del video digitale

Formato contenitore
Un formato contenitore è un formato di file che può contenere diversi tipi di dati, → compressi tramite codec
audio/video. Il file contenitore è usato per identificare e disporre i differenti tipi di dati in maniera non contigua. I
formati contenitori più semplici possono contenere diversi tipi di codec audio, mentre quelli pià avanzati arrivano a
supportare anche i codec video, sottotitoli e tag metadata.
Alcuni contenitori sono esclusivamente di matrice audio, ad esempio:
• AIFF (largamente usato nei sistemi operativi Mac OS)
• WAV (Resource Interchange File Format, usato prevalentemente nei sistemi Windows)
• XMF (Extensible Music Format)
Altri contenitori riguardano unicamente immagini digitali:
• FITS (Flexible Image Transport System), formato contenitore per file RAW ed i metadata associati.
• TIFF (Tagged Image File Format), formato contenitore per immagini ed metadata associati.
Altri contenitori supportano sia dati audio che video::
• 3GP (usato maggiormente da dispositivi portatili e telefoni cellulari)
• ASF (contenitore standard proprietario riguardante WMA and WMV)
• → AVI (contenitore standard Microsoft)
• DVR-MS ("Microsoft Digital Video Recording"), contenitore video proprietario, sviluppato da Microsoft e basato
su ASF)
• IFF (primo formato contenitore multipiattaforma)
• → MKV , (formato contenitore open source).
• → MP4 (contenitore audio/video standard per il formato .mp4)
• → MOV (contenitore video standard per Quicktime della Apple)
• → Ogg (contenitore audio standard della fondazione Xiph.org.
• RealMedia (contenitore standard per RealVideo e RealAudio)

Problemi ed incompatibilità
Le differenze tra i molti formati contenitori derivano da cinque grandi problematiche:
1. Popolarità; ovvero, quanto sia diffuso il formato.
2. Overhead; ovvero, la differenza di peso (in termini di memoria occupata) tra due differenti contenitori, aventi il
medesimo contenuto.
3. Supporto per funzionalità avanzate dei codec. Ad esempio, formati considerati "vecchi" quali l'→ AVI non
supportano alcuna funzionalità avanzata, sebbene il problema possa essere aggirato attraverso hacking, causando
spesso problemi di compatibilità.
4. Supporto per contenuti avanzati quali sottotitoli, metatags et similia.
5. Supporto per lo streaming.
Formato contenitore 47

Voci correlate
• FFmpeg
• Cross-platform
• Open source
• Codec

Audio Video Interleave


Audio Video Interleave

Estensione .avi

Tipo MIME video/avi video/msvideo


video/x-msvideo

Sviluppatore Microsoft

Tipo Contenitore multimediale

AVI, acronimo di Audio Video Interleave, è un Contenitore multimediale realizzato dalla Microsoft nel 1992 come
formato standard video per il sistema operativo Windows. Nel febbraio del 1996, Microsoft decide di integrare nel
formato AVI un set di estensioni sviluppate da Matrox OpenDML. Questo nuovo tipo di file AVI viene chiamato,
non ufficialmente, "AVI 2.0".
AVI è un contenitore multimediale e può contenere uno o due flussi audio e un flusso video. AVI non supporta alcun
formato di sottotitoli che devono quindi essere trasformati ed inseriti dentro il flusso video. La mancanza del
supporto per sottotitoli e la mancanza di supporto per formati aperti lo differenzia da altri contenitori multimediali
come → Matroska ed → Ogg.

Formati Multimediali Supportati

Video Audio Sottotitoli


integrati
Supporto Supporto
Supporto
MPEG-1 Sì MP3 Sì
VobSubs No
MPEG-2 Sì WMA Sì
Ogg No
→ Sì RealAudio No
Writ
MPEG-4
Vorbis No
USF No
WMV Sì
AC3 Sì
RealVideo Sì
DTS Sì
Theora Sì
FLAC No
Flash No
Audio Video Interleave 48

Voci correlate
• Contenitore multimediale
• ASF
• → MOV
• → Ogg
• RealMedia
• → Matroska
• Sigle dei DivX
• Screener

Matroska
Nome Matroska (Матрёшка)

logo

estensione .mkv .mka

mime audio/x-matroska
video/x-matroska

sviluppatore The Matroska Project

tipo Contenitore multimediale

licenza Pubblico dominio

sito web http:/ / www. matroska. org

Matroska (le cui estensioni classiche sono .mkv e .mka) è un progetto volto a sviluppare un contenitore
multimediale simile a QuickTime di Apple, Mp4 di MPEG o l'Advanced Systems Format di Microsoft. Il suo nome
deriva dalle bambole Matrioska.
Il progetto è stato annunciato il 7 dicembre 2002 come fork del progetto Multimedia Container Format in seguito a
disaccordi con il creatore del progetto circa l'utilizzo dell'EBML (Extensible Binary Meta Language) invece di un
altro formato binario.
I fondatori del progetto Matroska credono che l'uso dell'EBML porti numerosi vantaggi, tra i quali facilitazioni in
una futura estensione del formato.

Obiettivi
Gli obiettivi del progetto sono diversi:
• Creare un formato contenitore multimediale moderno, flessibile, estensibile e multipiattaforma che permetta lo
streaming attraverso Internet, una ricerca rapida all'interno del file e menu tipo DVD.
• Sviluppare una serie di strumenti per la creazione e la modifica di file Matroska, da rilasciarsi sotto licenza GNU
General Public License.
• Sviluppare librerie che possano essere utilizzate dagli sviluppatori per avere il supporto Matroska alle loro
applicazioni, da rilasciarsi sotto licenza GNU General Public License.
• Lavorare in concerto con produttori di hardware per incorporare il supporto Matroska in dispositivi multimediali.
Matroska 49

• Fornire supporto nativo a Matroska per diversi sistemi operativi, tra cui:
• Linux tramite il GStreamer multimedia framework
• Haiku tramite il suo Mediakit
• Windows tramite DirectShow
• Mac OS X tramite il framework QuickTime

Formati multimediali supportati

Formati video supportati

Supporto

MPEG-1 No

MPEG-2 Sì

→ Sì
MPEG-4

WMV Sì

RealVideo Sì

Theora Sì

Flash Sì

Formati audio supportati

Supporto

MP3 Sì

WMA Sì

RealAudio Sì

Vorbis Sì

AC3 Sì

DTS Sì

FLAC Sì

Formati sottotitoli integrati supportati


Matroska 50

Supporto

VobSubs Sì

Ogg Sì
Writ

USF Sì

Voci correlate
• Contenitore multimediale
• → AVI
• ASF
• → MOV
• → Ogg
• RealMedia

Collegamenti esterni
Homepage Ufficiale [1]

Note
[1] http:/ / www. matroska. org/

MPEG-4
MPEG-4, nato nel 1996 e finalizzato nel 1998 (fu presentato pubblicamente ad ottobre di quell'anno), è il nome dato
a un insieme di standard per la codifica dell'audio e del video digitale sviluppati dall'ISO/IEC Moving Picture
Experts Group (MPEG). L'MPEG-4 è uno standard utilizzato principalmente per applicazioni come la videotelefonia
e la televisione digitale, per la trasmissione di filmati via Web, e per la memorizzazione su supporti CD-ROM.
MPEG-4 è basato sugli standard MPEG-1, MPEG-2 e Apple QuickTime technology, supportandone tutte le
caratteristiche; ISO approvò il formato QuickTime come base per lo standard MPEG-4, l'MPEG group riteneva
infatti che fosse la migliore base di partenza e che integrasse già alcune caratteristiche essenziali[1] ; lo standard
evolutosi possedeva inoltre tutta una serie di nuove funzioni come la gestione tridimensionale degli oggetti (tramite
un'estensione del VRML). I flussi audio e video vengono trattati dallo standard MPEG-4 come oggetti che possono
essere manipolati e modificati in tempo reale bidirezionalmente. Lo standard supporta caratteristiche specificate da
terze parti come una particolare gestione dei DRM o una gestione interattiva dei contenuti.
La maggior parte delle caratteristiche dell'MPEG-4 sono opzionali e quindi la loro implementazione è lasciata alla
discrezione dello sviluppatore. Questo implica che parte dei lettori mediali di file MPEG-4 non saranno magari in
grado di gestire tutte le caratteristiche del formato. Per permettere un'elevata interoperabilità, nel formato sono stati
inclusi i concetti di profilo e di livello, quindi i vari lettori MPEG-4 potranno essere suddivisi a seconda dei profili e
livelli supportati.
MPEG-4 51

Componenti MPEG-4
MPEG-4 è suddiviso in vari sotto standard chiamati part (termine inglese che in italiano significa "parte"):
• Part 1 (ISO/IEC 14496-1): Systems: Describes synchronization and multiplexing of video and audio.
• Part 2 (ISO/IEC 14496-2): Visual: A compression codec for visual data (video, still textures, synthetic images,
etc.). One of the many "profiles" in Part 2 is the Advanced Simple Profile
• Part 3 (ISO/IEC 14496-3): Audio: A set of compression codecs for perceptual coding of audio signals.
• Part 4 (ISO/IEC 14496-4): Conformance: Describes procedures for testing conformance to other parts of the
standard.
• Part 5 (ISO/IEC 14496-5): Reference Software: Provides software for demonstrating and clarifying the other parts
of the standard.
• Part 6 (ISO/IEC 14496-6): Delivery Multimedia Integration Framework (DMIF).
• Part 7 (ISO/IEC 14496-7): Optimized Reference Software: Provides examples of how to make improved
implementations (e.g., in relation to Part 5).
• Part 8 (ISO/IEC 14496-8): Carriage on IP networks: Specifies a method to carry MPEG-4 content on IP networks.
• Part 9 (ISO/IEC 14496-9): Reference Hardware: Provides hardware designs for demonstrating how to implement
the other parts of the standard.
• Part 10 (ISO/IEC 14496-10): A codec for video signals which is also called AVC (Advanced Video Coding) and
is technically identical to the ITU-T H.264 standard.
• Part 12 (ISO/IEC 14496-12): ISO Base Media File Format: A file format for storing media content.
• Part 13 (ISO/IEC 14496-13): Intellectual Property Management and Protection (IPMP) Extensions
• Part 14 (ISO/IEC 14496-14): MP4 File Format: The designated container file format for MPEG-4 content MP4,
which is based on Part 12.
• Part 15 (ISO/IEC 14496-15): AVC File Format: For storage of Part 10 video based on Part 12.
• Part 16 (ISO/IEC 14496-16): Animation Framework eXtension (AFX)
• Part 17 (ISO/IEC 14496-17): Timed Text subtitle format (not yet finished - reached "FCD" stage in January 2005)
• Part 18 (ISO/IEC 14496-18): Font Compression and Streaming (for OpenType fonts)
• Part 19 (ISO/IEC 14496-19): Synthesized Texture Stream
• Part 20 (ISO/IEC 14496-20): Lightweight Scene Representation (LASeR) .
• Part 21 (ISO/IEC 14496-21): MPEG-J Extension for Rendering (not yet finished - reached "CD" stage in January
2005)
I profili inoltre sono definiti all'interno di diverse Part, in modo che un'esecuzione di alcune caratteristiche di una
Part non implichi la necessità di supportare l'intera Part.
MPEG-1, MPEG-2, MPEG-7 e MPEG-21 sono altri standard MPEG.

Funzionamento
Il concetto alla base del codec (COdificatore-DECodificatore) MPEG4 è la Quantizzazione. Senza scendere nello
specifico, si può riassumere come quel processo che permette, mediante un apposito algoritmo di compressione, di
trasmettere solamente la variazione dell'immagine. Allo stato dell'arte infatti esistono due modi per eseguire questa
operazione: I-frame e P-frame4: il primo codifica l'immagine senza una referenza alla precedente (refresh puro): è
più preciso ma più pesante per le applicazioni via rete, mentre la seconda esegue una compensazione nella variazione
del movimento (motion-compensated frames) analizzando appunto la differenza di immagine tra due frame correnti.
La parte statica non è ritrasmessa e non cambia tra un quadro e l'altro.
MPEG-4 52

Voci correlate
• Advanced Audio Coding (AAC)
• XviD
• DivX
• 3ivx
• Nero Digital
• H.264
• M4a
• MPEG-4 Part 3
• Theora
• SBR

Collegamenti esterni
• Tecnologia Mpeg-4 sviluppata da Apple (in inglese) [2]
• Sito italiano sull'Mpeg4 [3]
• (EN) MPEG-4: The Next Generation [4]
• (EN) MPEG-4 Audio: AAC [5]
• (EN) MPEG Industry Forum MPEG-4 page [6]
• (EN) Moving Picture Experts Group (MPEG) Official Website [7]
• Galleria di filmati in formato H.264/AVC [8]
• FAQ sul formato H.264/AVC [9]
• MPEG-4 part 20: LASeR [10]

Note
[1] Vedere la voce Quicktime
[2] http:/ / www. apple. com/ quicktime/ technologies/ mpeg4/
[3] http:/ / www. m4a. it
[4] http:/ / www. apple. com/ mpeg4/
[5] http:/ / www. apple. com/ mpeg4/ aac/
[6] http:/ / www. m4if. org/ mpeg4/
[7] http:/ / www. chiariglione. org/ mpeg/
[8] http:/ / www. apple. com/ quicktime/ hdgallery
[9] http:/ / www. apple. com/ mpeg4/ h264faq. html
[10] http:/ / www. mpeg-laser. org
MOV (formato di file) 53

MOV (formato di file)


QuickTime Movie
Estensione .mov .qt

Tipo MIME video/quicktime

Sviluppatore Apple Inc.

Tipo Contenitore multimediale

Formati multimediali supportati

Formati video supportati

Supporto

MPEG-1 Sì

MPEG-2 Sì

→ Sì
MPEG-4

WMV Sì

RealVideo Sì

Theora Sì

Flash Sì

Formati audio supportati

Supporto

MP3 Sì

WMA Sì

RealAudio No

Vorbis Sì

AC3 Sì

DTS Sì

FLAC Sì

Formati sottotitoli integrati supportati


MOV (formato di file) 54

Supporto

VobSubs No

Ogg No
Writ

USF No

Voci correlate
• Contenitore multimediale
• → AVI
• ASF
• → Ogg
• RealMedia
• → Matroska

Ogg
Ogg Media

Estensione .ogg .ogm .oga .ogv


.ogx

Tipo MIME video/ogg


audio/ogg
application/ogg

Sviluppatore Xiph.Org Foundation

Tipo Contenitore multimediale

Licenza licenza BSD

Sito Web [1]

Ogg è un contenitore multimediale libero per il trasporto di flussi di bit progettato per permettere sia lo streaming
che l'archiviazione in maniera efficiente.
Il nome "Ogg" si riferisce al formato di file, che include un numero di codec indipendenti per il video, l'audio ed il
testo (ad esempio, per i sottotitoli). I file con l'estensione ".ogg" possono contenere uno qualsiasi dei formati
supportati, e poiché il formato è liberamente implementabile, i vari codec ogg sono stati incorporati in molti
riproduttori multimediali, sia proprietari, sia liberi.
Spesso il termine "ogg" è stato usato per indicare il formato di file audio Ogg Vorbis, cioè un file audio codificato in
un file ogg con l'algoritmo Vorbis, poiché questo è stato il primo codec ad usare il contenitore ogg. Altri importanti
codec sviluppati per il contenitore ogg sono Theora per la compressione video, e Speex, un algoritmo ottimizzato per
la compressione del parlato.
Ogg 55

Il progetto è stato sviluppato originariamente da Christopher Montgomery della Xiph.Org Foundation.


È inoltre il formato ufficialmente preferito per i file audio e video di Wikipedia.

Licenze
Le specifiche di Ogg sono di pubblico dominio. Le librerie di riferimento per la codifica e decodifica sono rilasciate
sotto licenza BSD. Gli strumenti ufficiali per la gestione del container sono rilasciati sotto GNU General Public
License (GPL).

I codec di Ogg
Ogg è solo un formato che specifica il modo in cui i dati devono essere ordinati nel flusso dati. I dati audio o video
codificati da un codec specifico saranno inseriti nel contenitore Ogg. Il contenitore Ogg può contenere flussi
codificati con diversi codec: ad esempio, un file audio/video conterrà dati codificati con un codec audio e dati
codificati con un codec video.
Essendo un formato di contenimento, Ogg può integrare diversi codec. Di seguito le specifiche di Xiph.org in tal
senso:
• Codec video
• Theora: codec di compressione video basato su VP3 di On2
• Dirac: codec sperimentale open source sviluppato originariamente da BBC
• Tarkin: codec sperimentale che utilizza trasformate wavelet 3D, nel frattempo reso obsoleto da Theora
• OggUVS: stream video non compresso
• Codec audio
• Vorbis: compressione di segnale musicale e audio generico (~16-256 kbit/s/canale)
• Speex: compressione della voce umana a bassi bitrate (~8-32 kbit/s/canale)
• FLAC: compressione audio lossless
• OggPCM: stream PCM non compresso concettualmente paragonabile a WAVEform audio di Microsoft
• Codec testo
• Writ: codec per la gestione del testo nei sottotitoli dei filmati
• Metadati
• Ogg Skeleton: formato ancora in fase sviluppo per spostare i metadati dal livello flusso a livello contenitore

Il problema dell'estensione file


Sebbene Xiph.org avesse previsto originariamente l'estensione .ogg per il contenitore a prescindere dall'effettivo
codec contenuto, l'organizzazione è ritornata sui suoi passi nel 2007, raccomandando di impiegare le sequenti
estensioni per i file Ogg:
• .ogg per Ogg contenente solo audio in formato Vorbis
• .spx per Ogg contenente solo audio in formato Speex
• .oga per Ogg contenente solo audio in FLAC o OggPCM
• .ogv per Ogg contenente almeno un flusso video
A queste si aggiunge l'estensione .flac utilizzata per identificare un flusso FLAC privo del container Ogg. Il
formato FLAC era infatti già esistente e funzionante indipendentemente dal contenitore Ogg, e solo in seguito donato
a Xiph.org.
Prima di questa presa di posizione, il programmatore Tobias Waldvogel era intervenuto sulle specifiche di Ogg per
permettergli di raggirare la limitazione del formato AVI di Microsoft a riguardo dell'audio in formato Vorbis. Per
identificare uno di questi file Ogg, che contengono codec audio e video arbitrari, la comunità ha autonomamente
Ogg 56

fatto nascere l'estensione non ufficiale .ogm, con il significato di Ogg Media. Il contenuto più frequentemente
riscontrato in questi file è un flusso video XviD e almeno un flusso audio Vorbis.

Curiosità
• Nonostante la nota passione di Christopher Montgomery per Terry Pratchett e i suoi libri della serie del Mondo
Disco, in cui effettivamente esiste un personaggio chiamato Ogg, la vera etimologia del termine deriva da uno
slang coniato dallo stesso Montgomery in riferimento alla pesantezza dell'algoritmo Vorbis ai tempi della sua
nascita. Riprendendo il nome di una tattica del videogioco Netrek che consisteva in un attacco suicida, è diventato
di uso comune l'espressione inglese to ogg con il significato approssimativo di "intraprendere un'azione azzardata,
con esiti incerti e conseguenze probabilmente deleterie". Lanciare un processo di codifica di un brano musicale in
Ogg Vorbis, al tempo, rendeva infatti totalmente inutilizzabile il computer per diversi minuti.
• La struttura interna di un file Ogg ne permette il concatenamento per semplice accodamento binario. Il file
risultante è un Ogg perfettamente rispettoso delle specifiche, che prevedono appunto i cosiddetti chained streams.
Il modo più pratico di verificare questa caratteristica sono i comandi DOS
copy /b file1.ogg+file2.ogg newfile.ogg
o Unix
cat file1.ogg file2.ogg > newfile.ogg
che generano un file chiamato newfile.ogg contenente i due brani allacciati tra loro con continuità perfetta
(caratteristica a volte chiamata gapless output).

Collegamenti esterni
• Pagina della Xiph.org Foundation dedicata ad Ogg [1]
• RFC 3533, le specifiche ufficiali del container Ogg
• RFC 3534, le specifiche del MIME type application/ogg

Voci correlate
• Contenitore multimediale
• → AVI
• ASF
• → MOV
• RealMedia
• → Matroska

Collegamenti esterni
• (EN) OggWatch [2] Progetto per la diffusione dei formati Ogg

Note
[1] http:/ / www. xiph. org/ ogg/
[2] http:/ / www. oggwatch. com/
Fonti e autori delle voci 57

Fonti e autori delle voci


Luce  Fonte: http://it.wikipedia.org/w/index.php?oldid=27088384  Autori:: 5Y, A7N8X, ARTE, Adasinol, Alfio, AttoRenato, AvdE, Avesan, Balabiot, Barbaking, Berto, Beta16, Blakwolf,
Blueduster, Buzz lightyear, Ciano, Codas, Contezero, DanGarb, Davide, Diablo, Dinwath, Djdomix, Dr.Conati, Enne, Erococo, Fabio Vescarelli, Fernandopescia, Frazzone, Frieda, Gac, Gacio,
Gassendi, Giaccone Paolo, Gianluigi, Giannizx1, Guam, Hashar, Hellis, IngFrancesco, Jacopo, K92, Longa, Lorenzo S., Luisa, M7, Mauriziogio, Mitchan, Numbo3, Oskar '95, P tasso, Paolo Di
Febbo, Piergiorgio Massari, Piero, Pignol, Qbert88, Qualc1, Salvatore Ingala, Sbazzone, Scriban, Senza nome.txt, Skywolf, Snowdog, Square87, Starwars, Suisui, Template namespace
initialisation script, Tirinto, Traiano, Tridim, Tueg, Twice25, Venom9, Win, Ylebru, 91 Modifiche anonime

Colore  Fonte: http://it.wikipedia.org/w/index.php?oldid=26604227  Autori:: Alfio, Andy91, Archenzo, Aushulz, Avesan, Berto, Biopresto, Blatta, Bob4, Boscarol, Cialz, Cisco79, DarkAp,
Desperate92, Djdomix, Dnaiele, DoppioM, Dream.x, Elwood, Fastforward, Ferrario Jacopo, Frieda, Ft1, Gac, Gacio, Gea, Gierre, Gifh, Ginosal, Hellis, Immanuel Giel, Ithunn, Joana, La voce di
Cassandra, LapoLuchini, Luke30, M7, Massimiliano Lincetto, Nick1915, No2, Nrykko, Paginazero, Patty, R0tAbLe, Remulazz, Riverblu, Sassospicco, Senza nome.txt, Simone, Sinigagl,
Snowdog, Stefano Careglio, Suturn, Talmid3, Template namespace initialisation script, Twice25, 35 Modifiche anonime

Spazio dei colori  Fonte: http://it.wikipedia.org/w/index.php?oldid=23781999  Autori:: Adp, Avesan, Berto, DGC, Djdomix, Dnaiele, Ft1, Hellis, M7, Madaki, Marcok, Sassospicco, Sbisolo,
Shadowfax, Sinigagl, Smallpox, Snarchio, Snowdog, Stefano Careglio, Twice25, Wikit2006, 11 Modifiche anonime

Temperatura di colore  Fonte: http://it.wikipedia.org/w/index.php?oldid=27674953  Autori:: A7N8X, Ary29, AttoRenato, Cialz, Dnaiele, Erud, Fredericks, Gassendi, Guam, Luisa, Luken,
Magica, Pequod76, Senpai, Sesquipedale, 16 Modifiche anonime

RGB  Fonte: http://it.wikipedia.org/w/index.php?oldid=26180034  Autori:: Abisys, Ary29, Blackdeep81, Cassioli, Francescost, Freefranco, Ft1, Gac, Hellis, Lox, Lukius, M7, MaEr,
Marcuscalabresus, Marioquark, Mitchan, Paolo57, PersOnLine, Purodha, Robin root, Sassospicco, Simone, Snowdog, Twice25, Vermondo, Viscontino, Wiso, Yuma, 19 Modifiche anonime

CMYK  Fonte: http://it.wikipedia.org/w/index.php?oldid=25895402  Autori:: Archenzo, Ares, Artwik, Ary29, Avesan, Dani4P, Djdomix, Dnaiele, Freefranco, Gianfranco, Magica, MapiVanPelt,
MiGz, Pino alpino, Riverblu, Sassospicco, Senpai, Simone, SkZ, Stefano Careglio, TierrayLibertad, Tiziano Fruet, Twice25, 10 Modifiche anonime

Hue Saturation Brightness  Fonte: http://it.wikipedia.org/w/index.php?oldid=25414942  Autori:: A7N8X, Alleborgo, Ary29, Avesan, Dejudicibus, KaeZar, Llorenzi, Mamo139,
Moongateclimber, Nick1915, Poweruser, Sassospicco, 3 Modifiche anonime

Grafica raster  Fonte: http://it.wikipedia.org/w/index.php?oldid=26623968  Autori:: .jhc., Alb, Ary29, ChemicalBit, Dr Zimbu, Fabio.gastone, Giovdi, Ignlig, Jotar, Lion-hearted85, Marcok,
Negadrive, Red83, Sinigagl, Vault, Wetto, 19 Modifiche anonime

Pixel  Fonte: http://it.wikipedia.org/w/index.php?oldid=27686410  Autori:: .anaconda, Alberto da Calvairate, Buzz lightyear, Cruccone, EdoM, Enrique, Fragment, Frieda, Ft1, Giannib,
Guidomac, Hellis, Jalo, Laurentius, Lp, Lukius, Mela, Mitchan, Moongateclimber, Neq00, Nosferatu, Piracmone, Qualc1, Richzena, Ripepette, Sbisolo, Scriban, Simone, Snowdog, Suisui, Trixt,
Unriccio, Wetto, Михајло Анђелковић, 35 Modifiche anonime

Risoluzione (grafica)  Fonte: http://it.wikipedia.org/w/index.php?oldid=20850482  Autori:: %Pier%, Alfio, Avesan, Beta16, Bultro, Cassioli, Cls-classic, Fabiob, Frieda, Goliardico, Gvf, Hellis,
Koji, Lucas, Marcel Bergeret, Mizardellorsa, Olando, Sbisolo, Trixt, Zeus57, 4 Modifiche anonime

Risoluzioni standard  Fonte: http://it.wikipedia.org/w/index.php?oldid=24166516  Autori:: %Pier%, A7N8X, Abisys, Alez, Ciampix, Civvì, Dark, Diego Zuelli, EdoM, Gbodini, Hellis, Kal-El,
Kasper2006, Lenny76, Marcuscalabresus, Mr buick, Sandr0, TheDRaKKaR, TierrayLibertad, 8 Modifiche anonime

Immagine digitale  Fonte: http://it.wikipedia.org/w/index.php?oldid=23695265  Autori:: Blackdeep81, CavalloRazzo, Luciodem, Negadrive, 11 Modifiche anonime

Compressione dei dati  Fonte: http://it.wikipedia.org/w/index.php?oldid=26612271  Autori:: %Pier%, Alberto Orlandini, Alfio, Alien life form, Archenzo, Blakwolf, Carlo.milanesi, Djdomix,
Dommac, F. Cosoleto, Frieda, Hellis, Ignlig, Lornova, Lukius, M@ttia, Marcok, Qualc1, Rollopack, Sbisolo, Simpod, Unriccio, 9 Modifiche anonime

Compressione dati lossy  Fonte: http://it.wikipedia.org/w/index.php?oldid=22500703  Autori:: Ary29, Cruccone, Djdomix, Dommac, Fredericks, Fstefani, Gvf, Hellis, Lox, Marcok, Nosferatu,
Unriccio, Yoggysot, 11 Modifiche anonime

Compressione dati lossless  Fonte: http://it.wikipedia.org/w/index.php?oldid=26179787  Autori:: Airon90, Alberto Orlandini, Alien life form, Alleborgo, Ary29, Avesan, Baruneju, CarmineXX,
Civvì, Dinwath, Djdomix, Dommac, Fmonaco, Gaetano56, Hellis, Kiwi, Laurusnobilis, Leif Erikson, Lox, Nicolap8, Piddu, Snowdog, Sylvaticus, Timendum, Unriccio, Wiso, 27 Modifiche
anonime

Joint Photographic Experts Group  Fonte: http://it.wikipedia.org/w/index.php?oldid=26423319  Autori:: .anaconda, Acolleoni, Alfio, AnyFile, Ary29, Barna1000, Brownout, Coyote83,
Elborgo, Erriquez, Frieda, Gvf, Hashar, Hellis, Iskander, Kar.ma, Klemen Kocjancic, Mela, MiGz, Nico96, Objwan, Sbisolo, Simone, Suisui, Template namespace initialisation script, Unriccio,
18 Modifiche anonime

Portable Network Graphics  Fonte: http://it.wikipedia.org/w/index.php?oldid=25726375  Autori:: %Pier%, Acolleoni, Agara73, Alfio, DonPaolo, El salvador, F l a n k e r, Fmonaco, Giancy,
Hashar, Hellis, Iskander, MiGz, Moongateclimber, Nevermindfc, Nico96, Purodha, Sbisolo, Simone, Suisui, Tia solzago, Viscontino, 12 Modifiche anonime

Formato contenitore  Fonte: http://it.wikipedia.org/w/index.php?oldid=20963334  Autori:: Ary29, Satyricon86, Triquetra

Audio Video Interleave  Fonte: http://it.wikipedia.org/w/index.php?oldid=26592483  Autori:: %Pier%, Acolleoni, Archenzo, Ary29, Dalfi85, Fidech, IngFrancesco, MIX, Marcok, Nichlaus,
Nico96, Stemby, Stevenworks, TheHurricanePower, Una giornata uggiosa '94, 11 Modifiche anonime

Matroska  Fonte: http://it.wikipedia.org/w/index.php?oldid=25726729  Autori:: Ary29, Cochrane, DarkAp, Fabio.gastone, MIX, Nico96, Rajven, 4 Modifiche anonime

MPEG- 4  Fonte: http://it.wikipedia.org/w/index.php?oldid=26609041  Autori:: %Pier%, Aushulz, Hellis, Kriss4Christ, Kronos, Marius, Mykelyk, Roces, Senza nome.txt, Seveso, Wikibozzy, 22
Modifiche anonime

MOV (formato di file)  Fonte: http://it.wikipedia.org/w/index.php?oldid=23179559  Autori:: Ary29, MIX, Una giornata uggiosa '94, Unop2pf, 1 Modifiche anonime

Ogg  Fonte: http://it.wikipedia.org/w/index.php?oldid=27285051  Autori:: Actam, Ary29, Blakwolf, Bouncey2k, Brownout, Grifone87, Hashar, Hellis, Jalo, Laurusnobilis, LucAndrea, MIX,
Mikelima, Mitchan, Nico96, Nosferatu, Sante Caserio, Shadd, Una giornata uggiosa '94, 15 Modifiche anonime
Fonti, licenze e autori delle immagini 58

Fonti, licenze e autori delle immagini


File:PrismAndLight.jpg  Fonte: http://it.wikipedia.org/w/index.php?title=File:PrismAndLight.jpg  Licenza: Public Domain  Autori:: NASA
File:Squarci di luce.jpg  Fonte: http://it.wikipedia.org/w/index.php?title=File:Squarci_di_luce.jpg  Licenza: sconosciuto  Autori:: Dr.Conati
File:Chicago Union Station 1943.jpg  Fonte: http://it.wikipedia.org/w/index.php?title=File:Chicago_Union_Station_1943.jpg  Licenza: Public Domain  Autori:: Jack Delano
Immagine:Spectre.svg  Fonte: http://it.wikipedia.org/w/index.php?title=File:Spectre.svg  Licenza: sconosciuto  Autori:: User:Phrood, User:Tatoute
Immagine:Commons-logo.svg  Fonte: http://it.wikipedia.org/w/index.php?title=File:Commons-logo.svg  Licenza: logo  Autori:: User:3247, User:Grunt
Immagine:Wikiquote-logo.svg  Fonte: http://it.wikipedia.org/w/index.php?title=File:Wikiquote-logo.svg  Licenza: logo  Autori:: -xfi-, Dbc334, Doodledoo, Elian, Guillom, Jeffq, Maderibeyza,
Majorly, Nishkid64, RedCoat, Rei-artur, Rocket000, 11 Modifiche anonime
Immagine:Wiktionary-ico-de.png  Fonte: http://it.wikipedia.org/w/index.php?title=File:Wiktionary-ico-de.png  Licenza: logo  Autori:: Bobit, F l a n k e r, Melancholie, Mxn, Rocket000
Immagine:Colouring pencils.jpg  Fonte: http://it.wikipedia.org/w/index.php?title=File:Colouring_pencils.jpg  Licenza: sconosciuto  Autori:: User:MichaelMaggs
Immagine:Spectrum441pxWithnm.png  Fonte: http://it.wikipedia.org/w/index.php?title=File:Spectrum441pxWithnm.png  Licenza: GNU Free Documentation License  Autori:: Adoniscik,
Eno, Knutux, W!B:, 1 Modifiche anonime
Immagine:Karachi - Pakistan-market.jpg  Fonte: http://it.wikipedia.org/w/index.php?title=File:Karachi_-_Pakistan-market.jpg  Licenza: Creative Commons Attribution 2.0  Autori::
Berrucomons, Durova, Epiktet, FlickrLickr, Fred J, Jnn, Jon Harald Søby, Mangostar, Mattes, MichaelMaggs, Neon, Ranveig, Rogerine, Shizhao, Str4nd, WikipediaMaster, 1 Modifiche anonime
Immagine:Spettro.gif  Fonte: http://it.wikipedia.org/w/index.php?title=File:Spettro.gif  Licenza: sconosciuto  Autori:: Utente:Adp
Immagine:CIE1931 rgxy.png  Fonte: http://it.wikipedia.org/w/index.php?title=File:CIE1931_rgxy.png  Licenza: Public Domain  Autori:: User:BenFrantzDale
Immagine:Cie.gif  Fonte: http://it.wikipedia.org/w/index.php?title=File:Cie.gif  Licenza: sconosciuto  Autori:: Utente:Adp
Immagine:Color temperature.svg  Fonte: http://it.wikipedia.org/w/index.php?title=File:Color_temperature.svg  Licenza: sconosciuto  Autori:: Hołek
Immagine:RGB.svg  Fonte: http://it.wikipedia.org/w/index.php?title=File:RGB.svg  Licenza: Public Domain  Autori:: User:Wiso
Immagine:AdditiveColorSynthesis_RGBpositives.jpg  Fonte: http://it.wikipedia.org/w/index.php?title=File:AdditiveColorSynthesis_RGBpositives.jpg  Licenza: sconosciuto  Autori::
User:Magica
Immagine:SubtractiveColorSynthesis_CMYK_2.jpg  Fonte: http://it.wikipedia.org/w/index.php?title=File:SubtractiveColorSynthesis_CMYK_2.jpg  Licenza: sconosciuto  Autori::
User:Magica
Immagine:CMY ideal version.svg  Fonte: http://it.wikipedia.org/w/index.php?title=File:CMY_ideal_version.svg  Licenza: Public Domain  Autori:: Terin
Image:HSV cylinder.png  Fonte: http://it.wikipedia.org/w/index.php?title=File:HSV_cylinder.png  Licenza: GNU Free Documentation License  Autori:: (3ucky(3all at en.wikipedia
Image:Color cones.png  Fonte: http://it.wikipedia.org/w/index.php?title=File:Color_cones.png  Licenza: GNU Free Documentation License  Autori:: Djiboun, WikipediaMaster, Wing
Immagine:Rgb-raster-image.png  Fonte: http://it.wikipedia.org/w/index.php?title=File:Rgb-raster-image.png  Licenza: sconosciuto  Autori:: Original uploader was Riumplus at en.wikipedia
Later versions were uploaded by Plethorapw, Guanaco, Branko, Kjoonlee at en.wikipedia.
File:Fil-Pixel-example-wiki.png  Fonte: http://it.wikipedia.org/w/index.php?title=File:Fil-Pixel-example-wiki.png  Licenza: logo  Autori:: Original uploader was BlueEel at da.wikipedia
Immagine:Vector Video Standards2.svg  Fonte: http://it.wikipedia.org/w/index.php?title=File:Vector_Video_Standards2.svg  Licenza: GNU Free Documentation License  Autori:: Original
uploader was XXV at en.wikipedia Later version(s) were uploaded by Jjalocha, Aihtdikh at en.wikipedia.
Immagine:tulipanoJPEG100.jpg  Fonte: http://it.wikipedia.org/w/index.php?title=File:TulipanoJPEG100.jpg  Licenza: sconosciuto  Autori:: Coyote83
Immagine:tulipanoJPEG90.jpg  Fonte: http://it.wikipedia.org/w/index.php?title=File:TulipanoJPEG90.jpg  Licenza: sconosciuto  Autori:: Coyote83
Immagine:tulipanoJPEG50.jpg  Fonte: http://it.wikipedia.org/w/index.php?title=File:TulipanoJPEG50.jpg  Licenza: sconosciuto  Autori:: Coyote83
Immagine:tulipanoJPEG10.jpg  Fonte: http://it.wikipedia.org/w/index.php?title=File:TulipanoJPEG10.jpg  Licenza: sconosciuto  Autori:: Coyote83
Immagine:Comparison of JPEG and PNG.png  Fonte: http://it.wikipedia.org/w/index.php?title=File:Comparison_of_JPEG_and_PNG.png  Licenza: sconosciuto  Autori:: , cropped by
Immagine:PNG transparency demonstration 1.png  Fonte: http://it.wikipedia.org/w/index.php?title=File:PNG_transparency_demonstration_1.png  Licenza: sconosciuto  Autori:: User:ed
g2s/Dice.pov, user:ed_g2s
Immagine:PNG transparency demonstration 2.png  Fonte: http://it.wikipedia.org/w/index.php?title=File:PNG_transparency_demonstration_2.png  Licenza: sconosciuto  Autori:: User:ed
g2s/Dice.pov, user:ed_g2s
Immagine:Matroska-logo-128x128.png  Fonte: http://it.wikipedia.org/w/index.php?title=File:Matroska-logo-128x128.png  Licenza: GNU General Public License  Autori:: Matroska project
Immagine:Torchlight_ogg.png  Fonte: http://it.wikipedia.org/w/index.php?title=File:Torchlight_ogg.png  Licenza: GNU Lesser General Public License  Autori:: Dake
Licenza 59

Licenza
Creative Commons Attribution-Share Alike 3.0 Unported
http:/ / creativecommons. org/ licenses/ by-sa/ 3. 0/