Sei sulla pagina 1di 4

Differenze tra analogico e digitale

Sappiamo molto bene come, negli ultimi anni, la fotografia analogica sia quasi del tutto scomparsa a causa
dell’avvento del digitale. I fattori relativi a tele cambiamento sono molteplici ma soprattutto l'avanzamento
della tecnologia ha portato, come sempre accade, alla sostituzione di mezzi più facili da utilizzare per
accontentare un maggior numero (e diverse tipologie) di consumatori Cominciamo però da un breve ripasso
su come funziona il processo fotografico, che sia esso analogico o digitale.
Il procedimento fotografico analogico utilizza delle superfici plastiche rivestite di composti d’argento
sensibili alla luce, chiamati alogenuri d’argento, per la memorizzazione delle immagini. Questo sistema di
memorizzazione è in uso da oltre cento anni e, nonostante l’arrivo dell’era digitale, difficilmente scomparirà
del tutto, anche se magari verrà relegata ad un settore di nicchia. Il digitale, o meglio la cattura e
memorizzazione delle immagini su supporti digitali, non è molto dissimile da quanto accade nel processo
analogico.
Quando una quantità di luce viene assorbita dai cristalli di alogenuro d’argento, su questi si viene a formare
un’immagine latente (invisibile). Quest’immagine è successivamente resa visibile dal processo di
comunemente sviluppo che converte i cristalli di alogenuro in argento metallico lasciando i cristalli non
esposti praticamente inalterati. Il processo è completato da una fase di fissaggio che dissolve i cristalli non
colpiti dalla luce (e quindi non sviluppati) rimuovendoli del tutto dalla superficie della pellicola.
Una fotocamera digitale è una macchina fotografica che utilizza, al posto della pellicola fotosensibile, un
sensore ( CCD o CMOS) in grado di catturare l'immagine e trasformarla in un segnale elettrico di tipo
analogico.
In pratica il sensore, nelle fotocamere digitali svolge la stessa funzione che, nelle macchine fotografiche
tradizionali, svolgeva la pellicola.

Cos'è un sensore?

Il sensore è di fatto un convertitore analogico/digitale che trasforma la luce in segnali elettrici. Di


sensori ce ne sono vari tipi, ed ognuno ha le sue caratteristiche, ma semplificando per ogni
“puntino” della nostra foto (pixel), entrano in azione tre fotodiodi, ognuno dei quali è sensibile ad
un colore primario (rosso, verde o blu). La fusione di queste informazioni, genererà la sfumatura di
colore attesa per quel pixel (recentemente si trovano anche sensori sensibili al giallo).
La posizione e la grandezza di questi pixel, determina la qualità generale del sensore.

Un fotodìodo è un dispositivo sensibile alla luce, che quando intercetta una determinata lunghezza
d'onda (quella della luce, appunto), genera una carica elettrica.
I fotodiodi, noti come pixel, sono di dimensione piccolissima (siamo nell’ordine dei micron). Ogni
fotodiodo, come detto in precedenza, genera un segnale elettrico proporzionale alla luce che lo colpisce:
leggendo tutti questi segnali elettrici è quindi possibile ricostruire l’immagine finale.
L'immagine ricostruita dai fotodiodi è pero' in scala di grigi (ricordate le tv in bianco e nero?).
Per risolvere questo problema, alla matrice di fotodiodi viene sovrapposta un’identica matrice di filtri
colorati: Rosso (red), verde (green) e blu (bleu) (vi dice nulla la sigla RGB?).
La matrice di filtri segue uno schema ben preciso, inventato da Bryce Bayer e chiamata Bayer Pattern .
Il numero di pixel dotati di filtro verde (G) è doppio rispetto ai pixel rossi (R) o blu (B), nalla proporzione
50% verde, 25% rosso, 25% blu: questo è voluto sia per ridurre il disturbo digitale, sia perché l’occhio
umano ha una sensibilità maggiore al verde rispetto al rosso e al blu.

Partendo dai tre segnali è possibile, per il processore della macchina fotografica, ricostruire l’immagine
finale e quindi permetterci di osservare anche i colori.

Quando la raccolta della luce è terminata (il tempo che definiamo tramite l’otturatore), il valore memorizzato
nel fotodiodo viene analizzato dal processore che effettua la “demosaicizzazione” (demosaicing): in pratica
il processore analizza i pixel in gruppi di 2×2 (2 verdi + 1 rosso + 1 blu) e interpola i valori letti al fine di
ottenere il valore equivalente al colore che l’occhio umano percepisce.
Tipi di sensore

Sul mercato, esistano due tipologie di sensori: CCD (Charge-Coupled Device) o CMOS (Complementary
Metal-Oxide-Semiconductor).
Il primo sensore ad essere stato creato è quello CCD, più facilmente realizzabile:Willard Boyle e George
Smith lo realizzarono nel lontano 1969.
Nei CCD la carica elettrica immagazzinata dai singoli fotodiodi viene trasferita, accumulandosi man mano
lungo le file di fotodiodi, fino ai bordi del sensore, dove poi viene amplificata ed infine convertita in un
segnale digitale (da un apposito ADC, Analog-to-Digital Converter). In pratica la carica elettrica viene letta
una riga alla volta, e poi il parziale (di ogni riga) viene riportato alla riga successiva e così via, in sequenza,
fino a coprire l’intero sensore. In un sensore CCD, dunque, viene trasportata della carica elettrica.
I sensori fabbricati con un processo di tipo CMOS, invece, lavorano diversamente: ogni fotodiodo dispone di
un amplificatore e di un convertitore e quindi la carica elettrica accumulata viene convertita in differenza di
potenziale, il cui trasporto richiede molta meno energia. Il consumo energetico è di 1/100 rispetto al quello
necessario ad un CCD.
I CCD sono prodotti con processi industriali più complessi rispetto ai CMOS e mostrano una migliore
sensibilità alle luci basse, mentre in presenza di luci alte tendono a generare artefatti. I CCD generano
comunque meno disturbi (rumore) rispetto ai CMOS.
I CMOS, dal momento che la tecnologia richiesta è più semplice, sono più economici: le versioni più recenti
si avvicinano alle prestazioni dei CCD e consentono di essere maggiormente miniaturizzati.

C'è da dire che con il passare del tempo e l’avanzamento della tecnologia, i centri di ricerca delle grandi
compagnie hanno continuato a migliorare in parallelo le due tecnologie: per i CMOS hanno puntato sulla
qualità dell’immagine, per i CCD sul contenimento dei consumi. Il risultato finale è che, al momento, i due
sensori sono equiparabili e utilizzabili senza alcuna differenza su tutte le macchine.

Ma vediamo più da vicino quali sono le differenze tra le due tecnologie.

Il consumo:come accennato in precedenza, il CMOS, proprio in virtù del suo schema realizzativo, ha un
costo energetico inferiore rispetto ad un equivalente CCD. Gli elementi che lo compongono compiono
movimenti singoli (per ogni fotodiodo) mentre nel CCD la carica elettrica viene letta per file (una riga alla
volta)

Illuminazione: nei casi di illuminazione scarsa, Il CCD ha prestazioni migliori: l’amplificazione del segnale
viene effettuata su tutti i segnali nello stesso momento mentre nel CMOS ogni segnale generato dal
fotodiodo viene amplificato singolarmente. Ne deriva una maggiore precisione ed armonizzazione del
risultato e quindi una foto con un po’ meno rumore nel caso del CCD.

Velocità di scatto: Vincono decisamente i sensori CMOS. Essi sono più veloci e permettono raffiche di foto
più veloci. I sensori CCD hanno il problema di dover trasferire tutti i dati collezionati dai singoli pixel verso
il convertitore in modo da essere pronti a catturare una nuova immagine.

Artefatti luminosi: in alcuni casi può accadere che da una fonte molto luminosa si generi un’intera colonna di
pixel bianca. Questo effetto è tipico del CCD e no è presente nei CMOS (dove tra i vari fotositi vi è una
maggiore demarcazione dovuta alla presenza di altra elettronica).

Differenza di prezzo: I sensori CCD, proprio in virtù della loro complessità costruttiva hanno un prezzo più
elevato rispetto ai CMOS.

n generale i sensori CMOS hanno due limiti: il rumore e la sensibilità. Poiché c’è un amplificatore per ogni
fotodiodo,basta una minima disuniformità nel funzionamento di uno o più di questi amplificatori per
generare pixel irregolari e/o disturbati: di qui la maggiore tendenza al rumore, per minimizzare la quale
naturalmente esistono vari sistemi sui quali non ci dilunghiamo. Inoltre, proprio la maggiore presenza di
circuiti sul sensore genera più rumore rispetto ad un CCD (il disturbo - rumore accompagna sempre ogni
componente elettronico). Quanto alla sensibilità, sempre perché i sensori CMOS ospitano più circuiti
(rispetto ai CCD), ne deriva che una parte della loro superficie non è destinata alla raccolta di luce, ma
appunto ad ospitare tali circuiti; a questo si può ovviare adottando delle microlenti e naturalmente il
miglioramento dei processi produttivi consente di fabbricare circuiteria sempre più piccola (e quindi di
sprecare meno spazio sul sensore).

Insomma, la verità è che non esiste una tecnologia intrinsecamente superiore all’altra, perché il risultato
finale dipende da come questa viene sviluppata.

Dimensioni del sensore


Il sensore è il cuore della macchina fotografica ed è diverso, da modello a modello, sia per tecnologia
impiegata sia per dimensioni. E proprio la dimensione del sensore è un parametro fondamentale quando si
valuta un apparecchio fotografico in quanto incide direttamente su tantissime cose come la profondità di
campo, la quantità di rumore, lunghezza focale, delle lenti e dimensioni delle stesse.

In generale i sensori più grandi sono migliori rispetto a quelli più piccoli, ma in determinate condizioni
realizzano delle ottime immagini. Tutto dipenderà da quello che noi cerchiamo nello scatto. Anche perché i
sensori fotografici sono migliorati molto negli ultimi tempi, permettendo all’utente di avere ancora più scelte
in base alle proprie esigenze. Prima di elencare i vari tipi di sensori è fondamentale parlare del rapporto tra
questi e la lunghezza focale. La dimensione del sensore in una telecamera ha un effetto diretto sul tipo di
lenti che possono essere utilizzate. Con una fotocamera compatta la lente è integrata nel corpo macchina e
quindi il problema non sussiste. Nascono le problematiche con le fotocamere con obiettivi intercambiali. In
questo caso, infatti, qualsiasi obiettivo utilizzato deve essere in grado di avere un cerchio di immagine (il
diametro della luce che esce dalla lente) che può coprire sufficientemente le dimensioni del sensore. Per
questo motivo, i produttori spesso forniscono una lunghezza focale detta “equivalente”, che utilizza il
sensore full-frame come punto di riferimento, per rendere le cose più facile da comprendere.

I megapixel non servono a niente se il sensore è piccolo, ma purtroppo quasi nessuno ha realmente idea di
quali siano le dimensioni effettive di un sensore. Ecco una guida che spiega tutto.

Quando si deve scegliere una fotocamera o uno smartphone i megapixel del sensore sono sempre un valore
che si guarda con una certa attenzione. Fortunatamente ormai quasi tutti hanno capito che non sempre un
sensore con tanti megapixel vuol dire qualità più elevata, e che spesso la dimensione del sensore è uno dei
parametri più importanti da guardare.

Non a caso le fotocamere full frame, con il loro sensore gigante da 36 x 24 mm, sono quelle che garantiscono
non solo una qualità migliore ma anche un minor rumore sulle basse luci, proprio perché ad un sensore
grosso corrispondono anche pixel più grandi.
Il sensore infatti è composto da milioni di pixel, e ogni pixel è composto da una microlente e da un elemento
elettrico che trasforma la luce in segnale digitale: più grande è il pixel più grande è la luce che cattura, con
una resa quindi più accurata e con un rumore minore. Ecco perché sensori minuscoli da 8 megapixel scattano
foto, soprattutto con poca luce, decisamente peggiori di fotografie scattate da sensori da 4 megapixel molto
più grossi.
La dimensione del sensore è quindi il parametro fondamentale da guardare quando si acquista una
fotocamera o un dispositivo che scatta foto: difficilmente sensori piccoli come un unghia daranno risultati
accettabili, mentre grossi sensori anche se con meno megapixel potranno dare grosse soddisfazioni.

Nascita della prima camera digitale


Nascita di photoshop

Potrebbero piacerti anche