Sei sulla pagina 1di 99

CORSO DI FOTOGRAFIA

1° Livello

Tutor Fabio TITOTO


Lo scopo della fotografia è quello di
produrre immagini mediante l’utilizzo
della luce. Pellicola e sensore sono
due tipi di matrice.
L′avvicinarsi alla fotografia digitale
richiede un approfondimento di
nozioni tecniche da aggiungere a
quelle della fotografia tradizionale.
I concetti di base: composizione,
inquadratura, gestione della luce, i
parametri di misurazione (tempo
diaframma ISO), profondità di
campo, messa a fuoco ecc.
sono sempre gli stessi…
Conoscere le tecniche della fotografia tradizionale consente di
assimilare più velocemente quelle della fotografia digitale.
Essere “esperti di computer” non vuol dire essere
automaticamente anche esperti di fotografia digitale.
Correggere una cattiva composizione dell′immagine, il controllo
sbagliato della luce o un soggetto fuori fuoco, mediante i
software sofisticati che il mercato ci offre, non sempre può
essere possibile o immediato.
Bisogna prima acquisire le specifiche competenze.
Per un fotografo tradizionale, invece, entrare nel mondo digitale
significa imparare il linguaggio tecnologico dei computer,
comprendere le interfacce grafiche, conoscere ex-novo gli
strumenti elettronici che i software riproducono dai concetti
della CO e mettono a disposizione sul PC trasformando il
concetto di “elaborazione in camera chiara”.
LE CARATTERISTICHE
DELL′IMMAGINE DIGITALE

Volendo schematizzare al massimo, le


immagini digitali anziché formarsi su
un′emulsione chimica composta da tre
strati di alogenuro d′argento
sensibilizzati rispettivamente ad
ognuno dei tre colori fondamentali
(rosso, verde, blu),
si formano su di una singola griglia
piana (il sensore) costituita da una
serie di elementi fotosensibili chiamati
pixel (picture elements)
filtrati in modo da rispondere alla luce
rossa, verde, blu.
(RGB)
LE CARATTERISTICHE
DELL′IMMAGINE DIGITALE
Maggiore è il numero di pixel e maggiore sarà il numero di
colori assegnato ad ognuno di essi, tanto migliore sarà
l′immagine rappresentata in formato elettronico.

In termini digitali la griglia di


pixel produce un′immagine
″bitmap″ (mappa di bit) il cui
numero di colori rappresentabili
da ogni singolo pixel dipende
dal numero di bit dedicati alla
codifica (si chiama profondità
del colore e si esprime,
appunto, in bit/canale).
LE CARATTERISTICHE
DELL′IMMAGINE DIGITALE

Quindi un′immagine ″bitmap″ rappresenta esattamente


quanto “visto” dalla griglia durante l′esposizione, al pari di
quanto registra una pellicola.
LE CARATTERISTICHE
DELL′IMMAGINE DIGITALE
A differenza del metodo fotografico tradizionale, che prevede la
cattura della luce da parte di un′emulsione chimica stesa su un
supporto (la pellicola), le fotocamere digitali e le videocamere
utilizzano un dispositivo optoelettronico (sensore d’immagine)
ovvero un particolare dispositivo optoelettronico, di tipo CCD.
(il CMOS è scarsamente utilizzato)
LE CARATTERISTICHE
DELL′IMMAGINE DIGITALE
Questi sensori hanno dimensioni che partono da pochi
millimetri (telefoni cellulari) ed arrivano al formato della pellicola
35mm (DSLR FF) ed oltre. I sensori sono composti da diversi
milioni di microscopici componenti sensibili alla luce (fotodiodi).
Durante l’esposizione la luce che colpisce ogni pixel del
sensore viene trasformata in energia: la tensione emessa è
rigorosamente proporzionale all’intensità luminosa.
LE CARATTERISTICHE
DELL′IMMAGINE DIGITALE
In seguito, l’energia emessa da ogni singolo componente del
sensore viene trasferita ad un circuito che si occupa di
misurare le singole letture, convertirle in una serie di numeri e
memorizzarli su un apposito supporto (file raw).
LE CARATTERISTICHE DELL′IMMAGINE
DIGITALE

Questi numeri verranno poi utilizzati


dal computer per essere trasformati
nella immagine mostrata sullo
schermo del monitor o da inviare ad
una stampante.
L’OBIETTIVO

L’obiettivo è l’occhio della nostra fotocamera: la luce passa


attraverso le lenti e proietta la sua immagine sulla matrice
(pellicola o sensore) affinchè possa essere memorizzata,
elaborata, stampata, proiettata.

Ogni costruttore fornisce diversi obiettivi per le proprie


fotocamere, al fine di soddisfare le più svariate esigenze
tecniche, qualitative ed economiche della propria clientela.

Produttori indipendenti di obiettivi (compatibili o adattabili) ed


altri aggiuntivi ottici sono presenti sul mercato della fotografia.
L’OBIETTIVO
L’OBIETTIVO
Le lenti sono essenzialmente di due tipi:
- positive o convergenti (sono quelle che ci interessano fotograficamente)
- negative o divergenti (non le vediamo, ma ce ne sono alcune all’interno degli obiettivi)
Le lenti positive proiettano un’immagine reale mettendola a fuoco
su una superficie (convenzionalmente piana).
Le lenti negative proiettano un’immagine virtuale nello spazio.
Per semplicità parleremo sempre di un obiettivo come se fosse
idealmente riassunto in un’unica lente positiva.
(teoria delle lenti sottili)
L’OBIETTIVO

Le caratteristiche di una lente sono la lunghezza focale e la


luminosità relativa; nel caso di un obiettivo fotografico è
importante il cono di luce proiettato per garantire la copertura
luminosa omogenea della matrice.
Nei corpi digitali di ridotto spessore diventa importante la
telecentricità del cono di proiezione.
(teoria delle lenti spesse)
L’OBIETTIVO

La lunghezza focale esprime la distanza tra il piano mediano


della lente ed il piano di messa a fuoco di un soggetto posto
all’infinito.
(focale espressa in millimetri) (teoria delle lenti sottili)

La luminosità esprime il rapporto tra la focale ed il diametro


dell’area virtualmente interessata al passaggio della luce.
(apertura relativa espressa con un numero adimensionale f )
L’OBIETTIVO

La focale, in rapporto alle dimensioni del media, determina


l’angolo di campo ripreso e quindi l’ingrandimento relativo della
scena fotografata.
L’OBIETTIVO

Scegliendo la focale decidiamo la posizione del punto di


ripresa rispetto alla scena e indirettamente la profondità di
campo (insieme dei piani riprodotti sufficientemente a fuoco).
Modificando la luminosità tramite l’apertura del diaframma
possiamo intervenire contemporaneamente sull’esposizione
e sulla profondità di campo.
.
L’OTTURATORE

L’otturatore serve per controllare il tempo di esposizione.


Oggi sono tutti a lamelle metalliche con scorrimento verticale.

Otturatore a tendina Otturatore centrale


L’OTTURATORE
Un eccezionale filmato a 10.000fps ci mostra un otturatore
a tendina durante il funzionamento.
L’OTTURATORE

Tempi più brevi servono per congelare movimenti veloci e


necessitano di maggior quantità di luce per mantenere la
medesima esposizione. E viceversa.
Modificando il tempo di esposizione dobbiamo adeguare il
diaframma per mantenere costante l’esposizione.

Tempo più breve => diaframma più aperto = EV costante


L’OTTURATORE

Aumentando la velocità di otturazione (tempi più brevi) il


fotogramma non viene esposto interamente nello stesso
intervallo di tempo perchè l’otturatore crea una fessura che
scorre lungo il fotogramma: utilizzando il flash oltre un certo
tempo di otturazione è possibile un’errata esposizione.

Tempo inferiore a X (corretto)

Tempo superiore a X (sbagliato)


L’ESPOSIZIONE

Sensibilità, tempo di esposizione e diaframma


contribuiscono a determinare l’esposizione.
L’ESPOSIZIONE

A pari condizioni di ripresa possiamo gestire i tre parametri


che governano l’esposizione:

maggiore sensibilità = più grana(pellicola) / rumore(sensore),


colori meno saturi, meno contrasto (e viceversa)

tempi più brevi = diaframmi più aperti (e viceversa)

diaframmi più aperti = meno pdc (e viceversa)


L’ESPOSIZIONE

Per avere una matrice che registri correttamente le luminosità


presenti sulla scena occorre dosare opportunamente
l’esposizione, agendo sulla sensibilità ISO, sulla durata
(tempo esposizione) e sulla quantità (apertura di diaframma).

Data l’estrema variabilità delle possibili condizioni luminose,


quando non riusciamo a ricondurle a condizioni-tipo
conosciute ci viene in aiuto l’esposimetro.

Solitamente si usa quello interno della fotocamera, ma ne


esistono anche dei modelli esterni più completi (e complicati).
L’ESPOSIZIONE

L’esposimetro interno misura la luce riflessa dalla scena


attraverso l’obiettivo della fotocamera (TTL) ed è tarato sulla
luminosità media di una generica scena avente riflessione
complessiva del 18% e con la presenza di tutti i colori in
quantità circa uguali.
Nella realtà della singola scena questo succede molto
raramente, pertanto il fotografo deve saper valutare e
correggere le errate valutazioni dell’esposimetro.

Gli esposimetri esterni possono misurare la luce incidente


sulla scena, eliminando gli errori di misurazione dovuti alla
riflessione del soggetto.
L’ESPOSIZIONE

La riflessione può variare dal 5% di un comune nero sino al


90% di un comune bianco: questo significa uno scarto dal
riferimento degli esposimetri fino a 2,5stop in più con il nero
(errore in sovraesposizione) ovvero sino a 2,5stop in meno
con il bianco (errore in sottoesposizione).

È ovviamente possibile registrare molto di più di questo


intervallo luminoso:
• le pellicole negative a colori registrano circa 9stop
• le pellicole negative in BN registrano circa 10stop
• le pellicole positive a colori registrano al massimo 13,2stop
• i sensori digitali registrano circa 11stop
• la stampa fotografica può riprodurre al massimo 6,6stop
L’ESPOSIZIONE

Un’immagine troppo chiara o troppo scura manca di dettagli


agli estremi delle luminosità registrate.
L’ESPOSIZIONE

Possiamo variare ISO tempi e diaframmi a nostro piacere


purchè non si alteri la corretta esposizione.
In questo caso parleremo di valore luminoso o EV.

La situazione più comune e facile da ricordare è l’esposizione


in piena luce diurna, da due ore dopo l’alba a un’ora prima del
tramonto: questa luminosità corrisponde a EV15 e la corretta
esposizione si ottiene con diaframma su f16 e tempo pari a
1/sensibilità ISO (regola del 16).

f32 1/30
dimezzo quantità luce f22 1/60 raddoppio tempo esposizione
EV 15 f16 1/125 regola del 16
raddoppio quantità luce f11 1/250 dimezzo tempo esposizione
f8 1/500
L’ESPOSIZIONE

Ecco come l’esposimetro legge la luce nel campo inquadrato.


Ovviamente la risposta non cambia al variare della modalità di
funzionamento P Tv Av M o se usiamo il flash in TTL.
LA PROFONDITA’ DI CAMPO

La profondità di campo si estende


circa 1/3 davanti e circa 2/3 dietro
il piano di messa a fuoco.
LA PROFONDITA’ DI CAMPO

• La pdc aumenta chiudendo il diaframma, e viceversa.


LA PROFONDITA’ DI CAMPO

• La pdc aumenta con la distanza di maf, e viceversa.


LA PROFONDITA’ DI CAMPO

• La pdc aumenta riducendo la focale, e viceversa.


LA PROFONDITA’ DI CAMPO

La pdc diminuisce all’aumentare delle dimensioni fisiche del


media, e viceversa.

La pdc è invariata a pari diaframma e pari inquadratura con


focali diverse, sullo stesso media.

Nella macrofotografia si considera la pdc ugualmente estesa


tra prima e dopo il piano di maf.
La pdc è estremamente ridotta.
Ci vengono in aiuto procedimenti ereditati
dai microscopi elettronici.
(focus stacking)
LA PROFONDITA’ DI CAMPO
IL BOKEH

• Bokeh è un termine giapponese che definisce il mood dello


sfuocato o meglio “quello che non c’è”.
IL BOKEH

L’aspetto del bokeh dipende dallo schema ottico e dalla


correzione dell’aberrazione sferica.
La forma dei punti luminosi fuori fuoco rispecchia la forma
fisica del diaframma.
IL BOKEH

La forma del bokeh è influenzata da deficit progettuali.

Alcuni obiettivi, anche molto vecchi, sono ricercati


proprio per questi particolari bokeh.
IL BOKEH

...ma noi possiamo modificare il bokeh del nostro obiettivo...


IL BOKEH

• Gli obiettivi catadriottici hanno un bokeh caratteristico.


LA LUCE E L’ILLUMINAZIONE

La base della fotografia è senza dubbio la luce: la parola è


formata dalla fusione dei vocaboli greci phos=luce e
graphè=scrittura.
La luce visibile è solo una piccola parte dello spettro di
energia radiante emessa dal sole, come le onde radio, il
calore, gli ultravioletti, i raggi X, alfa, beta e gamma.
LA LUCE E L’ILLUMINAZIONE

Queste radiazioni si propagano dalla sorgente in tutte le


direzioni, alla velocità di 300.000km/s.

Fotograficamente dobbiamo imparare a conoscere e gestire


la luce nelle sua variabile natura.
Possiamo catalogare la luce in funzione della intensità, della
concentrazione, della direzione e del colore.

In condizioni di scarsa luminosità saremo costretti ad usare


tempi di esposizione relativamente lunghi (talvolta ricorrendo
all’uso del treppiede), grandi aperture di diaframma, alte
sensibilità della pellicola o del sensore.
LA LUCE E L’ILLUMINAZIONE

La luce può essere concentrata o “dura” se emessa da una


sorgente di piccole dimensioni: le ombre portate saranno
molto scure e con i bordi netti.
La luce può essere diffusa o “morbida” se emessa da una
sorgente di grandi dimensioni: le ombre portate saranno molto
chiare e con i bordi sfumati, sino a non essere più visibili.
LA LUCE E L’ILLUMINAZIONE

Che sia naturale o artificiale, può essere dura o morbida.

esempio luce naturale

esempio luce artificiale


LA LUCE E L’ILLUMINAZIONE

Che sia naturale o artificiale, può essere fredda o calda.

Il riferimento è al colore della luce


emessa da un corpo nero opaco
portato alla temperatura indicata
in K (gradi Kelvin).
LA LUCE E L’ILLUMINAZIONE

La luce è composta da colori principali e da colori secondari


rappresentati come opposti, secondo due tipi di sintesi.
La miscelazione di questi colori dà origine a tutte le tinte.

Sintesi addittiva: l’insieme dei colori (somma di luci) dà il bianco.


Sintesi sottrattiva: l’assenza dei colori (somma di assorbimenti) dà il nero.
LA LUCE E L’ILLUMINAZIONE

Per somma di luce i colori principali RGB hanno per colori


complementari YMC.
Esempi: sorgenti luminose, schermi TV, sensori digitali.
LA LUCE E L’ILLUMINAZIONE

Per somma di assorbimenti di luce i colori principali YMC


hanno per colori complementari RGB.
Esempi: pitture, inchiostri, pigmenti.
LA LUCE E L’ILLUMINAZIONE

Al contrario della vista umana, i materiali fotografici non si


adattano alla ripresa in luce colorata diversamente da quella
per cui sono costruiti o programmati.
Così si rende necessaria la sintonizzazione dell’equilibrio
cromatico della luce presente sulla scena con le
caratteristiche di registrazione della pellicola o sensore.

Il riferimento è il bianco: se riprodotto correttamente, di


conseguenza lo saranno tutti gli altri colori.
LA LUCE E L’ILLUMINAZIONE

Per riprodurre correttamente i colori è necessario tarare il


riferimento cromatico della pellicola o del sensore al colore
della luce preponderante che illumina la scena.
Diversamente i colori saranno riprodotti con tonalità troppo
calde o troppo fredde.
LA LUCE E L’ILLUMINAZIONE

Con la pellicola possiamo scegliere tra emulsione tarata per


ripresa in luce diurna 5500K oppure per ripresa in luce
artificiale 3400K.
Diversamente dobbiamo ricorrere agli specifici filtri convertitori
da montare sull’ottica, in fase di ripresa.
LA LUCE E L’ILLUMINAZIONE

Con la ripresa digitale possiamo eseguire il bilanciamento del


bianco anche su singola immagine, selezionando tra le
possibili situazioni predisposte nell’apposito menù.
LA LUCE E L’ILLUMINAZIONE

Purtroppo è possibile che alcune luci artificiali presentino uno


spettro di emissione irregolare.
In questi casi avremo una riproduzione falsata dei colori: più
chiari quelli ove ci sono picchi di emissione e viceversa.

Non è possibile correggere queste dominanti.


LA LUCE E L’ILLUMINAZIONE

La luce può provenire da una o più sorgenti luminose, più o


meno concentrate o diffuse, e quindi da una o più direzioni.

Nella visione di tutti i giorni vediamo il mondo illuminato dal


sole, unica sorgente di luce.

In realtà la luce emessa dal sole si diffonde nell’aria


colorandosi di azzurro (il rosso viene assorbito dall’umidità), si
riflette dalle nuvole (bianche) e da qualsiasi oggetto (colorato)
nelle vicinanze di ogni altro oggetto, dando origine ad una
forma di illuminazione piuttosto complessa.
LA LUCE E L’ILLUMINAZIONE

Fotograficamente consideriamo la presenza di una sorgente


di luce principale (quella che disegna le ombre) di una
sorgente secondaria o complementare (che rischiara le parti
in ombra) e di altre luci accessorie o di effetto che, se
presenti, enfatizzano dei particolari, delle aree o lo sfondo.

Al chiuso, volendo ricostruire un set di illuminazione per un


qualsiasi soggetto, non è necessario che siano presenti tutte
queste sorgenti luminose.
Ad esempio la luce principale può illuminare anche lo sfondo
che risulterà ovviamente meno luminoso del soggetto; oppure
se schermata, non illuminarlo affatto, facendolo apparire nero.
Potrebbe esserci una luce d’effetto che esalta un profilo, così
come una luce specifica per una parte dello sfondo.
LA LUCE E L’ILLUMINAZIONE

La luce principale può provenire frontalmente, lateralmente,


dall’alto o posteriormente al soggetto (condizioni presenti in natura)
oppure dal basso (condizione non presente in natura).
Le altri sorgenti eventualmente presenti sulla scena possono
provenire in qualsiasi combinazione.

La luce complementare proviene sempre in asse della


fotocamera per rischiarare le ombre e determina il contrasto
di illuminazione della scena, senza generare altre ombre.
LA LUCE E L’ILLUMINAZIONE

L’intensità delle varie sorgenti che illuminano la scena


saranno sempre rapportate alla luce principale, ma la luce
complementare determina il contrasto di illuminazione, che
può variare da basso (illuminazione poco contrastata,
differenza con la principale di -0,5stop) a molto alto
(illuminazione molto contrastata, differenza con la principale
di -5stop).

Conoscere e gestire il contrasto di illuminazione è importante


perchè ogni media ha dei precisi limiti di registrazione,
superando i quali si è costretti a sacrificare l’estremo luminoso
superiore (alteluci) o inferiore (ombre) già in fase di
acquisizione, e poi in stampa.
LA COMPOSIZIONE DELL’IMMAGINE

La corretta composizione di un’immagine serve per renderla


interessante, gradevole e facile da guardare.

Forme, colori, luci e ombre, piani a fuoco, proporzioni dei vari


elementi presenti nella scena ripresa devono guidare la vista
dell’osservatore verso il centro di interesse dell’immagine.

Il soggetto principale a sua volta deve esprimere e descrivere


chiaramente una situazione che si è congelata nel tempo di
uno scatto, un significato, un’emozione...

Costruita o spontanea, la scena ripresa deve attirare la


curiosità e l’attenzione dell’osservatore.
LA COMPOSIZIONE DELL’IMMAGINE

Alcuni semplici accorgimenti di ripresa possono rendere più


accattivanti, interessanti, equilibrate le nostre immagini.

L’occhio è attirato da andamenti coincidenti con le linee


immaginarie che dividono in tre parti la scena ripresa, o da
punti di attenzione disposti agli incroci di queste linee
immaginarie (regola dei terzi).
LA COMPOSIZIONE DELL’IMMAGINE
LA COMPOSIZIONE DELL’IMMAGINE

Un’altra disposizione “naturalmente” gradita alla vista è quella


della sezione aurea (1:1,6).

Entrambe le regole di composizione dell’immagine sono


ampiamente e diffusamente applicate nei grandi classici della
pittura e della scultura (Michelangelo, Bernini, Giotto, Canova, Klimt,
Picasso, VanGogh, Cimabue, Lisippo, Gaudì).
LA COMPOSIZIONE DELL’IMMAGINE
LA COMPOSIZIONE DELL’IMMAGINE

Le linee che guidano la vista dell’osservatore possono seguire


la forma di lettere quali A, C, H, L, M, O, S, T, U, V, Z.
LA COMPOSIZIONE DELL’IMMAGINE

La composizione “a bandiera giapponese” è ugualmente


interessante, ma da usare con moderazione.
LA COMPOSIZIONE DELL’IMMAGINE
LA COMPOSIZIONE DELL’IMMAGINE

Il soggetto potrà essere inserito in uno sfondo adeguato


oppure ripreso in primo piano come se fosse isolato dalla
realtà che lo circonda.

Il soggetto dovrà risaltare per nitidezza, forme, colori,


illuminazione, per la disposizione dei punti di attenzione sui
punti di intersezione o lungo le linee immaginarie che dividono
l’immagine (regola dei terzi, dei quinti, seziona aurea, lettere).

Nel BN, mancando l’apporto del colore, aumenta l’importanza


degli altri elementi di forza della composizione.
INTRODUZIONE AL DIGITALE

La pellicola è una matrice di registrazione ed archiviazione


fisico di tipo analogico.
Può essere del tipo negativo a colori o in BN, per stampe;
oppure positiva per dia e trasparenze.
INTRODUZIONE AL DIGITALE

È composta essenzialmente da un supporto in acetato sul


quale vengono stesi vari strati di gelatina sensibilizzata ai
colori. L’immagine latente acquisita con la ripresa necessita di
essere sviluppata chimicamente per esser resa visibile,
nonché fissata per rimanere inalterabile nel tempo.
INTRODUZIONE AL DIGITALE

“analogico” si riferisce ad una grandezza che presenta


continuità spaziale, temporale dei valori, in contrapposizione a
“digitale” che invece si riferisce ad una grandezza ch
possiede discontinuità spaziale, temporale e dei valori.

La pellicola può registrare un raggio di luce che cade in


qualsiasi punto della superficie in qualsiasi momento della
ripresa, la sua intensità viene acquisita senza soluzione di
continuità e ripartita fra i tre strati sensibili YMC.

Il sensore può registrare un raggio di luce che cade


esclusivamente sui siti fotosensibili solo nel momento in cui
sono abilitati all’acquisizione, la sua intensità viene registrata
con valori numerici discreti e ripartita tra i pixel RGGB.
INTRODUZIONE AL DIGITALE

La ripresa digitale è soggetta quindi a delle limitazioni a causa


della sua stessa natura.
Più pixel avremo per rappresentare la scena ripresa, più
dettagli saranno riprodotti (limitazione spaziale).
Più livelli saranno assegnati ai pixel RGB per descrivere
l’intensità luminosa, più fedelmente saranno riprodotti i colori
della scena ripresa (limitazione dei valori).
INTRODUZIONE AL DIGITALE

Il sensore è il mezzo di acquisizione digitale che converte la


luce (immagine) in un segnale elettrico.

I dati luminosi, raccolti dai fotositi sotto forma di segnali


elettrici, vengono trattati con determinati criteri di calcolo per
essere digitalizzati, quindi confluiscono nel file raw che sarà
salvato su un supporto di memoria, pronto per la fase
successiva di elaborazione.

Il file raw corrisponde al negativo impressionato ma non


ancora sviluppato, pertanto non è possibile vederne
direttamente l’immagine contenuta: serve lo specifico
software di conversione (o sviluppo).
INTRODUZIONE AL DIGITALE

Per colpire il sensore la luce attraversa prima il filtro per


l’infrarosso, poi il filtro anti alias, poi viene concentrata su ogni
pixel tramite delle microlenti opportunamente posizionate
sopra la matrice colorata secondo il pattern di Bayer (o altri)
ed infine arriva sulle superfici sensibili dei fotositi disposti sullo
strato di base che costituisce supporto e collegamento al
primo circuito elettrico della catena di acquisizione digitale.

Il sensore è quindi un trasduttore ottico-elettrico: trasforma un


segnale luminoso (=luce) in un segnale elettrico (=tensione).

È un componente estremamente lineare: il segnale elettrico in


uscita è sempre rigorosamente proporzionale al segnale
luminoso in ingresso.
INTRODUZIONE AL DIGITALE

sensore digitale rappresentazione degli strati

microlenti ingrandite 2000x schema della matrice di Bayer


INTRODUZIONE AL DIGITALE

Rappresentazione schematica dell’acquisizione luminosa di


un sensore con pixel filtrati RGB secondo il pattern di Bayer.
Il monitor funziona con lo stesso principio, ma “al contrario”.
INTRODUZIONE AL DIGITALE

L’immagine che noi vediamo viene registrata scomposta nelle


componenti di luminosità (BN) dei tre colori principali RGB.

luminosità canale rosso luminosità canale verde luminosità canale blu


INTRODUZIONE AL DIGITALE

Il segnale luminoso raccolto da ogni pixel viene convertito in


un segnale elettrico, amplificato e campionato per essere
rappresentato con un numero binario al quale viene applicata
la curva di gamma e poi la curva caratteristica di contrasto.
• curve di acquisizione

• lineare gamma 2,2

L’insieme di tutti i dati luminosi registrati dal sensore insieme


ad altre informazioni della fotocamera è raccolto nel file raw
memorizzato con un formato proprietario.
INTRODUZIONE AL DIGITALE

Il filtro AntiAlias riduce leggermente la nitidezza dell’immagine


evitando il fenomeno del moirè. esempio grafico semplificato

esempio reale ripresa con moirè


INTRODUZIONE AL DIGITALE

La nitidezza persa a causa del filtro AA si recupera


parzialmente con un artificio matematico, applicando
correttamente la maschera di contrasto sul file adattato allo
specifico dispositivo di output.
INTRODUZIONE AL DIGITALE

Per semplicità immaginiamo che l’output di un sensore a 10bit possa rappresentare


correttamente l’intervallo di luminosità pari a 10stop (esempio con acquisizione lineare).
SZ
rappresentazione binaria livello descrizione % stop

210 1111111111 1024 bianco assoluto, limite superiore di registrazione 100 10


29 0111111111 512 bianco con pochi dettagli 95 9
28 0011111111 256 bianco con dettagli 90 8
27 0001111111 128 grigio chiarissimo 72 7
26 0000111111 64 grigio chiaro 36 6
25 0000011111 32 grigio medio 18 5
24 0000001111 16 grigio scuro 9 4
23 0000000111 8 grigio molto scuro 4 3
22 0000000011 4 nero con dettagli 2 2
21 0000000001 2 nero con pochi dettagli 1 1
20 0000000000 0 nero assoluto, limite inferiore di registrazione 0 0

Questa semplice tabella ci fa capire l’importanza di gestire il contrasto di illuminazione


e della corretta esposizione (meglio seguire la regola ETTR).
I diaframmi corrispondono alle zone del SZ di A.Adam: la percezione dei chiaroscuri si gioca
tutta tra le zone 2 (limite dei toni scuri) e la zona 7 (limite dei toni chiari).
INTRODUZIONE AL DIGITALE

Attualmente si assegnano 10bit/ch ai sensori meno pregiati


(3-12Mpx di telefonini, fotocamere economiche), 12bit/ch ai
prodotti consumer (6-24Mpx di fotocamere in fascia basso e
medio prezzo) e 14bit/ch alle realizzazioni più costose (10-
100Mpx di fotocamere in fascia medio e alto prezzo).

con 10bit/ch possiamo rappresentare 1024 livelli per ognuno dei


tre colori principali. circa 1miliardo di colori riproducibili
con 12bit/ch possiamo rappresentare 4096 livelli per ognuno dei
tre colori principali. circa 68miliardi di colori riproducibili
con 14bit/ch possiamo rappresentare 16384 livelli per ognuno dei
tre colori principali. circa 4400miliardi di colori riproducibili
INTRODUZIONE AL DIGITALE

La maggior parte delle DSLR produce file raw a 12 o 14 bit/ch


che saranno sviluppati in file di tipo .psd a 8 o 16 bit/ch per
essere elaborati e convertiti in immagini di tipo .tiff (8, 16 o 32
bit/ch tipicamente non compresse) ma più spesso in immagini
di tipo .jpg (sempre compresse con perdita, 8bit/ch).
Quasi tutti i dispositivi di output (schermi, proiettori, stampanti)
lavorano a 8bit/ch con l’eccezione di pochissime stampanti
ink-jet di alta gamma che lavorano a 16bit/ch e qualche
schermo che lavora a 10bit/ch.
Il passaggio a 8bit/ch o peggio la compressione con perdita
dovrà essere l’ultima operazione da compiere appositamente
prima di passare il file sui vari dispositivi di output.
INTRODUZIONE AL DIGITALE

Nonostante la crescente precisione ed accuratezza che


tipicamente contraddistingue questo tipo di apparecchiature, i
materiali impiegati non sono perfettamente puri ed i circuiti
elettronici non sono totalmente esenti da rumore.
Nella pratica fotografica questo significa che non tutti i colori
possono essere acquisiti e l’immagine mostrerà sempre dei
disturbi, soprattutto ad alti ISO (segnale molto amplificato)
INTRODUZIONE AL DIGITALE

Da quanto espresso sinora è chiaro che le informazioni


raccolte dalla fotocamera (numero di Mpx) così come la
gamma di colori rappresentati (bit/ch) possono essere
eccessive per un proiettore, un monitor da computer o uno
schermo TV: questi dati devono essere adattati alle ridotte
capacità del dispositivo di output.
Al contrario, per una stampa di qualità o superiore a certe
dimensioni le informazioni raccolte dalla fotocamera (numero
dei Mpx) potrebbero essere insufficienti: questi dati devono
essere aumentati per soddisfare le esigenze dell’output.

Per le stampe fotochimiche sono sufficienti file a 8bit/ch e


solamente per qualche stampante inkjet di gamma alta si
possono teoricamente sfruttare 16 bit/ch.
INTRODUZIONE AL DIGITALE

Per vedere la scena ripresa contenuta nel file raw, al pari di


un negativo da sviluppare, dobbiamo utilizzare un programma
in grado di leggere i dati raccolti dal sensore, insieme a certe
informazioni della fotocamera, per convertirli in un’immagine:
per analogia con la pellicola, questa operazione equivale allo
sviluppo.
Tale attività spiega il neologismo di “camera chiara” in
contrapposizione alla camera oscura nella quale si sviluppava
la pellicola.
Adoperando un raw converter possiamo eseguire alcune
semplici operazioni per sviluppare la nostra immagine digitale,
che sarà finalmente pronta per essere salvata in un formato
idoneo a successiva elaborazione, visualizzazione o stampa.
Il file raw non viene mai alterato.
istogramma

gli strumenti base valori RGB e EXIF


le 8 pagine che racchiudono gli strumenti di sviluppo del raw

bilanciamento del bianco

esposizione

il riquadro anteprima si può restringere (vedi in alto a destra)

contrasto e saturazione

ingrandimento nome fotocamera e nome file immagine

salvataggio info opzioni


INTRODUZIONE AL DIGITALE

A seguire, vediamo le schermate fondamentali di Photoshop


CS6 (uguale a CC e successive versioni) dalle quali si
gestiscono le operazioni fotografiche via software (camera
chiara) con nomi ed azioni totalmente corrispondenti a quanto
è possibile fare con la pellicola (camera oscura).
INTRODUZIONE AL DIGITALE

Una volta compiute operazioni di elaborazione sull’immagine,


per motivi tecnici o necessità creative, salviamo il file così
modificato.

L’insieme di queste operazioni si chiama editing (modifica) o


post produzione perchè -appunto- sono eseguite dopo la
produzione dell’immagine (sviluppo del raw).

Per inviare l’immagine ad uno schermo o ad un proiettore così


come ad una stampante dovremo adattare il file al dispositivo,
e salvarlo nuovamente con i nuovi parametri necessari allo
specifico uso (grandezza, profondità colore).
L’OUTPUT ovvero preparare il file per l’uso

I nostri file, una volta elaborati, finiscono in vari dispositivi di


output per i quali è necessario ottimizzare lo spazio colore, la
profondità colore, le dimensioni e la densità di pixel e talvolta
la compressione.
Il formato quasi universalmente accettato è il jpg.

Facebook = 960px lato lungo, 72dpi, sRGB, 8bit/ch.

Proiettori o monitor video = risoluzione massima del


dispositivo, 72…98dpi, sRGB, 8bit/ch.

Schermi HD = 1920x1080px, 72dpi, sRGB, 8bit/ch.


L’OUTPUT ovvero preparare il file per l’uso

Stampa: in funzione delle dimensioni e del dispositivo che


esegue materialmente la stampa.
Tenendo presente che le varie macchine stampano a 200-
240-250-300-320-350-400dpi, il file potrà avere una
grandezza diversa in funzione della densità di pixel richiesta
(200dpi minimo sufficiente, 300dpi buono, 400dpi eccellente).

Per una stampa 10x15cm sono sufficienti 1000x1500px @200dpi


sRGB 8bit/ch sino ad un massimo di 1600x2400px @400dpi.
Per una stampa 20x30cm sono sufficienti 1600x3200px@200dpi
sino ad un massimo di 3200x4800px @400dpi.

Come ultimo salvataggio, separatamente, conviene applicare la


corretta USM per ogni dispositivo di output.
IL FLASH portatile

Oltre a gestire la luce continua, potremmo avere necessità di


gestire la luce del flash elettronico.
Un dispositivo comodo, piccolo e facilmente portatile, pratico,
che è capace di un’emissione luminosa breve ma molto
potente, capace di congelare ogni movimento del soggetto.
L’aspetto negativo è la sorgente di emissione molto piccola
che produce una luce molto contrastata con ombre nette e
profonde, l’attesa per la ricarica ed il consumo delle batterie.

Una volta superata l’euforia del possesso di una sorgente


luminosa portatile, subentra una certa diffidenza per l’utilizzo,
dovuta alla mancata comprensione di come va dosata la luce
emessa ed alla relativa incertezza della direzione (mancato
controllo delle ombre portate).
IL FLASH portatile

Per la corretta esposizione si riconduce tutto alla conoscenza


del numero guida (NG).

Il NG indica il diaframma da usare ad un metro di distanza per


una certa sensibilità ISO; in presenza di una parabola zoom è
riferito ad una precisa focale ovvero angolo di copertura.
Maggiore il NG, maggiore è la potenza del flash.

Il flash incorporato ha un NG da 10 a 14; quelli esterni a slitta


(chiamati anche cobra o speedlite) hanno un NG da 22 a 60;
quelli a torcia, più professionali, possono arrivare anche a
NG80; i modelli da studio possono arrivare a 120.
IL FLASH portatile

Raddoppiando gli ISO il NG va moltiplicato per 1,4.


(ricordate la scala dei diaframmi?)

La parabola zoom generalmente è variabile da 24 a 100mm, il


NG spazia di 3 diaframmi dalla minima alla massima focale
coperta dalla parabola zoom:
un NG 60 @100mm diventa NG 22 @24mm

NG diviso la distanza flash/soggetto indica il diaframma da


utilizzare sulla fotocamera per ottenere la corretta
esposizione.
IL FLASH portatile

Questo perchè l’emissione luminosa di una sorgente molto


piccola decade in maniera quadratica inversa in funzione
della distanza.
IL FLASH portatile

Ricordiamo di usare un tempo di esposizione uguale o


inferiore al sincro per evitare l’ombra della tendina sul
fotogramma.

Il bilanciamento della luce flash con la luce ambiente


eventualmente presente sarà gestito essenzialmente con il
tempo di esposizione, in quanto il diaframma regola
l’esposizione della luce flash.
Occorre prestare attenzione che la luce ambiente non sia
quantitativamente prossima all’emissione flash altrimenti
avremo delle doppie ombre oppure un’immagine fantasma
delle parti in movimento illuminate dal flash.
Inoltre è opportuno evitare di mischiare la luce flash con altre
sorgenti luminose aventi diversa TdC.

Potrebbero piacerti anche