Sei sulla pagina 1di 34

Accademia di Belle Arti di Verona

Corso di Fotografia a.a. 2020-


2021

Relazione Finale a cura di Anna Covazzi,


Scenografia

Con l’avvento del digitale è possibile superare i sistemi macchinosi


richiesti dalle pellicole e dal loro sviluppo, riducendo la catena di
produzione a un gruppo di professionisti ristretto.
Guardando all’analogico possiamo notare come le pellicole si
potessero suddividere in una vasta gamma di formati e materiali, che
richiedono una attenzione diversa a seconda della scelta compiuta.
Siccome i formati erano fra i più variegati era importante che la
“emulsione” della pellicola, ovvero il genere di materiale fotosensibile
applicato sulla stessa, fosse costante per una stessa serie di fotografie,
infatti questa determinava la tonalità della foto, il tempo di sviluppo e
molto altro. Di una certa rivelanza risultano i rullini in formato 24x36,
che tutt’ora risultano come formato di riferimento anche nel campo
del digitale. Invece le pellicole Polaroid 4x5 avevano lo scopo di
fungere da negativo e da primo primitvo tentativo di composizione
della foto, dove si poteva constatare la varietà cromatica a discapito
delle proporzioni che variavano rispetto al quelle delle pellicole finali.
Un aspetto importante di cui tener conto nell’approciare la fotografia
analogica è il difetto di reciprocità che intacca qualsiasi genere di
emulsione. Questo problema riguarda qualsiasi tipo di pellicola nel
meomento in cui si sfora il tempo “normale” di utilizzo. Il difetto si
presenta nel momento in cui la pellicola viene esposta per troppo
tempo alla luce, adatta al suo sviluppo, rendendo questa di
conseguenza sottoesposta. Possibile è correggere il difetto attraverso
dei filtri di compensazione, nel caso in il difetto di reciprocità sia
lieve.
All’interno di un laboratorio fotografico vi era
uno sviluppatore di fotolaboratorio, macchinario
ora molto raro, che consisteva in una armadio a
tenuta di luce, dove venivano caricate al buio le
pellicole all’interno di vani, per poi procedere
con lo sviluppo. La precisone del processo
veniva data dallo “strip”, che aveva lo scopo di
registrare i valori del liquido all’interno dei
vani, attraverso il “densitometro” si leggevano poi i dati raccolti dalle
strisce. Altro strumento utile al mestiere era il “termocolorimetro”,
che aveva lo scopo di misurare la temperatura del colore
confrontandola con le regioni estreme dello stesso, il rosso e il blu.
Il contrasto è la gamma di tonalità che una pellicola riesce a mostrare,
e dipendendo dalla sensibilità della stessa, comporta la scelta di
pellicole molto sensibili e quindi più delicate nell’utilizzo. Quando
invece una pellicola dimostra di poter esser perfomante anche in
momenti di non ottimale utilizzo, magari con esposizioni maggiori o
minori di quelle dovute, dimostra una grande “latitudine di posa”.
Si è parlato inoltre dell’HDRI, high dynamic range imaging, una
tecnica utilizzata nella computer grafica in cui l’intervallo dinamico
all’interno di una immagne sia più ampio del solito, rendendo le foto
più vivide. La tecnica si basa sulla composizione dell’immagine
attraverso una serie di scatti a diverse esposizioni, eliminando quelle
aree che sarebbero più scure o più chiare e ridurebbero la possibilità di
dettaglio della foto.

Lo scatto remoto è una agevolazione


dell’era digitale, che permette al
fotografo di monitorare la macchina
fotografica e l’inquadratura anche in
momenti in cui raggiungerla non è
agevole.

La luce pennellata è una tecnica che permette anche in condizioni di


luminosità difficoltosa, mettiamo di oggetti dietro a una vetrata, di
poter spalmare l’illuminazione sul soggetto in modo uniforme e
chiara.
È necessario che un computer sia veloce, bisogna quindi investire
sull’apparecchio con la maggior quantità di RAM tra quelli a
disposizione. Il monitor deve essere grande, per facilitare la nostra
visualizzazione dell’elaborato, e in genere bisogna scegliere sempre
un computer che superi le nostre attuali esigenze.

Per quanto riguarda i componenti hardware è importante prestare


attenzione ad alcuni in particolare:
La CPU, è il processore del nostro computer, che ha la funzione di
calcolare, se la CPU è potente allora la velocità di calcolo sarà elevata
quindi i task compiuti dal nostro computer più fluidi.
Il BUS, collega la CPU alla RAM, è chiaro che più bus sono presenti
su un dispositivo più informazioni, contenute nella RAM possono
raggiungere la CPU e essere elaborate.
La RAM è una delle memorie che compongono i nostri computer,
composta di banchi di memoria, ha lo scopo di memorizzare i calcoli
che saranno poi da trasmettere alla CPU.
Lo spazio sulla Unità Disco, di cui un computer in genere ne contiene
più di una, funge da magazzino per i dati, che in genere hanno un peso
elevato e bisogno di meno velocità di elaborazione rispetto a una
scheda RAM. Delle unità a disco fa parte anche il Disco di Scratch,
che contiene momentaneamente le informazioni utilizzate da un
programma nel momento in cui la RAM è totalmente occupata.

Il sistema RAID invece è un insieme di


unità configurate insieme per fornire una
maggiore prestazione del computer e un
vantaggio riguardo la rindondanza dati. Vi
sono dispositivi di diverso livello ed
efficienza:

RAID-0 inserisce i dati su due dischi evitando la rindondanza di dati,


gestisce inoltre i file in scritture e letture due volte più velocemente,
trattando due unità di memoria, attraverso i cluster ovvero dei
raggruppamenti logici di settori contigui in un disco rigido, come se
fossero una, in un processo chiamato striping.
Il RAID-5 invece richiede almeno tre unità di memoria, aggiungendo
la rindondanza che permette il recupero di dati che possono andar
persi nel guasto di una unità.

Vi sono due principali tipo di monitor: Analogico, ora in disuso, che


funzionavano a tubo catodico, simili alle antiche tv, e digitali che a
loro volta si suddividono in due tipologie.

I monitor digitali LCD, che funzionano attraverso le proprietà ottiche


dei cristalli liquidi. Questo materiale di per sè non emette luce ma
funge da filtro, per questa ragione vi sono due tipologie di
illuminazione dei filtri: per trasmissione o riflessione.
I primi sono schermi retro illuminati, che i cristalli liquidi trasmettono
e filtrano attraverso la tonalità cromatica richiesta.

I monitor digitali LED invece, sono composti dal suddetto materiale,


che emette luce nel momento in cui viene a contatto con un segnale
elettrico. I pannelli nei due casi sono differenti dunque perchè il
pannello LED trasmette direttamente luce, è suddiviso in pixel, a loro
volta suddivisi in tre subpixel dei colori primari.

La luminanza e il contrasto di uno schermo sono solo alcuni degli


aspetti che rendono un monitor più o meno valido, a questi si
aggiungono il gamut, ovvero la varietà di colori che un monitor può
mostrare, l’uniformità della rappresentazione di grigi, i tempi di
risposta ai segnali e la resa cromatica.

Diversi sono inoltre i sistemi di backup dei file, che possono essere
“in linea” quando i file a cui vogliamo accedere devono essere sempre
disponibili, oppure “quasi in linea” se il file sono risposti in hard disk
esterni facilemente raggiungibili, oppure ancora “non in linea” nel
momento in cui sono stati riposti in doppia copia su hard disk e e-data,
come quando si tratta di lavori ormai terminati.
I file devono inoltre essere formattati per poter essere supportati sia da
dispositivi mac che pc, in quanto non possiamo sapere quale computer
utiliza il nostro cliente o un nostro collaboratore. Nel caso in cui il file
non superi i 4gb va formattato in FAT-32, in caso contrario va
utilizzato ex_FAT-32.

Nell’ambito digitale anche i colori, che sono aspetti relativi della


realtà sensibile, devono corrispondere a dei valori indiscutibili, difatti
questi corrispondono a tre serie di numeri,corrispondenti ai tre canali
della gamma RGB. Questa classificazione viene denominata “profilo
colore” che può essere predisposto facilmente su un monitor con il
colorimetro o attraverso un softeware di misurazione.
Nel processo di utilizzo del colorimetro
questo va collegato al pc attraverso un ca
USB, avviato il
software si procede
con la calibrazione,
che porta il possessore del computere a poter scegliere
consapevolmente i valori con cui andrà a lavorare e con cui potrà poi
allineare i pc dei suoi clienti per una corretta configurazione
dell’immagine. Il monitor procederà poi a inviare dei campioni di
colore che saranno più o meno corretti rispetto ai valori impostati.
Questo processo di confronto e correzione del colore si chiama
caratterizzazione del monitor. Si viene quindi a creare il profilo colore
ICC, una tabella in sui sono segnati e catalogati tutti i valori,
definendo quindi delle curve su cui la scheda grafica si può basare per
bilanciare i colori da visualizzare, in una fase detta profilazione.

Salvando un file in formato RAW otteniamo delle immagini con


estensioni atte al software della macchina fotografica, che varia da una
marca all’altra. Ogni produttore offre un software pecifico per potere
leggere i seguenti file, anche se esistono dei raw converter universali
capaci di leggere qualsiasi formato. Siccome questi possono essere
letti e interpretati ma non modificati, i software utilizzano dei file
collaterali, detti metadati, di cui varia solamente l’estensione,
ovvero .xml .
Il primo metadato è chiamato EXIF, exchangable image file format,
creato dalla fotocamera non permette la modificazione dell’immagine.
Il secondo tipo di metadato è relativo all’esposizione, e viene salvato
nel formato XMP, extensible matedata plaiform, che si occupano del
copyright, della didascalia e della geolocalizzazione.

Nei file JPEG e TIFF i metadati hanno uno spazio apposito nel file e
lo accompagnano in ogni modifica o copiatura. I metadati di per sè
sono utili per ricostruire i dati tecnici della immagine, consentono
anche una gestione razionale dei file in archiviazione che attraverso
parole chiave permette anche la ricerca mirata da parte degli
acquirenti.

Differenti sono i modelli di macchine


fotografiche a disposizione, la più semplice e
alla portata di tutti e la macchina fotografica compatta e punta e scatta.
Contengono in genere un sensore APS e obbiettivi non cambiabili di
piccole dimensioni, rendendo la qualità dello scatto inferiore a quella
delle macchine fotografiche di maggiore complessità.
Simili alle loro controparti analogiche sono
le macchine DSLR, digital single-lens
reflex, molte di queste derivano
direttamente dai modelli a pellicola e vi
differiscono in minima parte, si
differenziano in una gamma ampia di
modelli adatti a ogni genere di utente.
Spostandoci invece su un uso prevalentemente professionale ci si
affaccia alle fotocamere di medio e grande formato, diffusesi prima
nella fotografia a pellicola, da cui deriva prettamente il nome date le
misure dei fogli che si andavano ad utilizzare. Parlando di medio
formato si andava a scegliere pellicole di 6x6 cm,
mentre per il grande formato si utilizzavano pellicole
piane da 4x5’ o 10x8’, che corrispondevano
ovviamente ad apparecchi di dimensioni
ragguardevoli.
I dorsi digitali posti al posto dei rulli delle pellicole in genere hanno
sensori grandi 44x33 mm o 54x40 mm con
risuluzione che arriva anche a 80 mega pixel. Il
sensore dunque stabilisce la dimensione del formato
e non la qualità dell’immagine che ne risulta.
Parlando invece delle fotocamere di grande formato
ci si affida a modelli quali gli apparecchi a lastre usati da Louis
Daguerre, dove la macchina era composta da due scatole, in cui una
scorreva all’interno dell’altra per compiere la messa a fuoco, e un
obbiettivo sia da una parte che dall’altra della lastra sensibile.
L’obiettivo, che è dotato di un otturatore centrale, è posto su una
piastra mobile di raccordo che lo fissa nel lato frontale della macchina,
è semplice quindi sostituire l’obbiettivo con uno di diversa lunghezza
focale posizionato su un’altra piastra. La parte frontale della macchina
è collegata la dorso del soffietto, permetto una grande distanza
dell’obbiettivo dalla pellicola, mentre un vetro smerigliato posto sul
dorso compie il ruolo da mirino e mostra una imagine capovolta di ciò
che andremo a fotografare.
Due sono i principali tipi di macchine a soffietto: a banco ottico, dove
il frontale e il dorso, dette standarte, sono completamente
indipendenti, unite solo dal soffietto e scorrono su dei binari fissati al
cavalletto. Invece la macchina a cassa rigida è composta da un corpo a
cassetta con la parte frontale ribaltabile, aprendo questa è possibile
estrarre l’obbiettivo che è collegato al dorso del soffietto. La messa a
fuoco avviene attraverso la rotazione di una manopola che fa
retrocedere o meno la piastra porta obbiettivo.

Con questo tipo di apparecchio è necessario coprire il capo del


fotografo e la macchina con un panno nero nel momento della messa a
fuoco in modo che l’immagine sia chiaramente visibile sul vetro.
Le fotocamere Reflex bioculari traggono
origine dalle più antiche camere oscure
utilizzate per ricalcare i soggetti a matita.
Attraverso uno specchio inclinato di
quarantacinque gradi l’immagine viene
riflessa verso l’alto su una superfice
orrizontale. Non appena scoperta questa tecnica fu posta al di sopra
delle macchine a banco ottico come forma primitiva di mirino, la
combinazione venne chiamata reflex bioculare o TLR.

Attualmente tutte le macchine fotografiche in commercio hanno uno


schermo a cristalli liquidi che ci permette di vedere la composizione
dell’immagine. Per le compatte questo funge anche da mirino mentre
nelle mirrorless e nelle reflex è presente un mirino ottico atto
all’inquadratura. Uno specchio posto a quarantacinque gradi e da un
prisma che consentono di osservare la scena attraverso l’obiettivo in
modo nitido come se fosse vista in modo diretto.

Una alternativa sempre più accattivante sta diventando il mirino


elettronico, EVF, posto nelle fotocamere Micro System o in quelle
con un solo obbiettivo. Si tratta semplicemente di un piccolo schermo,
che evita l’utilizzo di uno specchio e di un prisma, che si differenziano
dagli schermi canonici per la possibilità di mostrare già prima dello
scatto i bilanciamenti dei bianchi e l’esposizione della foto.
Altro sistema è il mirino gallileiano,
ovvero un mirino a visione diretta,
usato spesso nelle camere compatte
prive di schermo LCD. Questo mirino
ci permette di avere una inquadratura
in linea con la posizione
dell’obbiettivo, che si rivela vero solo
per riprese a una certa distanza, in quanto per visioni ravvicinate si
presenta un errore di parallasse, ovvero a due punti di vista distinti e
paralleli.
Nelle fotocamere a grande formato viene ancora utilizzato il vetro
smerigliato per la messa a fuoco, che viene sostituito dalla pellicola
nel momento dello scatto e rappresenta il metodo più antico di messa a
fuoco.

L’otturatore è lo strumento atto a controllare la quantità


di luce che entra all’interno della fotocamera, e assieme
al diaframma controlla e incide sull’esposizione.
Questo può essere posto fra due gruppi di lenti
all’interno dell’obbiettivo o immediatamente davanti al
piano focale. Il primo di questi è detto otturatore
centrale, composto da diverse lamelle, che attraverso l’imput dello
scatto si chiudono e si aprono lasciando passare il fascio di luce.
Il secondo tipo di otturatore, detto a piano focale, è più adatto alle
macchine con obiettivo intercambiabile, ed è composto nelle
macchine moderne da due lamelle metalliche che si aprono e si
chiudono. La prima si apre per il passaggio della luce mentre la
seconda per l’interruzione dello stesso, dopo lo scatto le due tendine si
ritirano e la macchina è pronta per una nuova esposizione.

La velocità di scatto è la tempistica, espressa in genere in secondi, in


cui la luce viene lasciata intaccare la parte sensibile. Se si desidera
avere una esposizione più lunga rispetto quella messa a disposizione
dalla camera stessa bisogna impostare la macchian su B, ovvero bulb
o brief, che permette di tenere aperto l’otturatore per tutto il tempo in
cui si tiene premuto il tasto di scatto. Con un otturatore centrale il
flash non ha problemi nello scattare al momento di massima apertura,
mentre con un piano focale il flash deve scattare solo a fotogramma
esposto il che diventa più complesso, altrimenti renderebbe visibile
solo parte dell’immagine.

Le macchine moderne concedono la possibilità di valori di scatto


intermedi che aumentano gli stop di 1/3, rendendo più ampia la
possibilità di esposizione, e dando la possibilità di regolare anche gli
ISO, la sensibilità digitale, a terzi di stop.
È possibile sia impostare da sè i valori che accettare quelli
automaticamente suggeriti dalla macchina, prioritarizzando l’apertura
del diaframma o dei tempi di scatto, oppure scegliendo un
compromesso fra i due. Le macchine a grande formato invece, hanno
raramente un esposimetro integrato, costringendoci a scegliere
manualamente i valori.
Vi sono inoltre due tipi di zoom, ottico e digitale, quello digitale è un
falso zoom in quanto consiste solo in una reinquadratura della stessa
immagine, invece con lo zoom ottico l’obiettivo muove le sue lenti per
modificare la lunghezza focale.

Altra caratteristica delle moderne macchine fotografiche è lo


stabilizzatore d’immagine, OIS, che permette di scattare fotografie
nitide anche in momenti in cui la luce è scarsa, evitando l’effetto
“mosso”, compensando la vibrazione della macchina fotografica.
Un fattore aggiuntivo che pesa sulla qualità dell’immagine è la
dimensione del sensore digitale, che spesso si limitano alla
dimensione di 35 mm in quanto maggiore è la sua dimensione
maggiore è il costo. I Full Frame invece vengono applicati sulle
macchine fotografiche professionali e corrispondono a 36x24 mm, e
hanno la stessa dimensione dei rullini, questi permettono di evitare il
fattore di crop, permettendo un angolo più ampio.

Alla grana della pellicola corrisponde in ambito digitale il rumore di


fondo, che avviene quando il calore libera degli elettroni che vanno ad
occupare la zona dell’immagine, detti elettroni termici. Più è piccolo
il sensore e elevata la sensibilità, maggiore sarà il disturbo, e a parità
di sensori invece il numero di pixel sarà a fare la differenza, maggiore
è il numero degli stessi e maggiore sarà il disturbo. Le macchine
digitali e i programmi di post-produzione possono attraverso degli
specifici algoritmi alleviare questo disturbo.

Il sensore di una fotocamera vede in toni di grigio, la colorazione di


una immagine avviene attraverso un processo di demosaicizzazione e
attraverso lo specifico sistema del sensore vengono ricostruite le tre
componenti cromatiche atte a raggiungere la tonalità desiderata. Tra
gli schemi esistenti il più utilizzato è quello Bayer, ideato da un
dipendente Kodak, che della terna dei colori RGB mette il verde in
quantità prevalente siccome il nostro occhio è più sensibile a questa
gamma.
In base alla macchina fotografica che scegliamo, potremo determinare
la dimensione della immagine, ovvero da quanti pixel questa è
composta, in base alle capacità del sensore. Ovviamente maggiore è il
numero di pixel maggiore sarà la quantità di informazioni che
l’immagine potrà trasportare con sè. Per misurare la dimensione di un
file attualmente si lavora in megapixel, ovvero 1 milione di pixel
ottenuti con la moltiplicazione fra pixel verticali e orrizontali.

Le macchine di grande formato


permettono la traslazione, in quanto
obbiettivo e piano focale non si trovano
necessariamente sullo stesso asse.
Principalmente i movimenti consistono
nell’alzare il fronte e spostare il fronte.
Bisogna fare attenzione che l’obbiettivo abbia una copertura
sufficiente per questi moviementi di traslazione, perchè in caso
contrario questo porterà allo scurirsi e sfocarsi dei bordi. Ultimo
movimento possibile di macchina è il basculaggio, che consiste nella
inclinazione dell’obbiettivo rispetto all’asse orrizontale o a quello
verticale.

Uno degli elementi fondamentali della fotografia, assieme al tempo, è


sicuramente la luce; difatti il termine stesso “fotografia” sta a
significare “disegnare con la luce”.
La luce, che di per sè è un flusso elettromeganetico emesso da una
fonte, ha diverse proprietà:
Prima di tutto si propaga in un moto ondulatorio, ogni onda
corrisponde per noi ai diversi colori.
La luce tende a procedere in linea retta, a meno che la composizione
che attraversa non sia non uniforme.
Essa viaggia ad altissime velocità, a meno che non venga rallentata da
alcune sostanze, come anche l’acqua.
Il comportamento della luce è legato ai fotoni che la compongono,
infatti la pellicola stessa reagisce ad essa poichè composta da
fotodiodi che formano una reazione chimica con essi.
Ovviamente la luce che possiamo percepire a
occhi nudi, è solo piccola parte dell’ampio
spettro di radiazioni a cui siamo in ogni caso
soggetti. Il nostro occhio è infatti capace di
percepire solo radiazioni che variano tra i
400 e i 700 nanometri, fascia chiamata anche
spettro visibile.
L’occhio umano possiede tre recettori alla
luce, ognuno sensibile a una fascia cromatica
differente, una per il rosso, una per il verde e una per il blu. Quando i
tre recettori sono stimolati in modo uniforme allora la luce che
l’occhio riceve sarà bianca o grigio neutro.

Il tipo di luce che illumina il soggetto ne determina ovviamente anche


il tipo di ombra che si andrà a creare. Difatti una sorgente luminosa
puntiforme creerà un’ombra che si propaga nitidamente e
uniformemente, così come una candela o una lampadina o anche solo
la luce del sole. Per questo in fotografia spesso si tende a diffondere la
luce, attraverso un foglio di carta che la frammenta. Ciò accade perchè
una luce proveniente da una ampia superfice andrà a colpire molte
parti con raggi diretti di minore intensità, come accade in una giornata
nuvolosa.
Per quanto esistano programmi che possano modificare l’apparenza
delle ombre è importante conoscere la luce e le sue proprietà, e come
ne risulterà il soggetto di conseguenza. Oltre al genere di luce che
colpisce l’oggetto, vi sono altri e vari fattori che ne determinano le
conseguenze, quali il materiale, la sua struttura o il suo colore.
Quando la luce va a intaccare una superfice andrà a riflettersi con la
stessa angolazione con cui l’ha incontrata, per questa esatta ragione
quando illuminiamo una superfice molto riflettente frontalmente ne
verremo abbagliati in quanto l’incidenza è di 90°.

Quando un raggio trapassa obliquamete prima l’aria e poi un secondo


materiale questa subisce determinati effetti. Infatti se questo è denso la
luce verrà propagata in misura minore, mentre se colpisce qualcosa di
trasparente come un vetro verrà rifratto in maniera disuguale, poichè
colpendola obliquamente alcuni raggi la oltrapasseranno più
velocemente di altri, e altri verranno deviati secondo una traiettoria
perpendicolare.

Ovviamente più il soggetto è vicino alla


sorgente di luce più si presenterà
luminoso, dimezzandone la distanza la
sua luminosità quadruplicherà, in quanto
la luce verrà concentrata in una superfice
corrispondente a un quarto della
precedente. Difatti la legge dice
“l’illuminazione è inversamente proporzionale al quadrato della
distanza dalla sorgente luminosa”.

Illuminando un soggetto e ponendolo


a una certa distanza da una carta da
lucido, o una pellicola, su di essa non
si formerà alcun tipo di immagine, in
quanto la luce verrà propagata in ogni
direzione. Una maniera per far sì che
avvenga un qualche tipo di immagine
sulla pellicola, è quello, rudimentale,
di porre un cartoncino opaco con un
piccolo foro al centro, che possa
lasciar passare solo i raggi incidenti
al suo interno, detto anche foro
stenopeico. Sulla pellicola si formerà
allora una immagine capovolta, e ancora poco definita del soggetto
illuminato.

Ovviamente non sarà possibile ottenere una immagine estremamente


dettagliata del soggetto in quando la luce verrà in ogni caso proiettata
attraverso un foro, che per quanto preciso sia non potrà che risolversi
in piccoli cerchietti di onde luminose, che si sovrappongono fra loro.
Vi è però anche un limite al rimpicciolimento del foro stenopeico, in
quanto più piccolo è maggiore è il rischio di diffrazione.
La cosa più saggia da fare è infatti allargare il foro, evitando la
rifrazione, e tentare di far deviare i raggi in modo che convergano
invece che divergere verso i lati. Questo si può
ottenere attraverso l’utilizzo di un vetro che fa sì che
il raggio obliquo che arriva attraverso l’aria venga
deviato dal materiale in un asse il più pendicolare
possile alla lente. Sostanzialmente un pezzo di vetro
che sia più spesso al centro e più sottile ai bordi,
porterà i raggi a divergere gli uni verso gli altri, in
un processo chiamato convergenza.
Il potere convergente di una lente si chiama lunghezza focale, ovvero
la distanza fra la lente stessa e il punto in cui l’immagine si trova a
fuoco, di un oggetto posto all’infinito, tenendo conto ovviamente
anche del materiale. Proporzionalmente maggiore sarà la lunghezza di
fuoco, più grande sarà l’immagine prodotta.

Vi sono diverse condizioni di luce in cui un foografo può trovarsi a


scattare:
Luce naturale, ovvero il footgrafo vuole conservare quella che è
l’atmosfera del luogo con i sui pregi e i suoi difetti, con la volontà di
restituire esattamente ciò che il fotografo vede, rinunciando alla scelta
delle impostazioni di luce, fornendo inoltre molti scenari in base
all’ora del giorno.
La luce ambiente invece è quella che sfrutta per l’appunto la luce
ambientale, che quindi non si limita alla luce naturale ma anche a
quella artificiale o a un misto delle due, escludendo però le luci atte a
controllare la luce presente.
Luce continua comprende una gamma di mezzi di
illuminazione artificiali, quali le lampade a scarica (HMI) dove
la luce è prodotta da un gas ionizzato, ha una temperatura di
5600°K.
Altra è la luce fluorescente fredda al neon, che è comoda
poichè le macchine si possono equilibrare facilmente
alla frequenza della lampada. La temperatura del colore
può variare dai 3200°K ai 5400°K, difatti lo spettro
d’emissione non è continuo.

Può capitare che nel video vi sia uno sfarfallio dato dalle diverse fonti
di luci presenti sulla scena, che non sono continue, ma sono date da
delle scariche a rapida frequenza che il nostro occhio non percepisce a
causa della persistenza della visione. Questo effetto fastidioso, e che si
deve fare attenzione ad evitare è chiamato flickering, e avviene
genralmente con le lampade a neon.

Le luci al tugsteno invece sono composte da un


filamento del suddetto materiale posto all’interno di
una lampadina, come ad esmpio quelle che si trovano in molte delle
case. Questo tipo di luce era stato pensato appositamente per le riprese
cinematografiche e televisive, e sono concepite per resistere ad alte
temperature.
La lampada alogena è sempre una lampada a tugsteno, piccola e
potente, fatta in quarzo e di forma allungata
contine tracce di gas alogeno che venendo a
contatto con lo ioduro di tugsteno va a decomporlo
in tugsteno creando, attraverso la reazione, luce.
Questo ciclo di reazioni chimiche impedisce il
deterioramento del filo di tugsteno, facedo sì che
raddoppi la sua durata e sia costante la sua temperatura di colore, che
varia tra i 3200°K e i 3400°K.
Le luci a led stanno invece per light emitting
diode, ovvero diodo ad emissione luminosa.
Non possiedono nessun tipo di filamento,
permettendo quindi che queste si consumino
molto più lentamente, oltre ad essere più
effcienti in quanto l’energia utilizzavata va
usata per la produzione di luce stessa.
Infine la luce flash che attualmente consiste in una lampada a xeno, un
tempo invece era una torcia su cui veniva posta della polvere di
magnesio che provocava lo scoppio di
luce cercato. I flash professionali sono in
genere a batterie ricaricabili in modo da
lasciare al fotografo una certa libertà sia a
livello di tempistiche che di movimento.
La qualità di una luce viene dedotta dalla sua temperatura di colore,
che viene in genere espressa in Kelvin, e ci fornisce un parametro
attendibile dello spettro luminoso emesso dalla suddetta lampada.
La codifica della temperatura è stata effettuata su una lastra di metallo
nero esposto a differenti temperature. La scala Kelvin equivale alla
scala in centigradi più un valore di 273°, difatti lo zero assoluto, la
temperatura dell’universo, è uguale a -273°C.

Questa scala cromatica della luce è utile al fotografo per compiere il


bilanciamento del bianco, che la nostra vista tende a compensare in
base all’illuminazione presente.

I filtri invece sono semplici pezzi di plastica o vetro che ci permettono


di cambiare la tonalità della luce in una immagine, assorbendo
determinate lunghezze d’onda e rilasciandone altre.
I filtri di per sè possono avere due funzioni, di correzione e per effeti
speciali. Il primo si divide in altri due gruppi, uno che converte le
dominanti di colore e permette di utilizzare pellicole adatte a una
detrminata temperatura di colore anche quando questa non è presente.
Mentre i secondo tipo sono definiti filtri di compensazione e sono
disponibili in sei diverse intensità di colore, e permettono di regolare
con precsione l’intesità di colore, e rimediare i casi in cui le
condizioni di lavoro e luce non siano ottimali.
I filtri e gli accessori per effetti speciali invece vanno scelti con cura,
in quanto molti sono così potenti da danneggiare il risultato finale.

Lo strumento atto alla misurazione della luce è


l’esposimetro, che si può trovare all’interno o all’esterno
della macchina fotografica. Esistono due tipi: a luce riflessa, che
misura la luce proveniente dall’oggetto stesso, o a luce incidente, dove
l’esposimetro viene posto accanto al soggetto e ne rileva
l’illuminazione. L’esposimetro a luce riflessa è più accurato in quanto
riceve gli stessi dati che successivamente registrerà il sensore della
macchina. Vi sono anche degli svantaggi però, infatti se il suo campo
non è molto ristretto e difficile comprendere se la luce ha una
componente ambientale o proviene dall’oggetto, rendendo necessario
valutare anche la natura della scena nello scatto. Quindi con le dovute
considerazioni si ottengono dati più credibili con un esposimetro a
luce incidente, che accostato al soggetto non può che valutare la sua
luminosità. Questo lavora su una scala già prefissata di valori, che ci
risparmiano il processo di calcolo del diaframma e dei tempi.
Gli esposimetri sono tarati per fornire
l’esposizione corretta di un soggetto medio,
come ad esempio i cartoncini grigi medi della
kodak, che riflettono il 18% della luce che li
colpisce. Questo, in ambienti in cui non venga
inquinata da altri oggetti, riferisce una esatta
misura della luce incidente.
L’esposizione si basa solamente sulla quantità
di luce che invade il soggetto, non tiene conto
dei contrasti o del fattore tonale.
Nel caso in cui parliamo di riprese in luce artificiale bisogna far sì che
l’esposimetro sia posto il più vicino possibile al soggetto per evitare
una sottoesposizione della fotografia. I cultori del Sistema Zonale
Analogico, non condividono questa idea, in quanto ritengono che il
metodo di valutazione dell’intensità luminosa dato dall’esposimetro
renda impossibile una valutazione selettiva della scala tonale. Rende
quindi questo processo principalmente adatto alla fotografia digitale,
in quanto la scala equilibrata che viene proposta con l’utilizzo
dell’esposimetro è poi adatta alla post produzione successiva.
Salvando la foto in formato RAW è possibile lavorare molto e con
gran libertà in postproduzione, modificando le tonalità, invece
salvando in TIFF, estensione compressa non distruttiva, sarà possibile
lavorare solo in minima parte sull’esposizione
della foto fatta. Da evitare è il salvataggio in
JPEG, che in quanto file distruttivo va a
pesare sul valore qualitativo dell’immagine.
La latitudine di posa di un file con estensioni
JPEG o TIFF presentano una latitudine di
posa simile alle fotografie in pellicola, che si
rivela piuttosto ristretta che si aggira attorno
ai sei stop, rendendo il processo di
elaborazione in post-ripresa molto limitato.
Il vantaggio che il digitale ci fornisce sta nella più vasta gamma
dinamica che viene messa a disposizione. La gamma dinamica è la
massima differenza di luminosità, tra luci e ombre che il sensore della
nostra macchina fotografica è capace di registrare. L’unità di misura
della gamma dinamica è lo stop, che equivale al raddoppiamento o al
dimezzamento dell’esposizione. La gamma dinamica può variare,
anche in base all’impostazione degli ISO, che se non gestiti a dovere
possono portare alla creazione del disturbo, ovvero di una granulosità
della fotografia simile alla grana della pellicola. In assenza di rumore
sarà più semplice successivamente lavorare sull’immagine
schiarendone le ombre, mentre invece lavorando con una fotografia
danneggiata il tentativo di riparazione porterà solo a un maggiore
deterioramento dell’immagine.

È bene non confondere la gamma dinamica con la profondità di bit; in


quanto questa rappresenta la quantità di soluzioni che possono essere
espresse attraverso la gamma dinamica, agendo quindi da contenitore
per la stessa. Una minore quantità di bit porterà a una immagine che
non riesce a supportare la gamma dinamica di una foto, mentre una
maggiore quantità di bit non migliorerà la qualità tonale
dell’immagine ma ne aumenterà solo le dimensioni.
Questa è una delle ragioni per cui è più saggio utilizzare file in
estensione RAW piuttosto che JPEG, infatti un file del primo tipo può
supportare fino a 12 bit per canale, mentre il secondo tipo solo otto
bit.
Nel momento in cui si possiedono sensori a bassa gamma dinamica
risulta istintivo lavorare con foto sottoesposte, in modo
da mantenere intatti i particolari delle luci più intense,
ma questo porterà poi a una conseguente
sottoesposizione delle luci basse, che provocherà poi
del rumore nella fotografia. Per evitare questo si tende
a utilizzare il metodo della esposizione a destra
(ETTR), che evita per quanto possibile il rumore e
mantengono una qualità adatta alla elaborazione
successiva.

La sensibilità, nella fotografia, corrisponde alla velocità con cui una


pellicola o un sensore si lascia impressionare dalla luce. Per quanto
riguarda la fotografia analogica si tendeva a scegliere pellicole di
diversa emulsione e quindi di differente sensibilità in base alla luce in
cui si sarebbe andati a scattare. In digitale invece la situazione è meno
complessa in quanto la sensibilità del sensore può essere modificata in
base all’impostazione degli ISO.

Le sensibilità sono codificate secondo degli standard dettati e si


suddividono in questa maniera:

Basse sensibilità: ISO 25 – ISO 50 – ISO 100


Medie sensibilità: ISO 200 – ISO 400 – ISO 800
Alte sensibilità: ISO 1600 – ISO 3200 – ISO 6400
Altissime sensibilità: ISO 12500 – ISO 54000

A ogni livello di sensibilità questa raddoppia quindi spostandosi di


uno stop espositivo.
La possibilità d'impostare una sensibilità alta ci viene incontro su
determinati aspetti, quale la velocità di scatto e la possibilità di evitare
il “mosso” nelle immagini. Allo stesso tempo però maggiore è la
sensibilità settata maggiore sarà il rumore che si verrà a creare, ovvero
una trama granulosa della fotografia. Il così
detto rumore di luminanza avviene perché
la macchina deve essere capace di registrare
gli stessi dati ma con un tempo
notevolmente minore, portandola quindi ad
ampliare le informazioni ricevute. Invece il
rumore di crominanza si presenta con le lunghe esposizioni, in quanto
la foto viene influenzata dalle diverse temperature del sensore,
rendendo alcuni pixel o parti estese dell’immagine di colore alterato.

Fu Ansel Adams che creò il Sistema Zonale, un metodo personale di


classificazione dei livelli di esposizione atto a una sua interpretazione
della realtà.
Per quanto riguarda il Sistema Zonale Analogico (SZA) Adam ritenne
sufficiente dividere il soggetto in dieci zone di riflettenza, dal bianco a
nero più puro, con valore medio corrispondente al grigio 18%. Ogni
passaggio da una zona alla successiva corrisponde a un
raddoppiamento o dimezzamento dell’esposizione.

Ansel Adams notò inoltre che la variazione dei tempi di sviluppo di


una pellicola, oltre ai valori esposimetrici di scatto, portavano alla
creazione di un negativo dai contrasti più marcati, anche se in linea
generale a subirne maggiori mutamenti sono le zone più chiare del
sistema rispetto la quelle scure. Si parla dunque di estensione quando
avviene un prolungamento dei tempi di sviluppo e invece di
contrazione quando avviene una diminuzione dei suddetti tempi.
Con il subentrare del digitale, il Sistema Zonale diventa un punto di
riferimento per la selezione dei grigi da parte dei fotografi alla ricerca
del loro particolare stile tonale. La principale differenza nel Sistema
Zonale Digitale sta nel fatto che l’intera modifica delle zone avviene
successivamente attraverso gli appositi software.

Nel processo di post-produzione in genere avviene la conversione in


bianco e nero, suddivisa in livelli in modo da non compromettere
l’immagine originale e poter ritornare sui propri passi se necessario.
Gli strumenti più utili nel caso del SZD sono le curve, adatte a curare
le correzioni tonali, che si presenta in due tipologie, espressa in valori
o percentuali di annerimento. La curva
mostra bene come la variazione tonale
non procede a fasce distinte ma che ogni
singolo punto rappresenta una gamma di
grigio differente tendente verso il bianco o
il nero. Fissando un punto su di essa è
possibile variare la densità tonale
dell’immagine, che può essere utile nel momento in cui l’immagine è
già uniformemente esposta in ogni zona. Fissando però diversi punti
autonomi sulla curva si creeranno fissaggi indipendenti sulla stessa
che permetteranno di modificare aree ristrette della foto senza
modificare le restanti aree.

Il Sistema Zonale Digitale Differenziato è una prerogativa della


fotografia digitale e permette di modificare singole aree di selezione
con valori differenti da quelli della restante fotografia. Questa si
svolge in quattro principali passaggi: suddividere il progetto per
modelli comprendenti singole aree di modifica, scegliere lo strumento
di selezione adatto, sfumare il perimetro di selezione, applicare un
punto sulla curva su cui agire nel modo desiderato.
Nell’utilizzo dell’obiettivo il parametro su cui possiamo porre più
controllo è l’apertura del diaframma, in genere riconosciuto da numeri
seguiti da una ƒ.
Un obiettivo standar è composto da un numero tra i
5 e gli 8 vetri ottici, che hanno lo scopo di gestire la
rifrazione della luce senza creare delle abberrazioni.
La loro inclinazione e centratura in un barilotto
sono passaggi importanti per il corretto
funzionamento di un obiettivo, è inoltre facile che il
numero elevato di vetri possa creare della rifrazione
luminosa che può provocare della diffusione
interna. La riflessione interna viene ovviata
attraverso delle pellicole antiriflesso poste sulle
lenti, anche se l’effetto non può essere evitato se il fotografo non
utilizza un paraluce in scene dove si presenta una luce laterale intensa.
Le macchine più economiche hanno un obiettivo a fuco fisso, ovvero
che metterà a fuoco la scena dai 2.5 metri in poi, mentre quelli più
vicini o più lontani sembreranno sufficentemente a fuoco grazie alla
profondità di campo. Per gli obbiettivi più complessi invece è
possibile impostare una messa a fuoco manuale attraverso la rotazione
del barilotto, oppure una automatica che sfrutta un motore elettrico
che attraverso un sensore riconosce quando la foto è a fuoco. Per i
soggetti più distanti qualsiasi genere di macchina è impostata per una
messa a fuoco “infinita”.
Nel momento in cui parliamo della tecnica della fotografia, ci si
riferisce a diaframmi e tempi: il primo gestisce la quantità di luce che
raggiunge il sensore e la seconda il tempo in cui lasciare esposto il
sensore. Quando parliamo di tempi di apertura lenti o veloci ci
riferiamo nello specifico a uno strumento: l’otturatore. Gli otturatori
centrali più celebri, in genere applicati alle macchine di medio o
grande formato, sono i Copal o i Compur, dove l’otturatore è posto fra
gruppi di lenti.
Altro genere di otturatore è quello a tendina, dove due bande di
plastica si muovono verso il centro simultaneamente.
Invece attraverso il diaframma noi regoliamo il flusso della luce che
imprime la nostra immagine nel tempo dato. Ogni passaggio da un
numero ƒ a uno maggiore, l’esposizione si dimezzerà, quindi con essa
passerà un quantità di luce minore, stessa cosa passando da un numero
inferiore al sucessivo raddoppierà la quantità di luce che raggiunge il
sensore.
Nel momento in cui combiniamo i due strumenti a nostra disposizione
dobbiamo essere coscienti che con una
maggiore apertura del diaframma i tempi
andranno diminuiti, e viceversa, secondo un
rapporto di reciprocità dove se viene
radoppiato un parametro e dimezzato il
secondo il risultato sarà il medesimo a livello espositivo.
Oltre a controllare la quantità di luce che raggiunge il sensore della
nostra macchina fotografica, il diaframma ci permette anche di
impostare la profondità di campo apparente, ovvero la distanza tra il
piano più vicino e quello più lontano messi a fuoco rispetto al nostro
apparecchio. Ovviamente l’obiettivo potrà mettere a fuoco solo su un
determinato piano, ma in determinati casi, la
sfocatura dei piani più vicini o più lontani dal
fuoco può essere così impercettibile da farceli
sembrare a fuoco. Questa nostra percezione
dell’intervallo di nitidezza viene chiamata
profondità di campo, dove il cerchio di
confusione è davvero ridotto. Sulla
profondità di campo influiscono altri due
fattori: la distanza del soggetto e la lunghezza focale dell’obiettivo
stesso, a parità di aperture e distanze. In soggetti distanti anche 10
volte la lunghezza focale si è notato come la
profondità di campo si estenda di più verso il
fondo che verso la fotocamera, per questo è
usanza porre il fuoco a 1/3 della profondità di
campo complessiva.
Importante è non confondere la profondità di campo con quella di
fuoco, che a differenza della prima si trova all’interno della macchina
stessa, tra l’obiettivo e la parte sensibile.

Gli obiettivi possono catturare porzioni differenti della scena in base


al genere. Si parla di obiettivi standard quando questi coprono lo
stesso angolo di visione dell’occhio umano, ovvero 45°.
La ragione per cui si devono cambiare ottiche è che questo ci permette
di modificare l’angolo di ripresa, aumentando o diminuendo l’angolo
inquadrato, e altera le distanze dal nostro soggetto modificandone la
prospettiva, all’interno di uno stesso formato fotografico. La
prospettiva è data dalla distanza degli oggetti nella fotografia, e dalla
distana delle loro linee parallele che nell’immagine appaiono
convergenti verso il punto di fuga, questo è ciò che conferisce
profondità alla fotografia che è bidimensionale. Questa generalmente
varia in base alla distanza del soggetto rispetto al punto di vista del
fotografo, ma cambiandone la lunghezza focale è possibile alterarne la
percezione. Di fatto l’immagine verrà percepita in scala quando il
rapporto tra la grandezza dell’immagine e la posizione
dell’osservatore è la stessa fra il soggetto e il punto di ripresa.
Nelle macchine a banco ottico sostituire un’ottica vuole dire cambiare
direttamente la piastra che la include, per questo quando si utilizza un
grandangolo che deve stare molto vicino allo schermo di messa a
fuoco questo spesso è rientrante o gli viene dato in dotazione un
soffietto più corto. Più scelta viene messa a disposizione delle
macchine reflex, in genere i formato 35 mm, poichè prima di allora le
ottiche grandangolari impedivano molti movimenti di macchina
mentre i teleobiettivi era particolarmente ingombranti.

Nel nostro corredo fotografico, oltre agli obiettivi


standard che generalmente sono già presenti, è
utile avere un obiettivo grandangolare con angolo
di ripresa fra i 70 e gli 80°, gli angoli superiori
tenderanno a creare distorsioni e allungamenti nei
bordi dell’immagine. I grandangolari hanno
anche una profondità di campo superiore rispetto agli obiettivi
standard, che si può rivelare un vantaggio nel caso in cui si voglia
isolare il soggetto dall’ambiante circostante.
Se gli obiettivi a corta focale sono utili per aumentare la parte
inquadrata, quelli a corta servono ad ridurla.
Questi teleobiettivi servono a foto
naturalistiche, scene sportive dove non si può
avvicinare il soggetto, o casi in cui si voglia
appiattire la prospettiva.
Lo zoom invece è un obiettivo a lunghezza focale variabile,
generalmente trovato sulle macchine compatte, mentre nelle reflex gli
obiettivi zoom possono essere sostituiti. La lunghezza focale varia
attraverso una ghiera di regolazione, o nelle macchine compatte
attraverso un servo motore azionato dal tasto di scatto. In questi casi la
regolazione della messa a fuoco e il diaframma non devono variare nel
processo di ingrandimento della scena. Questo tipo di obiettivo ci
porta sicuramente molti vantaggi in termini di velocità, costi e
manegevolezza, ma d’altro canto ci rende pigri nella ricerca di effetti
prospettici e ci impedisce di andare nel particolare o nel grande
formato in qaunto ha dei limiti comprensibili a livello di diaframma e
di lunghezza focale.
Su alcuni dispositivi è presente la
stabilizzazione dell’immagine, come ad
esempio su alcuni obiettivi SRL, in un
sistema che rileva il movimento della
macchina e lo compensa, aumentandone la nitidezza.
Gli obiettivi macro invece sono progettati per la
ripresa di oggetti a piccolissime distanze, capaci di
corregge al massimo le aberrazioni date dalla
vicinanza. Hanno un costo elevato, sono meno
luminosi e hanno diaframmi più piccoli, con
escursione della messa a fuoco che può andare all’infinito.

Parlando di nitidezza, è importante sapere che un fattore fondamentale


per ottenere una fotografia qualitativamente corretta è quella di
utilizzare il treppiede nei lunghi tempi di esposizione, al fine di evitare
il micromosso.
Quando il piano di acqisizione dell’immagine
si trova su un piano diverso da quello di fuoco
si crea un cerchio di luce riflessa, detto circolo di confusione.
L’occhio umano in ogni caso non è perfetto, infatti sotto una certa
dimensione non distinguerà il cerchio dal punto a una normale
distanza di visione concidente con la diagonale di stampa.
L’unico modo per aver una
profondità di campo reale è
utilizzare le macchine a corpo
mobile, seguendo la regola di
Scheimpflug. Questa afferma che
quando il piano focale, quello
dell’ottica e quello del soggetto si
incontrano il tutto è a fuoco.
Altro difetto che si può incontrare fotografando è la diffrazione della
luce, che avviene nel momento in cui la luce incontra un ostacolo
netto, come il diaframma, più è piccolo il diaframma più sarà presente
la diffrazione.
Anche il segnale elettrico può interferire nel prodotto dell’apparato
creando un disturbo, detto anche rumore. Infatti non possiamo
aumentare la quantità di luce in entrata, ma possiamo solo aumentare
la luminosità della foto obbligando il sensore ad amplificare il segnale
in uscita, amplificandone anche il rumore.
Due sono i principali modelli di colore, che sono RGB e CMYK. Il
primo è un acronimo che sta per “Red, Green and
Blue”, e rappresenta un modello di tipo additivo basato
sulla tricomia di rosso, verde e blu. Generalmente
questo modello viene utilizzato nell’ambito del digitale
e del web, in quanto non è possibile con questa terna
coprire l’intera gamma cromatica, poichè il processo
può solo procedere per addzione di valori positivi nella scala del
rosso, del verde o del blu.
Il metodo CMYK sta invece per “Cyane, Magenta, Yellow and
Black”, un modello in questo caso di tipo sotrattivo, dove il colore
ricercato si ottiene dalla sottrazione o annullamento di uno o più dei
colori primari. Il nero, che qui è presente rispetto al modello più noto
RGB, è stato aggiunto alla terna dei primari poichè la somma dei tre
colori al massimo della loro intensità dà come risultato una particolare
tonalità di marrone. In genere questo tipo di modello viene utilizzato
nella stampa cartacea delle immagini digitali, in quanto rappresenta il
metodo di applicazione del colore a cui noi siamo abituati in ambito
analogico.

Lo scopo della gestione digitale del colore è quella di produrre una


immagine digitale che su periferiche diverse presenti gli stessi colori
della foto originale. La gestione del colore dunque corrisponde
all’insieme delle periferiche e dei software che ci assicurano di
ottenere le stesse gamme cromatiche su qualsiasi genere di supporto,
dai monitor alle stampe.
La gestione del colore non va confusa con la correzione del colore, le
quali condividono solo l’oggetto che subisce l’azione ovvero
l’immagine, ma hanno diversi obbiettivi e metodi di applicazione. La
correzione del colore infatti ha lo scopo di correggere i difetti estetici
in una foto, con l’intento di rendere l’immagine più gradevole. Spesso
il processo di correzione del colore coinvolge la determinazione dei
punti bianchi o dei neri, la regolazione dei contrasti e così via, mentre
invece la gestione del colore vuole far sì che l’immagine mantenga il
suo aspetto su ogni supporto.
Spesso per far sì che i valori cromatici all’interno della fotografia
siano univoci, ci si basa sulle scale di valori dei modelli RGB o
CMYK e valori colorimetrici indipendenti dalla periferica, per poi
utilizzare questa corrispondenza per riprodurre i colori in modo
univoco. La corrispondenza tra i numeri di periferica e le coordinate
colorimetriche si chiama caratterizzazione. Per compiere una
caratterizzazione è necessario
possedere un target, ovvero un
supporto con alcune tacche colorate.
Molto conosciuto è il ColorChecker
prodotto dalla X-Rite, che contiene
24 tacche colorate. Le varie sezioni
di colore hanno lo scopo di fornire
delle coordinate colorimetriche
precise e univoche con qualsisasi genere di periferica, in questo caso
di macchina fotografica. La prima operazione sta nel fotografare il
ColorChecker sotto una luce uniforme, così che la
macchina possa attribuire a ogni tacca di colore, un
valore RGB corrispondente. Di fianco vanno poi
riportate le rispettive coordinate colorimetriche
XYZ, ottenendo infine una tabella di 24 righe.
Questa si chiama tabella di caratterizzazione, ovvero rappresenta le
variabili colorimetriche comunicate, con una determinata macchina
fotografica in una determinata luce. Per questa ragione fotocamere
diverse avranno tabelle di caratterizzazione diverse. Con questa tabella
è quindi possibile convertire i valori RGB, che sono dipendenti dalla
periferica, in valori XYZ, che sono indipendenti e univoci.
Ovviamente monitor diversi o lo stesso monitor impostato in maniera
differente, porta con sè tabelle di calibrazione differenti, per questo è
fondamentale impostare coscientemente il nostro monitor attraverso la
fase chiamata calibrazione, portando quindi il nostro dispositivo in
uno stato noto con valori scelti.
Sucessivamente il software invierà al monitor delle terne prefissate di
valori RGB, a cui il computer reagirà rappresentando il colore nel
modo più vicino possibile alla terna richiesta. Il colore verrà poi letto
dal colorimetro, e il software potrà compilare una tabella dove mettere
in relazione i colori effettivamente misurati e le terne RGB, in una
operazione detta caratterizzazione.

Il gamut invece è l’insieme dei


colori che uno certo strumento è in
grado di catturare e restituire
espresso in coordinate
colorimetriche. In genere il gamut
viene rappresentato come un
triangolo su un diagramma a
coordinate, ai cui angoli si trovano
i colori RGB dei fosfori della periferica scelta, mentre per le stampanti
ai vertici si trovano le tonalità CMYK degli inchiostri.
La conversione dei colori da uno spazio cromatico all’altro viene
gestita dall’intento di rendering, che si basa su regole diverse da un
intento di rendering all’altro per designare le regolazioni di colore
all’origine.
Gli intendi rendering possono agire in vario modo:

Quando sono di stampo percettivo le relazioni visive fra i colori


vengono mantenute in modo che l’occhio umano le percepisca come
corrette e naturali. In genere questo etodo viene applicato su fotografie
che hanno molti colori fuori gamma.
Quando si parla invece di saturato, si ricercano colori brillanti
andando però a perdere la precisione cromatica. In genere è indicato
per le grafiche aziendali che devono contare su colori che siano di
impatto e vivaci piuttosto che accurati.
Invece quando l’intento si definisce colorimetrico relativo, il software
confronta la luce più estrema dello spazio cromatico originale con
quello dello spazio di destinazione, convertendo il tutto di
conseguenza. I colori fuori gamma quindi vengono ridotti alla tonalità
nella gamma a loro più somigliante, riuscendo così a conservare i
colori originali in modo più efficiente rispetto all’intento percettivo.
L’intento colorimetrico assoluto invece non modifica i valori che
rientrano nel gamut, mentre quelli che non vi rientrano vengono
semplicemente eliminati. Non avvenendo nessun genere di
cambiamento questo metodo è utile per la precisione cromatica,
mentre va a danneggiare le relazioni fra colori.

Il motivo per cui ogni dispositivo offre diverse visualizzazioni della


stessa immagine è dato dall’oggetto stesso, che si differenzia anche
dai suoi stessi modelli per differenze costruttive, di impostazioni e
così via. La tavolozza di colori che un dispositivo riesce a visualizzare
si chiama spazio colore, ma è necessario un modo di comunicare la
nostra volontà cromatica al dispositivo, cosa che avviene attraverso il
profilo colore. Queste corrispondono a tabelle di valori numerici che
descrivono lo spazio colore, i profili colore più diffusi sono quelli
ICC.
Siccome ogni dispositivo possiede un linguaggio suo proprio, sono
stati codificati alcuni profili standard, come tra i più famosi: sRGB,
Adobe RGB, ProPhoto RGB. Questi si basano su algoritmi
matematici, a differenza dei profili dipendenti dal dispositivo che si
basano sulla calibrazione dello stesso, e sono essenziali allo scambio
di dati.

Il metodo raster, che deriva dal latino


“rastrum” ovvero ratrello inteso come uno
strumento che crea linee parallele, indica il
metodo con cui vengono generate le immagini
su uno schermo a tubo catodico, le cui linee di
scansione ricordano i solchi tracciati da un
rastrello. Con i nuovi monitor la parola ha perso il suo significato
originale, andando a rappresentare la griglia di punti che ospitano i
pixel. Due principali aspetti caratterizzano la grafica raster, la
risoluzione e la profondità. La prima si riferisce alla densità di pixel
per pollice lineare (PPI), mentre la seconda indica la precisione in bit
per ogni singolo pixel per descriverne il colore(BPP).

La risoluzione si rivela un aspetto importante in quanto ci permette di


calcorare la dimensione di output in condizioni date, infatti la
risoluzione stessa dovrà essere adattata alla grandezza della stampa e
alla distanza a cui vogliamo che l’osservatore la guardi.
Una terza unità di misura ci risulta importante, LPI, ovvero lines per
inch, che si riferisce alle linee del retino tipografico che si applica alla
stampa offset e serigrafica tradizionale.
Di per sè la dimensione in pixel di una immagine è un valore più
importante della sua risoluzione , in quanto la risoluzione non ha nulla
a che fare con il primo parametro a livello digitale, e la sua modifica
non porta a un deterioramento dell’immagine. Spesso infatti
chiamiamo risoluzione cose che non lo sono, i dati dell’immagine
infatti non sono aspetti fisici dell’immagine, mentre i pixel sono la
parte materiale della foto, che accende o spegne i suoi subpixel in base
alle indicazioni che forniamo. Infatti la risoluzione va a intaccare le
dimensioni dell’immagine solo una volta in uscita, in quanto questi
sono oggetti e non corrispondono ad unità di misura.
I valori PPI e DPI non sono connessi fra loro, in quanto il primo si
riferisce solamente ai dispositivi e ai file mentre la seconda sigla
indica le gocce di inchiostro contenute in un pollice lineare, e si
riferisce alla risoluzione di stampa.

Potrebbero piacerti anche