Sei sulla pagina 1di 6

Lenti

Immagine virtuale

Un’immagine virtuale è l’immagine che si forma nel piano oggetto, ovvero quando i raggi di costruzione
fondamentale non convergono nel piano immagine e quindi si incontrano i prolungamenti nel piano
oggetto. Questo si verifica quando l’oggetto si trova tra la lente e il fuoco.

Imaging lenses

Diaframma

Apertura numerica

D 1
N .A. = senθ = =
f ⋅2 2 ⋅ f /#

E’ un parametro dimensionale che rappresenta il massimo angolo utile nel sistema a ricevere luce.
Esempio A che valore di f/# corrisponde N.A.=0,5
Corrisponde un valore di f/# = 1. Il diaframma sarà completamente aperto, ma avrò sempre
un’oscuramento della radice di 2

Esempio data una lente con f/#=2 e area della lente attraversata dalla luce A=122,7(mm2), quanto
vale la sua lunghezza focale?

f /# = 2

A
R f /# = 2 = = 6, 25mm
π
D = 2 ⋅ R ⋅ f /# = 25mm
1
N .A. = = 0, 25
2 ⋅ f /#
D
f= = 50 mm
2 ⋅ N .A.

Profondità di campo

So1 = la posizione sul piano oggetto più lontana dalla lente alla quale posso ottenere un’immagine
con la massima defocalizzazione accettabile

So2 = la posizione sul piano oggetto più vicina dalla lente alla quale posso ottenere un’immagine
con la massima defocalizzazione accettabile

La profondità di campo è la quantità di immagine (variazione tra So1 e So2), senza rimettere a fuoco,
cioè quanto mi posso spostare nel mondo reale riuscendo a fare un’immagine con livelli di
defocalizzazione entro un certo livello ammissimibile.
Depth of field e f/#

Cambiando f / # di una lente cambierà il DOF, in particolare aumentando f/# aumenta la profondità di
campo ma si riduce la luminosità dell’immagine (contrasto si abbassa e il rumore aumenta).

Diffrazione e f/#

L’effetto diffrattivo si apprezza al crescere di f/# perchè la diffrazione aumenta al diminuire dell’apertura
focale.

La diffrazione ha influenza sulla risoluzione spaziale, perchè se i due punti oggetto si avvicinano troppo
i due spot si fondono e il sistema non è più in grado di distinguerli e quindi di risolvere il dettaglio.
All’aumentare della diffrazione diminuisce la risoluzione spaziale.
Risoluzione del dettaglio

La risoluzione limite è la minima distanza che ci consente di risolvere il dettaglio, ovvero i Line Pair.
Per distinguere i quadrati, è necessaria una certa quantità di spazio tra di loro, almeno un pixel. Questa
distanza minima è la risoluzione limite del sistema. Si misura come 2 volte il pixel size del sensore.
Questa stima non tiene conto però del fatto che le lenti reali non producono transizioni nette bianco-
nero a causa della diffrazione, aberrazioni e apertura numerica.

All’aumentare della frequenza si accompagna anche una diminuzione del contrasto. L’ MTF
(Modulation Transfer Frequency) misura la capacità della lente di trasferire il contrasto ad una
particolare frequenza spaziale dal piano oggetto al sensore sul piano immagine.

Incorpora in una sola specifica i dati di risoluzione e contrasto.

Risoluzione nello spazio immagine/sensore

La frequenza più alta risolvibile da un sensore, la frequenza di Nyquist, è due pixel o una coppia di
linee. La risoluzione del sensore, indicata come risoluzione dello spazio dell’immagine del sistema, è
calcolata moltiplicando la dimensione dei pixel (P_S), di solito in unità di micron, per 2 (per creare una
coppia), e dividendo tale dimensione per 1000 per convertirla in mm:

1000
[ ]
Lp
fN yquist−sensore =
2 ⋅ P _S [μm] mm

Frequenza di Nyquist nello spazio oggetto

S_S
M=
F oV
fN yquist−oggetto = fN yquist−sensore ⋅ M
1
Lp−oggetto =
fN yquist−oggetto
[ ]
Lp−oggetto mm
Rs−oggetto =
2 px

La minima dimensione risolvibile nel piano oggetto è:

dminima = Rs−oggetto ⋅ 1 pixel [mm]


MTF della lente

La lente reale non riproduce le transizioni nette bianco-nero che abbiamo usato per introdurre la
risoluzione del sistema. All’aumentare della frequenza si accompagna anche una diminuzione del
contrasto.

L’ MTF (Modulation Transfer Frequency) misura la capacità della lente di trasferire il contrasto ad una
particolare frequenza spaziale dal piano oggetto al sensore sul piano immagine.

Incorpora in una sola specifica i dati di risoluzione e contrasto.

Distorsione della lente

La distorsione significa un cambio di magnificazione lungo il piano immagine che si traduce in


un’aberrazione geometrica. La distorsione non toglie informzaioni ed è compensabile algoritmicamente.

AD − P D
% Distorsion = ( ) ⋅ 100 %
PD
E’ possibile avere tre tipologie di distorsione:

Distorsione a barile: è una distorsione negativa e genera una diminuzione delle dimensioni degli
oggetti nella scena

Distorsione a cuscino: è una distorsione positiva e genera una aumento delle dimensioni degli
oggetti nella scena
Distorsione prospettica:è una distorsione non più generata dalla lente come le due precedenti ma
dovuta ad un errata orientazione del sistema di visione, ovvero il piano immagine e il piano oggetto
non sono paralleli.