Sei sulla pagina 1di 3

Sistemi di Visione

Catena di misura di un sistema di visione

La catena di misura di un sistema di visione è costituita da:

Misurando: uno o più oggetti di cui si vogliono conoscere una più informazioni.

Lente: ha il compito di focalizzare i raggi luminosi della scena sul sensore.


Sensore: è composto da una matrice di un certo numero di photosite nell’ordine dei µm. Ogni
photosite composto da silicio, quando è esposto alla luce produce carica elettrica. Serve quindi a
trasformare la luce in un segnale elettrico (tensione/corrente)
Veicolatore: sistema che attraverso diversi protocolli o interfacce di comunicazione permette di
trasportare l’informazione acquisita all’hardware di elaborazione
Trasformatore di dominio: tipo di immagine trasportata, ad esempio in bianco e nero o a colori, il
tipo di dinamica, se a 8 o 10 bit o se un’immagine 2D o 3D
Pre-processing: prima che l’immagine venga elaborata da un metodo di visione serve elaborare i
dati in modo che soddisfino le specifiche di progetto.
Estrattore: estrarre l’informazione a cui sono interessato e considerare tutto il resto rumore.
Caratteristiche di un sensore

Photo site (Pixel Size)


E’ il più piccolo spazio all’interno della matrice del sensore composto da un materiale fotosensibile. Le
sue dimensioni sono nell’ordine delle decine dei µm. Solitamente è un pixel quadro, ovvero che ha le
due dimesioni uguali, è la condizione più frequente per evitare distorsioni.

N.B. Non è il numero di pixel che fa la differenza in modo assoluto, bisogna verificare la dimensione
dei pixel (pixel piccoli catturano poca luce).

Molti pixel non servono se il sensore è piccolo; la numerosità dei pixel non basta, bisogna vedere la
dimensione dei pixel, infatti pixel piccoli catturano poca luce, è ovvio quindi che se la quantità di silicio
esposta alla luce è poca la corrente generata sarà bassa e quindi l’immagine risulterà più scura.

Frequenza di Nyquist: è la frequenza spaziale massima che consente di risolvere il dettaglio. In


un sistema di visione ne determina il massimo dettaglio risolvibile

1000
[ p ]
L
fN yquist =
2 ⋅ Psize [μm] mm

FPS (Frame per second)

Rappresenta il numero di frame acquisiti per secondo. (150 FPS equivalgono a un frame ogni 6ms)
Sensor Size

Rappresenta la dimensione del sensore. E’ importante perchè insieme alla lente determina il campo
inquadrato. Inoltre è importante per evitare il problema del vignetting nella scelta della lente e in base
alla dimensione del pixel posso ricavare la risoluzione spaziale Rs (mm/pixel) che determina la visibilità
del dettaglio.

Image Circle

Rappresenta il diametro dell’area circolare su cui la lente proietta l’immagine.


L’image circle si calcola come 3/2 della diagonale del sensore.
N.B. E’ importante che la diagonale del sensore sia inferiore ai 2/3 dell’image circle della lente,
altrimenti si verifica il fenomeno di vignettatura.

Il fenomeno della vignettetura è quando la lente oscura il campo inquadrato del sensore.

Risoluzione spaziale

E’ il parametro principe per il dimensionamento di un sistema di visione perchè rappresenta i mm al


pixel ed è quindi il parametro di partenza per dimensionare un sistema di visione. Questo perchè è
direttamente collegato alle specifiche che si vogliono ottenere dal misurando.

N.B. Più alta è la risoluzione spaziale, maggiore sarà il numero di pixel nell’immagine e
corrispondentemente più piccola sarà l’area resa da un singolo pixel. Ne segue chele immagini ad alta
risoluzione hanno un maggiore livello di dettaglio.

Target di misura
Dato che in un target di misura è noto la distanza tra i merker bisogna ricavare le distanze tra i merker
in pixel . La risoluzione spaziale si può calcolare come il rapporto tra la dimensione in pixel e la
dimensione reale.

Rs [ ]=
mm F oVx
px Npixel