Sei sulla pagina 1di 8

FOTOGRAMMETRIA DIGITALE

Cos’è un’immagine digitale?

Le immagini digitali sono costituite da una serie di informazioni numeriche memorizzate su supporto
magnetico secondo le specifiche di un determinato formato di memorizzazione.
Il dato primario per la fotogrammetria, cioè l’immagine fotografica, diventa quindi comprensibile anche per
un calcolatore e questo introduce nuove possibilità.
Lo scopo finale delle ricerche iniziate con la nascita della fotogrammetria digitale (inizio degli anni ’80) è il
raggiungimento della completa automazione del processo fotogrammetrico.

Nelle immagini digitali la radiometria (cioè il contenuto fotografico dell’immagine) viene registrato sotto
forma di numeri.
Tale rappresentazione (RASTER) è conseguita suddividendo l’immagine fotografica in elementi di dimensione
finite (pixel) e associando a ciascuno di essi il numero che rappresenta la radiometria della porzione di
immagine contenuta.

Immagine originale Immagine RASTER

Si possono infatti distinguere alcune sue rappresentazioni convenzionali:

• Considerando ad esempio un disegno al tratto in bianco e nero, quindi formata da due soli colori,
possiamo esprimere la radiometria attraverso due soli numeri interi (bianco=0, nero=1); la
registrazione della radiometria richiede un solo bit di memoria.

• Se l’immagine è in toni di grigio (ad esempio


una fotografia in bianco e nero) la radiometria
può essere espressa con un numero intero che
varia da 0 (nero) a 255 (bianco). I valori intermedi
agli estremi rappresentano le varie gradazioni
di grigio.

• Se l’immagine digitale deve rappresentare un oggetto a colori ci sono due possibilità di


rappresentazione:

Immagine true color (RGB)


Ogni colore viene visto come la somma
di tre bande (rosso, verde, blu). Ogni banda
è rappresentata da 256 valori che variano da
0 (=assenza di colore)a 255 (=saturazione
del colore). La radiometria di un pixel viene
rappresentata da tre numeri interi che esprimono
le saturazioni delle tre bande principali.

Immagini a palette di colore


Dall’immagine dell’oggetto vengono selezionati
I 256 colori che ne consentono la descrizione più
Accurata. Ad ogni colore viene associato un nome
Rappresentato da un intero compreso tra 0 e 255.
Ogni colore è descritto da una tavolozza (palette)
con le tre componenti RGB. La radiometria di un
pixel viene rappresentata da un numero intero
(nome del colore). Questo numero è il puntatore
alla tavolozza che contiene la descrizione del
colore.

Il pixel, dal momento che risulta essere la parte elementare che costituisce l’immagine, è di conseguenza
inscindibile. Inoltre, avendo una posizione fissata a priori non variabile nel tempo, ci consente di pensare ad
un uso metrico dell’immagine digitale.
Ogni pixel è infatti visibile come elemento di una j
matrice e quindi può essere individuato (0,0)
univocamente da due numeri interi che ne
rappresentano la posizione in riga e colonna
all’interno della matrice.
(i,j)
Ne consegue che, considerando l’origine della i
matrice posizionata in alto a sinistra, un pixel può
essere individuato attraverso due numeri i e j.

Pixel

CONTENUTO METRICO DI UNA IMMAGINE DIGITALE

Occorre fissare un sistema di riferimento che consenta di associare a ogni pixel coordinate reali. In tale
sistema il pixel assume dimensione finita.
Si può determinare una corrispondenza biunivoca tra la posizione del pixel all’interno dell’immagine e il
sistema sopra definito.

∆x/2 ∆x
i xi
xi
∆y/2
i = int( + 0.5)
∆x i
j
yi
∆y
yi = ∆y * j j = int( + 0.5)
∆y i

x i baricentro = i ⋅ ∆x i
yi xi = ∆x ∗ i
gij y i baricentro = j ⋅ ∆y i
La tradizionale misura di coordinate x e y è sostituita dalla individuazione del pixel all’interno della matrice
immagine. Tale posizione si traduce in coordinate reali con le relazioni sopra indicate.
La posizione del pixel è fissa per definizione all’interno dell’immagine ed è il sistema di acquisizione (tramite
strumento di ripresa oppure attraverso una scansione) che associa a un determinato pixel il valore
radiometrico corrispondente.
Ne consegue che non si eseguono misure di coordinate su una immagine digitale perché queste sono già
state fatte dal sistema di acquisizione.

La DENSITA’ DI CAMPIONAMENTO o RISOLUZIONE


fornisce, attraverso il suo valore, la possibilità di valutare la
dimensione del pixel poiché essa indica il numero di pixel
25400 25400 che sono contenuti in una opportuna e prestabilita unità di
d pix = dpi = lunghezza.
dpi d pix La risoluzione viene generalmente indicata in dots per inch
(DPI) ossia il numero di pixel in un pollice (=25.4 mm).
I pixel utilizzati sono generalmente quadrati quindi una
immagine digitale ha la stessa risoluzione in entrambe le
direzioni del sistema di riferimento interno.

Qual è la risoluzione ottimale nei riguardi di una corretta visualizzazione?


Occorre considerare tre fattori:
1. il potere sparatore dell’occhio umano (6-8 lp/mm = 300-400 dpi)
2. il contenuto informativo delle tradizionali fotografie (80 lp/mm = 4000 dpi)
3. le possibilità di visualizzazione dei monitor (circa 1000 dpi)

Risoluzione Numero di pixel Occupazione di memoria Occupazione di


per immagini ad 8 byte memoria per
(livelli di grigio) immagini RGB
(palette di colori)
100 dpi 810000 pixel 0.8 Mb 2.4 Mb
400 dpi 12960000 pixel 13 Mb 39 Mb
600 dpi 29160000 pixel 28.5 Mb 85.5 Mb
1000 dpi 81000000 pixel 81 Mb 243 Mb
1200 dpi 116640000 pixel 113.9 Mb 314.7 Mb
2400 dpi 466560000 pixel 455.6 Mb 1.4 Gb
4000 dpi 1296000000 pixel 1.3 Gb 3.9 Gb.

Immagine 9’’x9’’

FORMATI DI MEMORIZZAZIONE

I dati numerici che rappresentano l’immagine digitale devono essere memorizzati con ordine e secondo una
organizzazione che consenta di ricostruire fedelmente l’immagine. L’insieme delle regole che governano la
memorizzazione viene denominato FORMATO.
Il formato per registrare un’immagine digitale deve:
• garantire la minima occupazione di memoria
• prevedere la possibilità di una compressione
• essere di pubblico dominio
• consentire la memorizzazione di tutte le convenzioni radiometriche

I formati più diffusi in ambito fotogrammetrico sono il TIFF e il JPEG.


Il formato TIFF consente una compressione non distruttiva (LZW) che su immagini RGB consente di
dimezzare l’occupazione di memoria.
Il formato JPEG può memorizzare le immagini digitali secondo due classi operative:
- una tecnica LOSSY ovvero con perdita di informazione senza una visibile perdita della qualità
dell’immagine ricostruita;
- una tecnica LOSSLESS ovvero senza perdita di informazione come la tecnica applicata per i TIFF.

Il degrado geometrico che consegue ad una compressione LOSSY si manifesta nei modi seguenti:
1. effetti di sfociamento dei bordi radiometrici
2. spostamenti di oggetti all’interno dell’immagine.
Questi effetti possono essere locali o globali e la loro entità è fortemente commisurata alle variazioni di
intensità luminosa dell’immagine e al rapporto di compressione selezionato.
La fotogrammetria digitale nasce agli inizi degli anni '80 e il suo sviluppo in questi ultimi anni ha assunto
una rapidità impressionante legata all'evoluzione delle tecnologie elettroniche e informatiche.
Con il termine di fotogrammetria digitale, s’intende quell'insieme di tecniche che consentono di ricavare
informazioni sulla forma e sulle dimensioni di un oggetto a partire da una coppia d’immagini prospettiche,
acquisite in forma digitale.

Le novità, rispetto alla fotogrammetria analitica, sono molteplici:

Sono usati dati iniziali completamente diversi: non si trattano fotografie tradizionali ma immagini
digitali, matrici di numeri poco comprensibili per l’uomo, ma estremamente chiare e facili da
utilizzare per un calcolatore.

Nella fotogrammetria tradizionale il restitutore analitico costituisce lo strumento di misura,


complesso e costoso; nella fotogrammetria digitale la misura viene effettuata dallo strumento di
acquisizione. Il restitutore digitale può essere cosi meno complesso, costituito da un PC standard
con possibilità di visione stereoscopica.

Nella fotogrammetria analitica, è necessario usare ancora strumenti complessi quali i restitutori
analitici per tradurre coppie di fotogrammi in coordinate numeriche, direttamente utilizzabili dal
calcolatore per la soluzione dei vari problemi d’orientamento o di restituzione. Nella fotogrammetria
digitale tutto ciò non è più necessario perché l'immagine digitale contiene già, al suo interno, tutte
le informazioni metriche necessarie. Si può affermare, che un calcolatore può “leggere”
un'immagine digitale; sarà sufficiente insegnare al calcolatore come individuare una coppia di punti
omologhi per far sì che si possano eseguire automaticamente (vale a dire senza alcun intervento
umano) gran parte delle operazioni del processo fotogrammetrico.

Sono già presenti sul mercato numerosi software di fotogrammetria digitale così come sono ormai
diffusissimi programmi di raddrizzamento e ortoproiezione digitale.
L'uso fotogrammetrico delle immagini richiede la possibilità di determinare le coordinate dei suoi punti in un
opportuno sistema di riferimento.
Nel caso d’immagini fotografiche il problema è risolto grazie alla presenza delle marche fiduciali (immagini
metriche), dei reseau (immagini semimetriche) o del sistema di riferimento dello stereocomparatore
(immagini non metriche).
Nel caso delle immagini digitali il problema è di più semplice soluzione, occorre innanzi tutto chiarire il
concetto di pixel che è l'unità elementare dell'immagine digitale, quindi, è possibile assumere la dimensione
del suo lato come unità di misura. Questo significa che ogni punto interno ad un pixel è individuato dai
numeri di riga e colonna del pixel d’appartenenza.
Ogni pixel ha, per sua definizione, una posizione fissa e nota (figura 1). La posizione di ognuno è definita da
due numeri interi che rappresentano il numero della riga e il numero della colonna cui appartiene.Quando è
necessario trasformare le coordinate riga e colonna in una coppia di coordinate riferite a un sistema avente
origine sul vertice in alto a sinistra dell'immagine, l’asse delle x è orientato positivamente nel verso
crescente delle colonne e l’asse delle y è orientato positivamente nel verso crescente delle righe.
Convenzionalmente si assegnano ad ogni pixel le coordinate del suo baricentro.In un’immagine digitale, gli
elementi dell’orientamento interno (coordinate del punto principale, distanza principale, distorsione) sono
definiti in pixel. In tal senso, il punto principale è individuato dai numeri di riga e colonna del pixel che lo
contiene.
i indice di riga
j indice di colonna
gij contenitore
dell’informazione
radiometrica
ξ0 - η0 coordinate immagine
PP punto principale

Fig.1 – Contenuto metrico di un’immagine digitale

Il sistema fotogrammetrico digitale


Il sistema fotogrammetrico, ossia l’insieme di hardware e software per la gestione delle fasi d’acquisizione,
orientamento e restituzione, è costituito da due unità logicamente separate: l'unità d’acquisizíone e l'unità di
restituzione. Le funzionalità di queste due unità del sistema fotogrammetrico digitale possono essere così
definite:

Unità di acquisizione: deve fornire l'immagine digitale in modo che, ad ogni pixel, possa essere
immediatamente associata la coppia di coordinate immagine riferite al sistema fiduciale, già corrette dai vari
errori sistematici (distorsioni ottiche, calibrazione dello scanner, etc.)

Unità di restituzione: deve gestire le immagini digitali provenienti dal sistema di acquisizione, consentendo
all'utente di eseguire tutte le operazioni di tipo fotogrammetrico (orientamenti relativo e assoluto,
restituzione punto-punto, restituzione a curve di livello, rilievo automatico di profili, sezioni e DEM,
triangolazione fotogrammetrica, ortoproiezione).
La struttura hardware e software delle unità dipende in modo determinante dalle risoluzioni geometrica e
radiometrica massime, necessarie a garantire il raggiungimento delle precisioni finali richieste nella pratica
operativa.
Tra i sistemi fotogrammetrici digitali è possibile individuare una nuova famiglia di strumenti: i sistemi
fotogrammetrici digitali a basso costo (Low Cost Digital Photogrammetric System LC-DPS) assemblati
usando principalmente hardware PC standard, facilmente reperibili sul mercato, e dotati di una serie
d’accorgimenti d’ottimizzazione atti ad incrementarne le prestazioni.

L’unità di acquisizione
L’unità di acquisizione deve consentire di realizzare le prese secondo lo schema progettato e di fornire tali
prese in formato digitale in modo che ad ogni pixel dell’immagine risultante, l’unità di restituzione possa
direttamente associare le coordinate di prospettiva centrale dei punti ripresi.
Le unità di acquisizione possono essere classificate in base alla natura dell’immagine originale. Si parlerà di
unità di acquisizione diretta quando l’immagine originale è generata da camere fotografiche a dorso digitale,
mentre si parlerà di unità di acquisizione indiretta quando l’immagine originale è costituita da una fotografia
tradizionale, che viene convertita, in un secondo tempo, in formato digitale mediante scanner. L’immagine
digitale che viene trasmessa dall’unità di acquisizione all’unità di restituzione può presentarsi secondo due
modalità:
Immagine originale collegata ad un file di calibrazione, nel quale sono riportati i valori dei parametri
che consentono di passare automaticamente dai numeri di colonna del pixel considerato
dell’immagine originale, ai numeri di riga e colonna che il medesimo pixel avrebbe avuto se
generato da un processo ideale di prospettiva centrale;
Immagine ricampionata a partire dall’immagine originale tenendo conto dei sistematismi noti o
determinati in precedenza.

La prima modalità presenta il vantaggio della rapidità con la quale il sistema di acquisizione può trasmettere
l’immagine al sistema di restituzione; le modalità di trasmissione dei parametri di calibrazione devono
rispettare le specifiche di tutte le unità di restituzione utilizzabili.
La seconda modalità presenta il vantaggio di poter essere gestita immediatamente da un qualsiasi tipo di
unità di restituzione; il ricampionamento che l’immagine originale subisce comporta generalmente una
perdita di contrasto e l’impiego di tempi macchina non trascurabili.
Per quanto riguarda i formati di memorizzazione delle immagini vengono utilizzati formati non compressi
(TIFF, BMP, TGA) o compressi (TIFF, JPEG) purché i rapporti di compressione siano contenuti in valori non
inferiori a 1/10; oltre tale limite di compressione, infatti, la perdita d’informazione radiometrica inizia ad
influenzare in modo consistente il contenuto metrico dell'immagine.
Tale necessità di standardizzazione, consente all'utente di garantire la necessaria indipendenza dall'unità di
restituzione e la possibilità di sottoporre l'immagine ad operazioni di filtraggio con programmi commerciali
(PHOTOSHOP, CORELDRAW, ecc.), che consentono la riduzione di zone con illuminazione non adatta alle
successive fasi di restituzione (zone d’ombra o di parziale sovraesposizione) e l'esaltazione dei contorni.

L’unità di restituzione
L'unità di restituzione è un sistema informatico dotato di:
Un sistema di visione tridimensionale;
Un insieme di periferiche che permettono la collimazione tridimensionale;
Una o più unità di calcolo che gestiscono la movimentazione dell'immagine e permettono di
svolgere le procedure fotogrammetriche di orientamento e restituzione.
Storicamente, uno dei primi sistemi di visualizzazione stereoscopica è sicuramente il sistema anaglifico: esso
permette di ottenere una visione tridimensionale di modelli in toni di grigio. Un'immagine è visualizzata
secondo una sola componente cromatica (ad esempio il rosso) e l'altra secondo la componente cromatica
complementare (ad esempio il verde). Il modello si osserva mediante un paio di occhiali avente lenti che
permettono ciascuna il passaggio della componente cromatica relativa ad una sola immagine (ad esempio
una lente rossa ed una lente verde). In questo modo, ogni occhio percepisce un solo fotogramma e
permette di ottenere l’effetto stereoscopico. Con un monitor ed una scheda video che supportino la
modalità RGB a 24 bit, questa soluzione è facilmente realizzabile.
Per superare i limiti delle immagini a toni di grigio, occorre ricorrere alle più moderne tecniche che utilizzano
occhiali polarizzati.
Il sistema di visione stereoscopica mediante occhiali a polarizzazione attiva è basato sul principio
dell’otturatore a cristalli liquidi (LCS). Il monitor permette di visualizzare alternativamente due immagini alla
frequenza di 2X60 Hz. La separazione dell’immagine necessaria per la visione stereoscopica è garantita da
due otturatori attivi a cristalli liquidi; questi otturatori sono sincronizzati con il monitor per mezzo di un
generatore d’impulsi all’infrarosso, posto sopra lo schermo. Il segnale di sincronizzazione può essere
ricevuto per un’ampiezza di 170°, permettendo la visione a più utenti. Il monitor che visualizza il modello
dev’essere d’alta qualità, specialmente per supportare elevate frequenze di rinfresco dell’immagine (circa
120 Hz). La singola immagine è visualizzata con una frequenza di 60 Hz inferiore alla frequenza di
permanenza dell’immagine sulla retina (circa 70 Hz): questo comporta il tipico fenomeno d’instabilità
dell’immagine (sfarfallio), che affatica la vista dell’operatore. Il sistema di visualizzazione stereoscopica
mediante occhiali a polarizzazione passiva supera questo problema, infatti, sono utilizzati due monitor, uno
per ogni immagine, posti secondo un angolo retto. Le immagini di questi monitor sono osservate
dall’operatore attraverso una lamina semi-riflettente posta secondo la bisettrice dell’angolo formato tra i
monitor. L’immagine proveniente dal monitor posteriore è trasmessa attraverso la lamina senza subire
variazioni, mentre l’immagine proveniente dal monitor laterale subisce una riflessione e pertanto il segnale
elettromagnetico associato risulta sfasato di π/2. Osservando le immagini mediante occhiali aventi lenti
polarizzate secondo direzioni ortogonali, si può ottenere la visione tridimensionale del modello. All’interno
del modello visualizzato con le tecniche appena descritte, occorre poter effettuare una collimazione
tridimensionale di punti. In analogia con i restitutori analitici, una soluzione economica è ottenibile mediante
un mouse, che simula il pantografo per i movimenti planimetrici, ed un trackball che permette di effettuare
la collimazione in quota in fase di restituzione e l’eliminazione della parallasse d’altezza in fase
d’orientamento relativo.

Il software dell’unità di restituzione


Il software dell'unità di restituzione è, in larga misura, del tutto simile a quello di un restitutore analitico. Le
uniche differenze sostanziali sono relative alle operazioni di input e output: non esistono encoder di lettura
delle coordinate immagine, nè motori per lo spostamento meccanico dei carrelli portafotogrammi.
Le collimazioni stereoscopiche possono essere fatte automaticamente o almeno perfezionate dal calcolatore
e le coordinate immagine dei punti omologhi vengono determinate in modo indiretto mediante un
procedimento di compensazione ai minimi quadrati.
I movimenti delle immagini per consentire l'eliminazione automatica della parallasse d'altezza e per la
collimazione di punti di coordinate note, sono realizzati mediante la visualizzazione di una porzione delle due
immagini sui monitor dell'unità di restituzione.
Molto importante in tutte le fasi di orientamento e di restituzione risultano gli algoritmi di collimazione
automatica (autocorrelazione).

L’autocorrelazione è un’operazione statistica con la quale si simula il processo fisico della collimazione
stereoscopica, ossia l’individuazione delle coppie di punti omologhi. Un restitutista che lavori su immagini
digitali, realizza tale operazione con precisione pari, al massimo, alla metà della dimensione del pixel.
L’autocorrelazione consente di superare tale limite fisico e di individuare la posizione dei punti omologhi con
un’incertezza di circa un ordine di grandezza inferiore, garantendo il raggiungimento delle precisioni tipiche
di un restitutore analitico di medie prestazioni.Si possono prevedere due procedimenti di autocorrelazione: il
primo in grado di effettuare la ricerca dei punti omologhi con sensibilità pari alla dimensione del pixel
(autocorrelazione a pixel intero) ed il secondo in grado di affinare tale collimazione analitica con sensibilità
inferiore alla dimensione del pixel stesso (autocorrelazione subpixel).

(Immagini e testo sono tratti dalle lezioni del prof. F. Rinaudo – Corso di Fotogrammetria)

Potrebbero piacerti anche