Sei sulla pagina 1di 36

Indice generale

Formazione delle Immagini.................................2 Filtro Mediano...............................................14


Acquisizione dell'immagine............................2 Operatori di Sharpening................................14
Processo di acquisizione dell'immagine.....2 Operatore di Sharpering Basato sulla derivata
Processo di formazione delle immagini......3 seconda..........................................................15
Percezione delle Immagini...................................3 Operatore Laplaciano....................................15
Concetti di base....................................................3 Filtri di Sharpening Unsharp Masking & High
Image Enhancement.............................................3 Boosting.........................................................16
Caratteristiche..................................................3 Uso della derivata prima................................17
Formula Generale............................................4 Operatori di Smoothing Sommario...............18
Operatori Puntuali Generale............................4 Operatori di Sharpening Sommario...............18
Trasformazioni dei valori di grigio.............4Segmentazione delle immagini..........................19
Applicazioni................................................4 Segmentazione di Immagini..........................19
Trasformazioni puntuali di base..................5 Approcci alla segmentazione.........................20
Operatori Puntuali...........................................5 Parallelismo Enhancement-Edge detection...20
Negativo di un immagine............................5 Metodi basati sulla discontinuit (Basati sui
Trasformazioni logaritmiche.......................5 contorni)........................................................20
Trasformazioni Logaritmiche.....................5 Operatori utilizzati nell'ambito della
Contrast Stretching.....................................5 segmentazione...............................................21
Contrast Stretching con funzioni lineari a
Determinazione di Punti Isolati.....................21
pezzi............................................................6 Procedimento.................................................21
Gray level/intesity Slicing..........................6 Estrazione di linee.........................................21
Bit Plane Slicing.........................................6 Bordi (edges) e Contorni...............................22
Istogramma di un immagine............................6 Operatori........................................................23
Definizione.................................................6
Determinazione dei contorni basata su
Istogramma normalizzato...........................6
operatori-gradiente....................................24
Istogramma cumulato.................................7 Uso del Laplaciano nella segmentazione......24
Equalizzazione dell'istogramma......................7 Uso del Laplaciano della Gaussiana per la
I passi della procedura di equalizzazione. . .8 segmentazione...............................................25
Matching di istogramma.............................8 Determinazione dei Contorni Linking i bordi
Operazioni Aritmetiche con le immagini........8 .......................................................................26
Somma di Immagini...................................9
Tecniche di Linking (locali)......................26
Sottrazione di immagini..............................9 Segmentazione d'immagini Approccio per
Operazioni insiemistiche...............................10 regioni............................................................26
Operatori Logici............................................10 Thresholding [Multilevel thresholding]........26
And, Or.....................................................10 Algoritmo iterativo per definire la soglia
Trasformazioni Spaziali.....................................10 globale...........................................................27
Trasformazioni spaziali mediante Operatori
Local, Adaptive Thresholding.......................27
Locali.............................................................10 Operatori derivativi nel Tresholding.............28
Filtri...............................................................10 Determinazione di Regioni............................28
Filtri Lineari - Convolutivi............................11 Region Growing............................................28
Soluzioni con la maschera sui bordi..............12 Tecniche di Split & Merge.........................29
Operatori di Smoothing : Filtri passa-basso. .12
Split Merge [Slide 33]...............................29
Applicazioni..............................................13
Merge [Slide 35].......................................30
Sogliatura.......................................................13Il Colore.............................................................30
Filtro Gaussiano.............................................13

Formazione delle Immagini


relazione che sussiste fra la scena e limmagine prodotta sul piano sensibile
Coinvolge due aspetti:

Aspetti Geometrici
Spiegano su quale punto del piano-immagine (bidimensionale, 2D) va a cadere un punto
della scena (tridimensionale, 3D)

Aspetti fisici
Spiegano il valore di Brightness(intensit luminosa) di un punto dell'immagine in
funzione dell'illuminazione della scena e delle propriet della superficie

Acquisizione dell'immagine
E il processo che porta dallimmagine prodotta sul piano sensibile del dispositivo di imaging a
quella disponibile nella memoria del calcolatore
[Esempio] Un semplice modello di formazione delle Immagini

La scena illuminata da una sorgente puntuale.

Loggetto nella scena riflette la radiazione incidente.

Il dispositivo di Imaging /Camera memorizza la radiazione riflessa e incidente sul piano


immagine per mezzo di materiale fotosensibile.

Data una scena e un piano vedremo che

Un punto della scena incide su punti diversi del piano immagine

Un punto del piano immagine colpito da raggi provenienti da punti diversi della scena

Il sistema di imaging che deve riprodurre un'immagine ha il ruolo di convogliare i raggi su un


dispositivo di rilevazione in modo che ad un punto della scena corrisponda uno ed un solo punto del
piano immagine.
Bisogna risolvere come far cambiare direzione ai raggi in modo che un fascio divergente diventi
convergente Es. Pinhole Camera: scatola con un foro minuscolo.

Processo di acquisizione dell'immagine

Per formare unimmagine occorre disporre di un sistema di rivelazione

Nel caso della visione naturale il sistema di rivelazione la retina, su cui troviamo
particolari sensori: i coni per la visione diurna e i bastoncelli per la visione notturna

Nella visione artificiale o pi semplicemente nei sistemi di imaging tecnologici occorre


disporre di matrici di rivelazione in cui sono disposti i sensori

Processo di formazione delle immagini


(nel caso in cui la sorgente il campo elettromagnetico) il pixel ha il compito di assorbire tutta la
luce ( i fotoni ) che incide su di esso e di generare elettroni liberi che in questo caso sono detti fotoelettroni.
La generazione di un foto-elettrone allinterno di un singolo pixel avviene perch un atomo, della
sostanza di cui fatto il pixel, assorbe un fotone e lenergia di questo fornita ad uno dei suoi
elettroni che cos si pu allontanare dal resto dellatomo e diventare un foto-elettrone libero.
La rivelazione di unimmagine consiste allora nel conteggio, per ciascun pixel, di tutti gli elettroni
liberi generati durante lesposizione.
Esistono altre cause, indipendenti dalla quantit di luce assorbita dal singolo pixel, di generazione di
elettroni liberi. La principale tra queste la stessa temperatura di lavoro a cui si trova il pixel, in
quanto lagitazione termica produce di per s elettroni liberi. Nel processo di rivelazione
dellimmagine questi elettroni termici sommandosi ai foto-elettroni costituiscono una fonte di
rumore rispetto al segnale vero e proprio costituito dai foto-elettroni.
Formazione Immagini Slide 18...

Percezione delle Immagini


Concetti di base
Image Enhancement

Obiettivi:
facilitare e potenziare il processo di valutazione ed interpretazione di un immagine
da parte di un umano
per il riconoscimento visuale

Si opera trasformando i livelli di grigio


compensa deterioramenti della qualit
rende pi nitidi ed esalta i dettagli
eliminare effetti indesiderati

Caratteristiche

La scelta del metodo di enhancement dipendente dal problema e dalla natura


dell'immagine

Non esiste una teoria generale, una soluzione si raggiunge con schemi trial and error

Se l'enhancement finalizzato ad un'ispezione visuale il criterio di bont del metodo


essenzialmente soggettivo e/o dipendente dal contesto

preservano la struttura dell'immagine.

Formula Generale
g( x , y )=T [f ( x , y)]

f(x,y) : immagine di input

g(x,y) : immagine di output (elaborata)

T : operatore su f con dominio di definizione un intorno di (x,y)

T si dice operatore puntuale se l'intorno su cui opera ha dimensioni 1x1, ovvero considerano
unicamente il singolo pixel.
T si dice operatore locale se l'intorno su cui opera ha dimensioni maggiori di 1x1.
T si dice operatore algebrico/logico se opera su un set di immagini di input.

Operatori Puntuali Generale


T si dice operatore puntuale se l'intorno su cui opera ha dimensioni 1x1, ovvero considerano
unicamente il singolo pixel.

Trasformazioni dei valori di grigio

Sono rappresentabili in forma tabellare, di grafico (Look Up Table)

Il risultato dipende solo dal valore di grigio del punto dell'immagine originale

Il risultato di ciascun passo dell'elaborazione pu essere registrato sull'immagine stessa a


sostituzione del valore originale del pixel elaborato

Applicazioni

Rimozione degli effetti di non linearit del sensore di acquisizione

correzioni preliminari al display delle immagini


per mantenere la corrispondenza tra valori di luminanza del pixel e brillanza di un
elemento del display oppure
per attribuire agli elementi di interesse dell'immagine un valore entro il range di
massima visibilit del dispositivo di display.

Espansione della dinamica dei livelli di grigio per far risaltare elementi dell'immagine
rappresentati in un intervallo ristretto

Sogliatura dell'immagine per la definizione dei contorni

Trasformazioni puntuali di base

Negativo

Lineari

Logaritmiche

Esponenziali

Operatori Puntuali
Negativo di un immagine
Un'immagine negativa semplicemente un'immagine con i valori dei pixels invertiti. In forma
analitica:
y = (L - 1) - x con L=256 per un immagine a 8-bit

Trasformazioni logaritmiche

In alcuni casi il range dinamico di un immagine (intervallo tra il pixel di valore pi basso e il
pixel di valore pi alto) eccede di molto le capacit di un dispositivo per la visualizzazione.

Scalando linearmente i valori il risultato che risultano visibili solo le parti chiare
dell'immagine.

La funzione di trasformazione lavora mappando un range ristretto di valori di bassa intensit


in un range pi ampio (dilatazione delle zone scure) e comprimendo i valori di alta intensit.

s = c log (1 + r) , con c costante ed r>=0

Trasformazioni Logaritmiche
s=cr
espansione della dinamica se <1
compressione della dinamica se >1
Usata per esempio per visualizzare su un monitor immagini.

Contrast Stretching

Obiettivo:
Aumentare il range di livelli di grigio presenti nell'immagine

Cause:
Immagini poco contrastate sono frutto di scarsa illuminazione durante l'acquisizione, ridotto
range dinamico nel sensore

Offrono molta flessibilit nella definizione della Trasformazione ma sono complessi da


definire per una specifica applicazione

l'analista deve specificare punti di controllo della trasformazione

Contrast Stretching con funzioni lineari a pezzi

ax , 0x r 1
y= b( xr 1)+s 1, r 1xr 2
c(xr 2)+ s 2, r 2xL1
Implementazione pi semplice:
Pout =(P c)(

ba
)+ a
dc

per esempio in immagini a 8 bit [0,255]


Pout =( P c)(

255
)
dc

Gray level/intesity Slicing


Il Gray level slicing enfatizza linformazione contenuta in un range di livelli di grigio.

Bit Plane Slicing


Ogni piano immagine visualizza il contributo di uno specifico bit

Istogramma di un immagine
Listogramma dei livelli di grigio di unimmagine uno dei pi semplici ed utili strumenti
nellelaborazione delle immagini. Molte tecniche di miglioramento e segmentazione si basano
sulluso dellistogramma.

Definizione
Listogramma di unimmagine con livelli di grigio nellintervallo [0,L-1] una funzione discreta
della forma:
h(r k )=nk
dove:
r k il k esimo livello di griggio
nk il numero di pixels con il livello paria r k con 0K L1
Listogramma quindi una funzione che associa ad ogni livello il numero di pixel dellimmagine
aventi quel livello di grigio.
Con listogramma otteniamo uninformazione statistica dellimmagine ovvero la frequenza di
occorrenza dei livelli di grigio.

Istogramma normalizzato
p(r k )=

nk
MN

con M, N numero di righe e colonne della matrice immagine


6

L'istogramma normalizzato d una stima della probabilit di occorrenza dei livelli di grigio
nell'immagine descrivendo la frequenza di occorrenza dei valori di grigio nell'immagine.
La somma dei componenti di un istogramma normalizzato pari a 1

Istogramma cumulato
Si definisce istogramma cumulato la seguente funzione
rk

H (r k )= h( x )
x=0

Indica il numero di pixels nellimmagine che hanno valori di grigio minori o uguali a rk
nella sua forma normalizzata:
rk

P(r k )= p ( x)
x=0

la funzione ha un massimo asintotico uguale a 1


In termini statici
p(x) denota la funzione di densit di probabilit
P(rk) denota la funzione di Distribuzione Cumulativa

Equalizzazione dell'istogramma
Il metodo risponde alla seguente idea intuitiva:
un'immagine con valori di grigio che occupano l'intero range e sono equamente distribuiti dovrebbe
avere un buon contrasto.
Si tratta di un metodo di miglioramento del contrasto basato su criteri formali, automatico, senza
euristica
Il metodo formulato nel continuo; nel discreto ho un'approssimazione
Teniamo conto che ogni operatore che attua una modifica del contrasto, e quindi che opera sui
valori di grigio dell'immagine, comporta il riposizionamento delle barre dell'istogramma
dell'immagine iniziale. Le barre non sono modificate in altezza (al limite sovrapposte) e il nuovo
istogramma ha lo stesso numero di barre di quello iniziale
hi ( x )dx=h0 ( y ) dy dx , dy 0 , hi ( x)dx=h0 ( y) dy

Partendo dalla relazione hi ( x )dx =h0 ( y )dy


impostiamo che l'istogramma dell'immagine risultante sia uniforme, ovvero tutte le barre
abbiano la stessa altezza

Sia N il numero totale dei pixels

L numero di livelli di grigio

Ciascuna barra dell'istogramma imposto uniforme pari a N/L

SLIDE Enhancement2-14
xk

H (x k )= h i (x)
x=0

La trasformazione che permette di ottenere unimmagine con istogramma uniforme listogramma


cumulato dellimmagine originale moltiplicato per un fattore di scala.

I passi della procedura di equalizzazione

Calcolo dell'istogramma dell'immagine di Input hi

Calcolo dell'istogramma cumulato Hi

Calcolo del nuovo valore del pixel dell'immagine di Output Pout secondo la formulata
Pout = (L-1/N) Hi(pin)

Non sempre lequalizzazione porta a buoni risultati


Scarse prestazioni si hanno ad esempio quando
limmagine presenta ampie zone scure.

Matching di istogramma
Enhancement2 Slide 21...25

Operazioni Aritmetiche con le immagini


Sono operatori logici.
Descrizione

Somma: riduzione del rumore

Sottrazione: enfasi delle differenze

Moltiplicazione: mascheramento

Divisione: Mascheramento

Propriet:

Si effettuano pixel per pixel (in modalit sequenziale o parallela), ovvero gli operatori si
applicano a pixels con stesse coordinate, appartenenti a immagini diverse

Sottrazione ed addizione sono le operazioni aritmetiche pi utilizzate

Divisione e moltiplicazione hanno ruoli equivalenti (la divisione tra due immagini
riconducibile alla moltiplicazione di unimmagine per il reciproco dellaltra) riconducibili a
mascheramenti

Le immagini che compaiono come operandi nelle espressioni algebriche debbono avere la

stessa dimensione

Somma di Immagini
Riduzione del rumore, Image averaging
Definiamo rumore presente in un'immagine una componente del segnale acquisito che deriva dal
segnale ideale
Consideriamo l'immagine come matrice di pixels i cui valori sono dati da :
g(x,y) = f(x,y)+r(x,y) con r rumore presente nell'immagine
L'idea sottesa al metodo di ridurre il rumore sommando una serie di immagini g(x,y)
K

1
g ( x , y )= gi (x , y)
k i=1

possibile dimostrare che se il rumore scorrelato e con media 0 , il valore atteso di


g ( x , y ) f (x , y )
Scaling per visualizzazione di immagini somma:

Unimmagine a 8 bit ha un range di valori per ciascun pixel [0,255]

Sommando K immagini il range [0, kX255]. Per riportare i valori nel range di
visualizzazione lo scaling : g(x,y)/K

Sottrazione di immagini

Si ottiene calcolando la differenza tra i valori di tutte le coppie di pixels corrispondenti, nelle
due immagini di riferimento. C(x,y)=A(x,y)-B(x,y)

La sottrazione pu essere utilizzata per enfatizzare le differenze tra due immagini non
visibili percettivamente.

Nei prossimi due esempi che seguono viene sottratta ad unimmagine una stessa immagine a
cui sono stati azzerati nella codifica di ciascun pixel i 4 bit meno significativi

Scaling per immagini differenza:

Nella differenza di immagini il massimo range possibiledellimmagine risultato [-255,


+255].

Per riportare i valori nel range di visualizzazione sfruttando tutto il range dinamico lo
scaling consiste nel:
1. Considerare il minimo dellimmagine differenza
2. Sommare il suo negativo a tutti i pixel g(x,y)
3. Moltiplicare per la costante 255/Max dove MAX il massimo dellimmagine ottenuta al
punto 2

Per la moltiplicazione e divisione serve per schiarire o scure di un certo valore l'immagine

Operazioni insiemistiche

Si applicano a insiemi di pixels appartenti a regioni allinterno di immagini

Unassunzione implicita che i pixels appartenenti ad una regione (insieme) abbiano la


stessa intensit; non infatti definito il risultato dellintersezione sui valori di intensit

Operatori Logici

Operano anchessi pixel per pixel.

I pixels sono processati come stringhe di numeri binari; gli operatori si applicano dunque bit
a bit

Es: il Not applicato ad un pixel nero apparir bianco; il Not realizza la stessa funzione del
negativo di un immagine: s=255-t

And, Or
Sono utilizzati per mascherare e quindi isolare regioni di interesse nellimmagine (RoI).
AND: foto AND foto( tutto nero e rettango bianco) passa solo ci che ce nel rettangolo bianco
OR: foto OR foto ( tutto bianco e un rettangolo nero ) passa solo ci che c' nel rettangolo nero

Trasformazioni Spaziali
Trasformazioni spaziali mediante Operatori Locali
Gli operatori locali per trasformazioni spaziali, detti anche filtri operano sullinformazione spaziale
intesa come "variazione" dei livelli di grigio in un determinato intorno dell'immagine.
Frequenza Spaziale, Due definizioni:

E' la differenza fra il valore pi alto e pi basso in un certo intorno

E' il numero di cambiamenti nel valore di intensit per unit di distanza per ogni parte
dell'immagine

* se tutti i pixel sono uguali = frequenza nulla


**se un pixel vale zero e quello sotto vale tanto = frequenza del segnale alta
***se un pixel rispetto a un altro ha variazioni unitarie = frequenza del segnale bassa

Filtri
Alla base delle trasformazioni spaziali sottesa l'idea che un'immagine sia una sintesi di diverse
componenti spaziali a diversa frequenza.
10

La decomposizione dell'immagine in una somma di componenti a differenti frequenze alla


base dell'uso di filtri

Il processo inverso di sovrapposizione porta alla sintesi dell'immagine.

F(x,y) = LP (x,y) + HP (x,y)


con:

LP = low Pass filtering

HP = High Pass filtering

F = immagine di partenza

Tipi di filtri:

LowPass: enfatizza, lascia passare, le basse frequenze

HighPass: enfatizza, lascia passare, le alte frequenze

Le trasformazioni spaziali o filtri spaziali si basano su

operatori locali che operano direttamente nel piano immagine interessando il pixel e il suo
intorno

sul concetto di finestra mobile (maschera, template, Kernel)

Filtri Lineari - Convolutivi

Finestra monile: matrice di coefficienti e di valori da sommare

La finestra centrata sul pixel da elaborare

Le dimensioni della finestra in generale mxn (di solito quadrata)

Formula
m = 2a + 1
n = 2b + 1
w = matrice per trasformare
f = matrice
a

g( x , y )=

w( s , t )f ( x + s , y+ t )

s=a t=b

11

*Per semplicit di notazione


con:

wi = coefficiente della maschera

zi = valore del pixel immagine


mn

R= wiz i
i =1

Soluzioni con la maschera sui bordi

Si limita il movimento della maschera mantenendola ad una distanza di (n-1)/2 cio si


eliminano i bordi

si duplicano le righe/colonne dell'immagine

Allargo l'immagine con righe/colonne di zeri

Operatori di Smoothing : Filtri passa-basso

Si enfatizzano le basse frequenze e si attenuano le alte frequenze

determinano uno sfocamento dell'immagine, utile per vari scopi:


per eliminare piccoli dettagli
per ridurre il rumore
per attenuare falsi contorni per quantizzazione non accurata

Formula generale per operatori lineari di smoothing:


a

w ( s , t)f (x+ s , y +t)

g( x , y )= s=a t =b a

w( s , t)

s =a t=b

con

maschera m x n
m = 2a +1
n = 2b +1

Osservazioni:

Il denominatore costante

dal punto di vista algoritmico


si applica all'immagine l'operazione indicata al numeratore

12

all'immagine risultante si applica il fattore di scala indicato dal denominatore

Applicazioni

Eliminare dettagli

Eliminare rumore

Sogliatura
L'effetto di omogeneizzazione fatto a scapito di informazioni di bordo, "edges",ovvero di
discontinuit significative nell'immagine. Una soluzione la sogliatura.
Con

f immagine originale

g immagine filtrata

g immagine risultato

g (x , y)=g ( x , y ), se|g ( x , y )f (x , y )|<T


g I (x , y)=f ( x , y ), altrimenti

Tale metodo presenta svantaggi dovuti all'aumento del costo computazionale ed all'introduzione di
un metodo di sogliatura euristico (quale il valore di soglia ideale?)

Filtro Gaussiano
un filtro di smoothing il cui kernel ha coefficienti derivati da una funzione gaussiana
bidimensionale.

Gaussiana mono dimensionale:


x

1
G( x)=
e 2
2

Gaussiana bi dimensionale
2

x +y

1
G( x , y )=
e 2
2

La maschera a valori discreti del filtro gaussiano costruita campionando la gaussiana e


centrandola sul valor medio.
L'effetto del filtro di smoothing determinato dal valore del parametro sigma:

pi alto, pi altro l'effetto di smoothing

Occorre trovare un criterio per dimensionare la maschera cos che rappresenti una buona
approssimazione della gaussiana con determinati valori di sigma e mu
Tanto pi grande tanto meglio approssima la gaussiana, ma tanto pi complessa la computazione
13

dell'operatore di filtraggio.

7 x 7 per =1

11 x 11 per =1,5

13 x 13 per =2

19 x 19 per =3

si ottiene una buona approssimazione con la costante davanti alla maschera viaggiante pari a:
K=2
Esempio

1 4

Maschera viaggiante:
7

4 16 26 16 4
7 26 41 26 7
4 16 26 16 4
1 4 7 4 1
Coefficiente: 1/273

Filtro Mediano

Se l'obbiettivo ridurre il rumore piuttosto che livellare, omogeneizzare l'immagine, un


approccio alternativo agli operatori di smoothing lineare.

E' particolarmente efficace quando il rumore consiste in netti spikes e si vogliono preservare
le zone di transizione dell'immagine.

Si definisce valore mediano m di un insieme di valori il valore tale per cui met dei valori
dell'insieme sono minori (o uguali) ad m e met sono maggiori (o uguali).

Operativamente
si ordinano i valori compresi all'interno di una finestra
si individua il valore nella posizione centrale della sequenza e si assegna tale valore al
pixel centrale

Trasformazioni Spaziali1-2015.pdf SLIDE 30...32

Operatori di Sharpening
Sono basati sulla derivata prima e derivata seconda della funzione immagine.
Basati sulla derivata prima:

14

devono avere valore zero nei tratti omogenei dellimmagine

devono avere valore diverso da zero lungo le zone di transizione

Formula

df
=f ( x+ 1, y )f ( x , y )
dx
df
=f ( x , y +1)f (x , y )
dy

Basati sulla derivata seconda:

devono avere valore zero nei tratti omogenei dellimmagine

devono avere valore diverso da zero allinizio ed al termine delle zone di transizione

Devono avere valore pari a zero nelle zone di transizione con pendenza costante

Formula

d2 f
=f (x +1, y)+f ( x1, y)2 f (x , y)
dx 2
d2 f
=f (x , y+1)+f ( x , y1)2 f (x , y )
dy 2

Operatore di Sharpering Basato sulla derivata seconda


Siamo interessati ad un operatore che sia:

Isotropo ovvero che esalti le zone di alta frequenza in modo indipendente dalla direzione
delle discontinuit

Invariante per rotazione: ruotando limmagine ed applicando poi loperatore si ottiene lo


stesso risultato della rotazione dellimmagine a cui gi stato applicato loperatore

Operatore Laplaciano
Rosenfeld and Kak (1982) trovarono che loperatore piu semplice ed efficace basato sulla derivata
seconda il Laplaciano.
Nel continuo, per una funzione f(x,y) loperatore Laplaciano definito nel modo seguente:
2 f =

15

d f d f
+
d x2 d y2

un operatore lineare, possibile esprimerlo in termini di maschera convolutiva:


(Dimostrazione SLIDE 10,11 Trasformazioni-spaziali2-2015.pdf)

nell'intorno a 4 (come segue o con i seni invertiti)

0 1

1 -4

0 1 0
Nell'intorno a 8 (come segue o con i segni invertiti)
1 1

1 -8

1 1

Le maschere derivative hanno il nucleo convolutivo a somma nulla:


nelle zone omogenee dellimmagine (ovvero zone con pixels aventi lo stesso valore di
grigio), conformemente al comportamento atteso di un operatore derivativo assegnano ai
pixels un valore pari a valore zero
Sommando il risultato del Laplaciano con limmagine originale le zone di transizione del segnale
immagine risulteranno enfatizzate e le rimanenti inalterate
2
g( x , y )= f (x , y ) 2f ( x , y), se il centro della maschera negativo
f ( x , y) f ( x , y ), se il centro della maschera positivo

Maschere viaggianti
Senza elementi Diagonali
0 -1 0
-1 4 -1
0 -1 0
Con elementi diagonali
-1 -1 -1
-1 8 -1
-1 -1 -1

Filtri di Sharpening Unsharp Masking & High Boosting


Idea: un'immagine frutto del contributo di basse ed altre frequenze
F( x , y)=PassaAlto(x , y )+ PassaBasso (x , y )

Un effetto di sharpening si ottiene sottraendo ad un'immagine l'immagine stessa con un operatore di


Smoothing cio un filtro passa basso
PassaAltro( x , y)=F( x , y)PassaBasso (x , y )

16

Filtro Unsharp Masking

g( x , y )=f (x , y )f smoothed (x , y )
High Boosting

Formula
g( x , y )= Af (x , y)f smoothed (x , y), con A1
Maschera convolutiva (Se A = 1 ottengo il Laplaciano)

f passaalto ( x , y )= Af (x , y )2 f (x , y )
Af (x , y)+ f (x , y)

Senza elementi Diagonali


0

-1

-1 A+4 -1
0

-1

-1

-1

0
Con elementi diagonali
-1

-1 A+8 -1
-1

-1

-1

Uso della derivata prima


Gradiente:
Il gradiente un vettore che in ogni punto orientato nella direzione di massima pendenza del
segnale immagine. Lentit della pendenza catturata dal modulo del gradiente

[]

f
f = Gx = x
f
Gy
y

[ ]

Modulo del Gradiente:


| f |= G x2 +G y 2
Direzione del gradiente (coefficiente angolare della retta Gy e Gx)
( x , y)=tan 1

Gy
Gx

( )

Approssimazione discreta del modulo del gradiente mediante applicazione in successione di due
maschere convolutive:
| f |= G x2 +G y 2 | f ||G x|+|G y|
17

z1 z2 z3
z4 z5 z6
z7 z8 z9
| f ||z 8z 5|+|z 6z 5|
Altre approssimazioni:
Operatore di Roberts
| f ||z 9z 5|+|z 8z 6|
-1 0
0

-1

1
Operatore di Sobel
| f ||( z 7+ 2z 8+ z 5)(z 1+2z 2+ z 3)|+|( z 3+2z 6+ z 9)( z 1+ 2z 4+ z 7)|

-1

-2

-1

-1

-2

-1

Operatori di Smoothing Sommario

Operatori di integrazione (filtro passa basso)


Media, media pesata
Nuclei convolutivi con somma algebrica dei coefficienti positiva
Gauss (credo)

Operatori di Sharpening Sommario

Operatori derivativi (filtro passa alto)


Gradiente, Laplaciano
Nuclei convolutivi con somma algebrica nulla

18

Segmentazione delle immagini

Segmentazione di Immagini
Generale:

La segmentazione suddivide limmagine in regioni/oggetti che la compongono e ripropone


in chiave tecnologica/artificiale la primitiva figura/sfondo che regola la nostra percezione

Il livello di dettaglio con cui effettuare la suddivisione dipende dagli scopi dellanalisi di
immagini di cui la segmentazione il passo iniziale

La segmentazione di immagini uno dei temi pi complessi dellelaborazione delle


immagini

Dallaccuratezza del processo di segmentazione dipende il successo delle elaborazioni


successive finalizzate allanalisi ed alla classificazione dei contenuti In alcune appllicazioni,
per facilitare il processo di segmentazione si controlla il processo di acquisizione (es: per il
controllo industriale si controlla lilluminazione e lo sfondo in modo tale che gli oggetti
siano facilmente identificabili) o si controlla la formazione dellimmagine (es: nel
telerilevamento per scopi di target recognition militare si utilizzano sensori sensibili alle
caratteristiche spettrali degli oggetti da identificare

Sia R la regione spaziale che comprende lintera immagine.


Possiamo intendere la Segmentazione un processo che partiziona R in n sottoregioni R 1 ,....., R n
tali che :
1.

n
U R i=R
i=1

2.

Ri una regione connessa, i

3.

RiR j= i , j, i j

4.

19

P(Ri )=True , i
P(R k ) un predicato logico definito per i punti appartenenti a Rk
FI linsieme vuoto

5.

P(RiR i)=False per ogniregione adiaciente Ri , R j

Approcci alla segmentazione

Approccio basato sulla discontinuit dei valori di grigio nellimmagine:


[Basate sui Contorni]
assume che i bordi (edges)degli oggetti siano sufficientemente diversi gli uni dagli altri e
dal background in modo da consentire una separazione degli oggetti di interesse

Approccio per similarit dei valori di grigio:


[Basate sulle regioni]
procede direttamente individuando regioni che soddisfano i criteri 1-5 elencati in
precedenza

Parallelismo Enhancement-Edge detection

Enhancement - operatori puntuali livello di grigio

Enhancement - operatori locali frequenza spaziale

Segmentazione - operatori basati sulla discontinuit contorni

Segmentazione - operatori basati sulla similarit regioni

Contorni e regioni sono strutture che creano il link tra dati grezzi ed interpretazione.

Metodi basati sulla discontinuit (Basati sui contorni)

Si basano su operatori derivativi

tali metodi sono articolati in due fasi:


Trasformazione dell'immagine per esaltare le zone di Discontinuit
Applicazione di un criterio di decisione ad ogni pixel dell'immagine trasformata per
attribuire l'appartenenza o la non appartenenza del pixel alle zone di bordo

Alla base di queste tecniche ritroviamo operatori derivativi simili a quelli visti nell'ambito
dell'Image Enhancement
NellEnhancement il risultato prodotto dallapplicazione di tali operatori viene
sovrapposto allimmagine originale per esaltare le zone ad alta frequenza spaziale
Nella segmentazione dopo lapplicazione di tali operatori viene applicata una regola di
decisione per decidere sulla base del valore della trasformazione se un dato pixel
dellimmagine appartiene ad un bordo/edge

SLIDE 11 Segmentazione dimmagini.pdf

20

Operatori utilizzati nell'ambito della segmentazione

Operatori direzionali semplici

Operatori basati sul modulo del gradiente

Operatore Laplaciano, Laplaciano della Gaussiana

Determinazione di Punti Isolati

Applicando un operatore derivativo del secondo ordine


ottengo valori molto discrimanti

Il punto isolato definisce una zona di discontinuit in tutte le direzioni

Si utilizza quindi l'operatore Laplaciano che un operatore isotropo derivativo del secondo
ordine

Procedimento

Applico l'operatore Laplaciano su tutti i pixels dell'immagine

Applico un'operazione di sogliatura


if |R|>=T
then punto isolato

Estrazione di linee
Si definiscono maschere viaggianti di tipo direzionale, ovvero che calcolano le differenze
accumulate lungo certe direzioni:

La direzione caratterizzata dalla disposizione dei coefficienti con valore pi alto (pari a 2)
nel nucleo convolutivo, la cui somma pari a zero; le maschere daranno quindi risposte
nulle nelle zone omogenee.

Assumendo un background costante, ciascuna maschera far tornare il valore massimo


quando sar posizionata in modo tale che la linea disposta lungo la riga centrale della
maschera

Spiegazione

21

Siano R1, .., R4 le risposte delle maschere per un dato posizionamento sullimmagine

Se

|Ri|>|R j for|all ji
il corrispondente pixel centrale appartiene alla linea con direzione corrispondente alla
maschera i-esima

Se si interessati allindividuazione di linee in una determinata direzione nota a priori, si


processa limmagine con la maschera corrispondente e si soglia il valore dellimmagine
risultante opportunamente

Bordi (edges) e Contorni


Lapproccio per discontinuit alla segmentazione delle immagini ha come obbiettivo la
determinazione completa del contorno degli oggetti contenuti nellimmagine.
Alcune precisazioni:

Contorno concetto globale

Bordo (edge) concetto locale

Un edge/bordo un insieme di pixels connessi che risiedono nelle zone di confine tra due
regioni, in cui lintensit subisce brusche variazioni
Idealmente un edge un insieme di pixels connessi ognuno dei quali Si pone
ortogonalmente alla transizione dei livelli di grigio.
Realisticamente, a causa di imperfezioni nel processo di acquisizione, un edge mostra
spesso un effetto di sfocamento, cos da avere un profilo a rampa. Pi la rampa lunga
pi ledge spesso.

Utilizzando operatori locali, per ottenere un contorno si determinano gli edges mediante
operatori derivativi locali e si definisce poi una procedura per la ricostruzione/descrizione
dei contorni degli oggetti linkando i bordi individuati

Edge

Con gli operatori derivativi si rilevano i punti di transizione di livelli di grigio


nellimmagine

Per rilevare un edge occorre cogliere la significativit della transizione ovvero distinguere
transizioni significative (edges) da transizioni non significative (rumore, variazioni non di
bordo)

Lo strumento a disposizione per la discriminazione la sogliatura; il problema


lindividuazione della soglia che sar frutto di conoscenze a priori o procedure trial and error

*Gli operatori basati sulla derivata prima e seconda sono sensibili al rumore In particolare la
derivata seconda.

22

Altre precisazioni:

Punto di bordo:
La derivata prima in quel punto ha un valore superiore ad una determinata soglia

Segmento di Bordo:
Insieme di punti di bordo connessi secondo un dato criterio di connettivit

Contorno:
Insieme di segmenti di bordo linkati tra loro secondo un criterio di linking

Operatori
-1

Operatore di Roberts
| f ||z 9z 5|+|z 8z 6|
0

-1

1
Operatore di Sobel
| f ||( z 7+ 2z 8+ z 5)(z 1+2z 2+ z 3)|+|( z 3+2z 6+ z 9)( z 1+ 2z 4+ z 7)|

-1

-2

-1

-1

-2

-1

Operatore di Prewitt
| f ||( z 7+ z 8+ z 9)( z 1+ z 2+ z 3)|+|(z 3+ z 6+ z 9)(z 1+ z 4+ z 7)|

-1

-1

-1

-1

-1

-1

23

Determinazione dei contorni basata su operatori-gradiente

Applicazione delle maschere nelle due direzioni

calcolo del modulo (e della direzione del gradiente)

Svantaggi:

Complessit del calcolo

Difficolt nell'individuazione di un valore di soglia


Se si applica lo smoothing
elimina zone di discontinuit non significative
Sar pi semplice determinare il valore di soglia per la determinazione dei contorni

Metodo:

Sobel

Smoothing

Threesholding

Uso del Laplaciano nella segmentazione

Uso diretto per la localizzazione degli edge

Uso complementare agli operatori derivativi del primo ordine a cui demandato il ruolo di
localizzazione degli edges; con il Laplaciano si prende la decisione se un pixel sta nel lato
scuro o chiaro delledge (inizio o fine della rampa relativa alledge nel profilo immagine).

Vantaggi principali del Laplaciano per un uso diretto:

24

Il punto di passaggio per lo zero unico se la rampa in corrispondenza delledge


sufficientemente ripida (questo consente di ottenere contorni a spessore unitario e centrati
sul punto di transizione)

Gli zero crossing formano catene abbastanza continue indipendentemente dall'intensit del
contorno

L'operazione di sogliatura pi semplice: i candidati punti di contorno sono gli zeri della
derivata seconda.

Uso del Laplaciano della Gaussiana per la segmentazione

Poich il Laplaciano un'operatore derivativo del secondo ordine ha comunque dei limiti se
applicato direttamente poich risulta molto sensibile al rumore.

Loperatore Laplaciano della Gaussiana (LoG) introdotto da Marr e Hildreth composto


essenzialmente da due operazioni
Convoluzione conun filtro convolutivo gaussiano
Analisi della derivata seconda (Laplaciana): calcolo della
derivata e binarizzazione

introdotto al fine di superare lo svantaggio dellenfasi del rumore nellapplicazione del


laplaciano mantenendone i vantaggi

Filtro LoG

Lidea di applicare un filtro di smoothing allimmagine per ridurre il rumore e poi


applicare loperatore Laplaciano

Anzich fare in due passi si pu definire un unico nucleo convolutivo chiamato il


Laplaciano della Gaussiana sfruttando la linearit delloperatore laplaciano

Formula:

x +y

1 4
x2 + y 2 2
log (x , y)= 1
e
2 2

E comodo utilizzare un nucleo convolutivo unico

Tuttavia applicando prima il filtro gaussiano e poi loperatore Laplaciano si avrebbe un


maggior controllo sulla funzione di Smoothing

Analizziamo in dettaglio il ruolo delloperatore LoG per lindividuazione degli edges


nellimmagine ai fini della segmentazione

Consideriamo unimmagine composta da due regioni ciascuna con valori omogenei ma


diversi tra le due regioni
La risposta del filtro di LoG sar la seguente:
Zero in zone distanti dalledge
Positiva da un lato delledge
Negativa dallaltro lato delledge
Zero nel mezzo delledge

Es.

25

Determinazione dei Contorni Linking i bordi

Idealmente le tecniche derivative dovrebbero restituire contorni continui; in realt a causa di


rumore, differenze di illuminazione etc. si ottengono contorni spezzati

Si provvede adottando tecniche di linking

Tecniche di Linking (locali)

Si considerano due pixels individuati come pixels di bordo dalle tecniche basate sul
gradiente e si decide la loro a ppartenenza allo stesso contorno verificando la similarit di:
Intensit del modulo del gradiente
Direzione del vettore gradiente

Formule
| f (x , y ) f ( x 0, y 0 )|E , con E soglia non negativa

| (x , y ) (x 0 , y 0 )|A
*In casi complessi la continuit del contorno garantita dallutilizzo di approcci che integrano gli
operatori locali in approcci globali

Segmentazione d'immagini Approccio per regioni


Thresholding [Multilevel thresholding]

Comprende tecniche fondamentali e semplici, basate su criteri di omogeneit dei livelli di


grigio all'interno delle regioni di cui composta limmagine.

Si procede definendo degli intervalli nel range dinamico dell'immagine e ad ognuno di essi
si associa una regione.

Lo strumento fondamentale per la segmentazione a soglia l'istogramma.

Formula:
T = T [ (x,y), p(x,y) , f(x,y)]
con:
f(x,y)livello di grigio del pixel di coordinate (x,y)
p(x,y) propriet locale (per es. livello medio
dei pixel di un determinato intorno)
T dipendente solo da f(x,y) Soglia globale
T dipendente sia da f(x,y), sia da p(x,y) Soglia locale
T dipendente da f(x,y), p(x,y), ed (x,y) Soglia dinamica, adattiva

26

Il rumore compromette l'applicabilit


Soluzione:
Applicare un filtro di smoothing che sfoca l'immagine (ma non l'istogramma)

L'illuminazione non omogenea sfavorisce il trovare un livello di soglia

La soglia globale da utilizzare


Immagini sempli con pochi oggetti uniformii
applicazioni nel controllo industriale in cui possibile definire e controllare
l'illuminazione

Algoritmo iterativo per definire la soglia globale


Seleziona un primo valore per la soglia T (ad es. valor medio di tutti i pixels
nellimmagine)
Segmenta limmagine usando T. Si ottengono due gruppi di pixels: G1 con valori sopra
la soglia e G2 con valori minori o uguali alla soglia
Calcola la media dei valori per G1 e G2 (m1 ed m2 rispettivamente)
Calcola il nuovo valore di soglia T= 12(m1+m2)
Ripeti dal passo 2 finch la differenza in T tra due iterazioni inferiore ad un certo
valore T 0

Local, Adaptive Thresholding

27

Alcuni fattori connessi allacquisizione dellimmagine, per esempio lilluminazione non


uniforme, rendono inapplicabile il metodo di sogliatura basato sulla soglia globale

Il problema risolvibile
dividendo limmagine originale
in sottoimmagini ed utilizzare
una soglia diversa per ciascuna
sottoimmagine

Laspetto critico in questa


modalit come dividere
limmagine (quanto grandi debbono essere le sottoimmagini) e come definire la soglia per
ciascuna di esse

Lipotesi che si possa raggiungere per ciascuna immagine la condizione per cui efficace
una semplice sogliatura globale

Operatori derivativi nel Tresholding

Le possibilit di definire un valore di soglia per un problema di segmentazione sono


maggiori nel caso in cui listogramma dellimmagine abbia picchi elevati e ristretti,
simmetrici e ben separati

Una possibilit per ottenere un buon istogramma su cui definire il valore di soglia di
considerare solo pixels in prossimit dei bordi degli oggetti.

Per individuare se un pixel di bordo utilizzo il gradiente

Per individuare se sono sulla parte chiara o scura delledge utilizzo il laplaciano

Determinazione di Regioni
Le tecniche di estrazione di regioni si basano sulle propriet di similarit tra i pixels dell'immagine
in alternativa alle tecniche di estrazione dei contorni che si basano sulle caratteristiche di
discontinuit.
Le tecniche di estrazione di regioni tentano di raggiungere l'obbiettivo della segmentazione, ovvero
l'estrazione di oggetti dall'immagine, in modo diretto definendo regioni che coincidano con oggetti
o parti di essi.
Dal punto di vista insiemistico l'insieme delle regioni R 1 ,....., Rn , che vengono individuate da un
processo di segmentazione devono rispettare le seguenti condizioni:
1.

n
U R i=R
i=1

2.

Ri una regione connessa , i

3.

RiR j= i, j, i j

4.

5.

P( Ri )=True , i
P(R k ) un predicato logico definito per i punti appartenenti a Rk
FI linsieme vuoto
P( RiR i)=False per ogniregione adiaciente Ri , R j

Region Growing

28

Le tecniche di segmentazione che vanno sotto il nome di region growing sono basate sul
concetto di accrescimento delle regioni ottenuto mediante progressiva fusione di
pixels/regioni adiacenti.

L'idea base quella di partire con un insieme di "semi" e a questi aggregare pixels
dell'intorno che obbediscono ad un criterio di omogeneit (predicato P).

Tali criteri possono basarsi su descrittori pi o meno complessi basati sull'uniformit del

livello di grigio, il colore, la tessitura...

Nellaccrescimento occorre considerare laspetto geometrico ovvero i pixels appartenenti ad


una regione dovrano formare un insieme connesso

I criteri possono essere pi o meno complessi a seconda dei casi ed inglobare sia funzioni
matematiche sia regole euristiche basate su conoscenze a priori degli oggetti.

Punti critici
Scelta dei semi; pu basarsi su euristiche o per essere attuata necessita la valutazione di
criteri complessi e simili a quelli usati in fase di accrescimento.
Complessit computazionale

Vantaggi
Flessibilit
Accuratezza
Un aspetto interessante la definizione di approcci ibridi basati su estrazione di regioni
guidata dai risultati dell'estrazione di contorni.

Tecniche di Split & Merge


Queste tecniche eseguono la segmentazione in due fasi:

Fase1: processo Top Down di suddivisione dell'immagine in regioni elementari

Fase2:processo bottom-up di raggruppamento (merge) delle regioni elementari in regioni


complesse.

Le tecniche "Split & Merge" si possono considerare un sottocaso delle tecniche di region growing
in cui il punto di partenza fornito dalla fase di split e l'accrescimento fornito dalla fase di merge.

Split Merge [Slide 33]


Il processo di splitting avviene tramite una procedura ricorsiva che crea e scandisce un albero
quaternario
Si parte dall'intera immagine (R; root dell'albero quaternario) e si procede suddividendo l'immagine
in un insieme di 4 regioni quadrate di dimensione 2 n X2 n (primo livello del'albero).
Si procede valutando per ogni blocco la condizione di omogeneit (rappresentata dal predicato P).
Per i blocchi per i quali la condizione non verificata si procede suddividendoli in quattro sottoblocchi anch'essi quadrati di dimensioni 2 n-1 X2 n-1 ai quali viene applicata ricorsivamente la
stessa procedura.
Si termina la procedura di Splitting quando per ogni regione soddisfatta la condizione di
omogeneit.

29

Merge [Slide 35]


Al termine del processo di suddivisione l'immagine segmentata in un insieme molto numeroso di
regioni di piccole dimensioni (sovra- segmentazione).
E' dunque probabile che la partizione finale contenga regioni adiacenti con stesse propriet.
Si procede dunque a fondere regioni adiacenti R i ed R j per le quali
P(R i U R j )= True.
L'intero processo termina quando nessuna azione di SPLIT e MERGE possibile.

Il Colore
Il colore la traduzione visiva della stimolazione dei fotorecettori della retina provocata da
unenergia radiante compresa entro un intervallo spettrale tra 0.4 e 0.7 micron di lunghezza donda
Importanza:

Ispezione visuale

Analisi automatica:
ricco di informazioni

Il fenomeno dei colori fondamentalmente di tipo psicofisico


dipende da
nautra luminosa
caratteristiche riflettivit
caratteristiche sensoriali del nostro occhio
caratteristiche psichiche

Sulla natura del colore si discusso per parecchi secoli.

Il problema resta ancora pieno di interrogativi.

La visione del colore deriva da un processo molto complesso in cui i fattori fisiologici e
psicologici si sovrappongono in maniera determinante a fattori fisici.

Dal punto di vista fisico esistono solo radiazioni di diversa lunghezza donda e non il colore
come entit.

Coni:

30

65% dei coni sono sensibili al rosso, 33% al verde, 2% al blu

Sintesi colori:

Colorimetria

Obbiettivo
definire sistemi di riferimento colorimetrici assoluti che permettano di definire in modo
univoco qualsiasi colore

A scopi di standardizzazione la CIE(Commission Internationale de lEclarage) fissa le


lunghezze donda dei colori primari ai seguenti valori
Blu = 435.8nm
Green= 546.1 nm
Rosso = 700 nm

Osservazione:
Dal punto di vista della distribuzione spettrale dei colori, non un singolo colore
corrispondente ad una singola lunghezza d'onda pu essere definito rosso, verde o blu;
quindi le tre componenti specificate RGB non generano tutti i colori dello spettro.

Sistema colorimetrico CIE XYZ

Dalla teoria del tristimolo si deriva un modello quantitativo per specificare il colore.

Un colore sar determinato dai valori di tristimolo (detti anche coefficienti di tricromaticit)
denotati X, Y, Z per la componente di Rosso, Verde e Blu rispettivamente

Come si derivano tali coefficienti?


Ricordiamo i fattori coinvolti nella caratterizzazione del colore
La riflettanza della superficie di cui si vuole quantificare il colore

31

la sorgente illuminante
le curve di sensibilit dei tre tipi di fotoricettori del nostro sistema visivo
L15-IL Colore.pdf SLIDE 26...46

Gli Spazi Colore - Modelli di rappresentazione del Colore

Lo scopo dei mofelli e/o spazi colore quello di facilitare la specifica dei colori in una
modalit standard

In essenza un modello colore consiste di:


Un sistema di coordinate che definisce uno spazio
Un sottospazio in cui ogni colore un punto

Ogni spazio differisce per le variabili scelte come base per lo spazio

Esistono diversi spazi orientati a diversi scopi:


hardware oriented (monitor a colori, stampanti)
RGB (color monitor, Video cameras)
CMY, CMYK (stampanti a colore)
manipulation oriented (CAD, Animazione,..)
HSI
Esistono molti altri modelli, facilmente derivabili e comprensibili a partire da quelli
citati

Il modello colore RGB

32

E basato sulla teoria del tristimolo per la quale ogni colore visto come combinazione
variabile dei tre colori primari Red, Green, Blue

Il sistema RGB alla base della produzione di grafica per lo schermo

I valori spettrali di Red Green and Blue sono quelli convenzionalmente posti da C.I.E (non
si generano quindi tutti I colori visibili)

Ogni colore appare nelle sue tre componenti spettrali Red Green Blue

ogni colore un punto allinterno del cubo ed definito in termini di un vettore che parte
dallorigine del sistema di assi cartesiani.

E definito in un sistema di riferimento cartesiano con i colori primari R G B posti sugli assi

Linsieme dei punti appartenenti al cubo rappresenta linsieme dei colori

che si possono rappresentare con i colori primari scelti come basi Il modello RGB

semplice computazionalmente, orientato allHardware

Non include le caratteristiche percettive, non quindi immediata la manipolazione dei colori

Codifica delle immagini RGB


3 strati di colore Es. 8 bit, in totale fa 24 bit
E importante definire un sottoinsieme di colori riproducibile fedelmente
indipendentemente dalle risorse hardware a disposizione.
Molti sistemi in uso riducono il numero di colori rappresentabili a 256 a
vantaggio della fedelt di riproduzione
Dei 256 solo 216 sono affidabili ovvero riproducibile fedelmente
indipendentemente dal sistema operativo. (Per applicazioni Internet
consigliabile utilizzare tale sottoinsieme detto safe web colors)

I modelli CMY e CMYK

lo spazio CMY lo spazio duale di RGB, con basi opposte:


C=1-R M=1-G Y=1-B

Conversione RGB CMY

[ ] [] [ ]
C
1
R
M =1G
Y
1
B

Spazio HSI/L

E vicino a come si pensa il colore ovvero in termini di


Tinta (Hue)
Saturazione (Saturation)
Intensit/Brillanza (Intensity) (o lightness)

E uno strumento utile per sviluppare algoritmi basati su una descrizione percettiva del
colore e che dovranno essere utilizzati per manipolare colori secondo una descrizione
naturale ed intuitiva

La nozione di intensit fondamentale nel descrivere uninformazione pittoriale; lo spazio


HSI scorpora linformazione intensit dai descrittori di colore/tinta facilitando la specifica
del colore complessivo

* e come far ruotare il cubo dell'RGB su un vertice

33

Elaborazione delle Immagini in Pseudocolore

Tecniche di conferimento del colore a immagini acquisite in bianco e nero.

Lo scopo migliorare lispezione visuale di immagini e identificare informazioni


rappresentate originariamente in scale di grigio.

Intensity Slicing/Color Coding


Pensiamo allimmagine rappresentata come funzione 3D. Ponendo un piano parallelo alle
coordinate dellimmagine si definisce uno slicing dellimmagine. Associando un colore diverso ad
ogni lato del piano otteniamo unimmagine a due colori.

In generale:

Sia
[0, L-1] la scala di grigi, l 0 il nero e l L-1 il bianco

Supponiamo che P piani perpendicolari allasse delle intensit siano definiti ai livelli l 0 ...l
p;

i piani P con 0<P<L-1 partizionano la scala di grigio in P+1intervalli


V 1 ,....V p+1

Lassegnamento di un dato livello di grigio ad un colore dato dalla relazione:


f ( x , y )=c k , se f ( x , y)V k
con ck il colore assegnato al k-esimo intervallo Vk

Full color Image processing

34

Considerando la rappresentazione in RGB dellimmagine, ogni pixel definito in termini di


tre componenti rispettivamente sul piano R, G, e B.

Le trasformazioni saranno definite nello spazio vettoriale a tre componenti; per la maggior
parte delle trasformazioni si operer inmodo indipendente sulle tre componenti

Operatori di Enhancement

Similmente alle trasformazioni puntuali per immagini a livelli di grigio definiamo le


trasformazioni (ountuali) del colore in unimmagine full color con lespressione
g( x , y )=T [f ( x , y)]
Dove f unimmagine a colori g limmagine trasformata T un operatore che opera su
un intorno dellimmagine

Operatori Puntuali

Operano solo sul valore puntuale del pixel ovvero sui valori di grigio dei piani immagine
che compongono limmagine a color
s i=T i (r 1 ,... , r n ), con i=1, ... , n
n il numero delle componenti colore:in RGB n=3, in CMYK n=4..;
si e ti denotano le componenti colore di ciascun pixel e Ti denota la trasformazione
definita per una data componente colore; linsieme delle trasformazioni Ti denota lintera
trasformazione detta color mapping

Color Balancing
Funzioni che correggono Limmagine per ottenere quella corretta

Trasformazioni spaziali: Smoothin nello spazio RGB


Sia S x,y un insieme di coordinate che definiscono un intorno del pixel c di coordinate (x,y) in
unimmagine RGB

[ ]

R(x , y)
c (x , y )= G ( x , y )
B(x , y )

l'operazione di smoothing cos definita:


1
c (x , y )= c ( x , y )
k (x , y)S

[ ]

1
R(x , y )
k (x , y)S
1
c ( x , y )= G(x , y)
k ( x, y) S
1
RB( x , y )
k (x , y)S

Con R, G, B componenti del pixel c dellimmagine a colori nel piano di Rosso del Verde e del Blu

35

Color Image Sharpening:operatore Laplaciano

2 R ( x , y )
2 [c ( x , y )]= 2 G( x , y )
2 B( x , y)

36

Potrebbero piacerti anche