Sei sulla pagina 1di 30

Champs de Markov en Vision par Ordinateur

0: Quelques Points avant Commencer: Moi.


Ian Jermyn. Anglais comme vous lentendez! Excusez mon franais sil vous plait. Chercheur en traitement dimage et vision par ordinateur lINRIA dans projet Ariana. Formationen physique thorique et puis vision par ordinateur.

0: Quelques Points avant Commencer: Contacts.


Ian.Jermyn@sophia.inria.fr. www-sop.inria. fr/ariana/personnel/Ian.Jermyn. Vous trouverez l loriginal de ce document.

0: Quelques Points avant Commencer: Vous.

Nayez pas peur:


De questionner la faon meilleure dapprendre. De demander que je rpte ou explique quelque chose. De me dire si le niveau est trop simple ou trop compliqu.

Envoyez-moi un email si vous avez des questions aprs la confrence.

0: Images : Deconvolution.

0: Images : Segmentation.

0: Buts.

Dfinitions: quest-ce que sont les champs de Markov? Exemples: comment sont-ils utiliss pour la comprhension dimages? Algorithmes: comment peut-on extraire linformation dsire des modles?

Part I : Dfinitions

I: Modles Probabilistes d Images.

Donn une image (connu), on veut savoir quelque chose de la scne (inconnu). Exemple: on veut savoir sil y avait une personne dans la scne, et si oui, o. La thorie de probabilit dcrit le raisonnement dans les situations de connaissance incomplte. La gnralisation unique de la logique aristotlicienne qui satisfait des critres simples et vidents.

I: Thorme de Bayes A.

On veut savoir la probabilit de la scne sachant limage. Le thorme de Bayes/Laplace transforme la probabilit de limage sachant la scne en la probabilit de la scne sachant limage. IK SIK ISKSK Pr Pr, Pr,Pr

K reprsente toute la connaissance quon a avant de voir limage: il y a toujours quelque chose.

I: Thorme de Bayes B.

La probabilit de limage sachant la scne et K (la formation de limage). Souvent un modle physique. Appele la vraisemblance. La probabilit de la scne avant d avoir vu limage (mais avec la connaissance K). Appele la probabilit a priori. On doit construire des modles pour tous les deux.

I: Les espaces dimages A.

Pour nous, une image est une fonction D N dun domaine vers un espace C.

Les signaux acoustiques: N = 1. Les images standard: N = 2. Les images MRI: N = 3. Les squences vido: N = 3 = 2 + 1.

I : Les espace dimages B.

La dimension de C:

Images monochromatiques: 1. Images en couleur: 3. Images multi- ou hyper-spectrale: plus de 3.


N

D est envisag comme plong dans . a veut dire que les notions de gomtrie peuvent tre appliques si N > 1. Cest une des raisons pour lesquelles le traitement dimage est beaucoup plus difficile que le traitement des signaux 1D.

I: Les espaces de scne: Smantique.

Information sur le monde 3D:


Distances et positions des objetsdans une photo; Types de vgtation dans une image arienne; Position dune tumeur dans une image mdicale; Gomtrie des btiments dans un plan. Paramtres de la camra.

Jugements plus subjectifs:


motion dun visage; Style darchitecture.

I: Les espaces de scne: Mathmatique A.

Une fonction de D vers un autre espace:


Restauration: CD; Segmentation: LD o L est un ensemble (tiquettes dinterprtation) ; Une rgion: {0,1}D.

I: Les espaces de scne: Mathmatique B.

Une fonction dun autre espace vers D: D S 1


Une rgion:

Positions et paramtres dobjets: (D x L) n.

I: Probabilits sur ces espaces.

Lespace dimages est norme.


10157826 images possibles de 256 x 256 pixels. ~1080 atomes dans lunivers visible. ~10157746 images pour chaque atome.

Une fraction minuscule contient des images de notre monde. La plupart des images sont du bruit. Les probabilits sont fonction de 65536 variables dpendantes : les valeurs des pixels. Donc, il faut simplifier.

I: Simplification de la probabilit.

Les probabilits se simplifient quand quelques variables sont indpendantes les unes, les autres. Les champs de Markov sont une voie (mais pas la seule) pour dfinir des probabilits simplifies mais encore utiles.

I: Exemple : Indpendance.

Si la scne est dcrite par une fonction sur D, la probabilit peut se factoriser pD sur les pixels : SISI PrPr pD pp

Dans ce cas, on peut traiter chaque pixel sparment (problme une dimension).

I: Champs de Markov (MRFs).

Un champ de Markov sur un ensemble D est une probabilit sur lespace de fonctions CD de D vers une autre espace C satisfaisantles conditions suivantes. f Pr0 Positivit : .

I: Champs de Markov (MRFs).

Voisinage: pour chaque point , il y NpD a un sous-ensemble t.q. fffffC pNppNp PrPr, Npp p DDpp

pD

On peut savoir tout ce qui est possible de la valeur de fp sachant seulement les valeurs des voisins f N(p)-p.

I: Interprtation comme un graphe.

Un graphe non-orient G est :


Un ensemble V (noeuds); EVV Un sous-ensemble vvEvvE ,,

t.q.

Etant donn un MRF, on dfinit un graphe de la faon suivante: VDEppDDpNp ,,t.q.

I: Cliques.

Un sous-ensemble ssSSssE ,,, ssi:

SV

est une clique .

On dfinit comme l ensemble de toutes les cliques dans le graphe G.

Q V 2G

I : Distributions de Gibbs A

Pour une fonction , la probabilit suivante est appele une distribution de Gibbs: Uff ZUf fZUf exp P qQG qq f D 1Crexp

Q D : GC

I: Thorme de HammersleyClifford.

1971. Trs important parce quil permit la construction facile de MRFs. Pr Pour chaque fonction , est un MRF. Pour chaque MRF Pr, on peut trouver PrPr une fonction t.q. . Conclusion: GIBBS = MRF

I: Estimes: En Gnral.

Utilit= fonction de cot: CC : DD Utilit moyenne : ffff ,Pr f DC Estime: ff a f D Crgmax

I: Estimes: MAP.

Maximum A Posteriori : ce maximise la probabilit. ff ffff f D a Pr ,, rgmaxPr C

N.B. Quand C est continu, lestime MAP n est pas exactement le point plus probable.

I: Estimes: MPM.

Maximum Posterior Marginal : ce maximise le nombre de pixels corrects = minimiser le nombre de pixels errons. ff ffff a Pr ,, fCrgmaxPr pp pD p pD p

I: Estimes: Moyenne.

Moyenne: minimiser lerreur quadratique moyenne. ff fffff ffff pppp pD p 2 ,p 22

N.B. C doit tre un espace vectoriel.

I : Distribution de Gibbs B.

U est appel lnergie. Z est appel le fonction de partition. Pour une distribution de Gibbs, l estime MAP prend une forme simple: fUf argmin f DC

Cette forme on apple minimisation d nergie.

Potrebbero piacerti anche