Documenti di Didattica
Documenti di Professioni
Documenti di Cultura
Ian Jermyn. Anglais comme vous lentendez! Excusez mon franais sil vous plait. Chercheur en traitement dimage et vision par ordinateur lINRIA dans projet Ariana. Formationen physique thorique et puis vision par ordinateur.
De questionner la faon meilleure dapprendre. De demander que je rpte ou explique quelque chose. De me dire si le niveau est trop simple ou trop compliqu.
0: Images : Deconvolution.
0: Images : Segmentation.
0: Buts.
Dfinitions: quest-ce que sont les champs de Markov? Exemples: comment sont-ils utiliss pour la comprhension dimages? Algorithmes: comment peut-on extraire linformation dsire des modles?
Part I : Dfinitions
Donn une image (connu), on veut savoir quelque chose de la scne (inconnu). Exemple: on veut savoir sil y avait une personne dans la scne, et si oui, o. La thorie de probabilit dcrit le raisonnement dans les situations de connaissance incomplte. La gnralisation unique de la logique aristotlicienne qui satisfait des critres simples et vidents.
I: Thorme de Bayes A.
On veut savoir la probabilit de la scne sachant limage. Le thorme de Bayes/Laplace transforme la probabilit de limage sachant la scne en la probabilit de la scne sachant limage. IK SIK ISKSK Pr Pr, Pr,Pr
K reprsente toute la connaissance quon a avant de voir limage: il y a toujours quelque chose.
I: Thorme de Bayes B.
La probabilit de limage sachant la scne et K (la formation de limage). Souvent un modle physique. Appele la vraisemblance. La probabilit de la scne avant d avoir vu limage (mais avec la connaissance K). Appele la probabilit a priori. On doit construire des modles pour tous les deux.
Pour nous, une image est une fonction D N dun domaine vers un espace C.
Les signaux acoustiques: N = 1. Les images standard: N = 2. Les images MRI: N = 3. Les squences vido: N = 3 = 2 + 1.
La dimension de C:
D est envisag comme plong dans . a veut dire que les notions de gomtrie peuvent tre appliques si N > 1. Cest une des raisons pour lesquelles le traitement dimage est beaucoup plus difficile que le traitement des signaux 1D.
Distances et positions des objetsdans une photo; Types de vgtation dans une image arienne; Position dune tumeur dans une image mdicale; Gomtrie des btiments dans un plan. Paramtres de la camra.
Restauration: CD; Segmentation: LD o L est un ensemble (tiquettes dinterprtation) ; Une rgion: {0,1}D.
Une rgion:
10157826 images possibles de 256 x 256 pixels. ~1080 atomes dans lunivers visible. ~10157746 images pour chaque atome.
Une fraction minuscule contient des images de notre monde. La plupart des images sont du bruit. Les probabilits sont fonction de 65536 variables dpendantes : les valeurs des pixels. Donc, il faut simplifier.
I: Simplification de la probabilit.
Les probabilits se simplifient quand quelques variables sont indpendantes les unes, les autres. Les champs de Markov sont une voie (mais pas la seule) pour dfinir des probabilits simplifies mais encore utiles.
I: Exemple : Indpendance.
Si la scne est dcrite par une fonction sur D, la probabilit peut se factoriser pD sur les pixels : SISI PrPr pD pp
Dans ce cas, on peut traiter chaque pixel sparment (problme une dimension).
Un champ de Markov sur un ensemble D est une probabilit sur lespace de fonctions CD de D vers une autre espace C satisfaisantles conditions suivantes. f Pr0 Positivit : .
Voisinage: pour chaque point , il y NpD a un sous-ensemble t.q. fffffC pNppNp PrPr, Npp p DDpp
pD
On peut savoir tout ce qui est possible de la valeur de fp sachant seulement les valeurs des voisins f N(p)-p.
t.q.
I: Cliques.
SV
Q V 2G
I : Distributions de Gibbs A
Pour une fonction , la probabilit suivante est appele une distribution de Gibbs: Uff ZUf fZUf exp P qQG qq f D 1Crexp
Q D : GC
I: Thorme de HammersleyClifford.
1971. Trs important parce quil permit la construction facile de MRFs. Pr Pour chaque fonction , est un MRF. Pour chaque MRF Pr, on peut trouver PrPr une fonction t.q. . Conclusion: GIBBS = MRF
I: Estimes: En Gnral.
I: Estimes: MAP.
N.B. Quand C est continu, lestime MAP n est pas exactement le point plus probable.
I: Estimes: MPM.
Maximum Posterior Marginal : ce maximise le nombre de pixels corrects = minimiser le nombre de pixels errons. ff ffff a Pr ,, fCrgmaxPr pp pD p pD p
I: Estimes: Moyenne.
I : Distribution de Gibbs B.
U est appel lnergie. Z est appel le fonction de partition. Pour une distribution de Gibbs, l estime MAP prend une forme simple: fUf argmin f DC