Documenti di Didattica
Documenti di Professioni
Documenti di Cultura
Sujet :
Binarisation d’images
de documents graphiques
Etudiante : Responsable :
Je remercie également les membres de l’équipe QGAR qui m’ont beaucoup aidée
durant mon séjour à Nancy.
Un grand merci à tous mes amis à l’IFI et au LORIA pour leurs encouragements,
leurs aides et la sympathie qu'ils m’ont données tout au long de mon stage.
Page 2
RESUME
Page 3
ABSTRACT
Binarization of the images has been a subject of an intense research interest for a
long time. However, there is not a perfect solution, which can apply for all the various
kinds of images. Therefore, during my training course, we define a method working
effectively on image of graphic documents. After testing different solutions, we propose a
binarization method for the gray level image of documents. This method is considered to
be the cooperation between a global and a local thresholding technique.
The method presented is based on two stages. The global thresholding is used in
the first stage to give a preliminary result. Then, a second based on the fuzzy hierarchical
segmentation refines the result by analyzing local characteristics. In this stage, the
treatments are carried out on the data zones with different sizes by taking the quadtree
principle on the preliminary result. The classification of a pixel depends on its final degree
of membership calculated from its various degrees determined by the node local
information at all quadtree levels.
Page 4
TABLE DE MATIERES
REMERCIEMENTS....................................................................................................................2
RESUME.....................................................................................................................................3
ABSTRACT ................................................................................................................................4
LISTE DE FIGURES...................................................................................................................6
LISTE DE TABLEAUX ...............................................................................................................6
CHAPITRE 1 : INTRODUCTION ...............................................................................................7
1.1. PROBLEMATIQUE ...............................................................................................................7
1.2. OBJECTIF ...........................................................................................................................8
1.3. STRUCTURE DU RAPPORT ..................................................................................................8
1.4. LIEU DE STAGE ...................................................................................................................8
CHAPITRE 2 : ETAT DE L’ART ................................................................................................9
2.1. GENERALITE ......................................................................................................................9
2.1.1. Segmentation ............................................................................................................9
2.1.2. Binarisation ...............................................................................................................9
2.1.3. Sous-ensemble flou ................................................................................................11
2.2. METHODES DE SEUILLAGE GLOBAL ................................................................................... 13
2.2.1. Méthode de Otsu ....................................................................................................14
2.2.2. Méthodes se basant sur l’entropie .........................................................................15
2.3. SEGMENTATION HIERARCHIQUE FLOUE............................................................................. 17
CHAPITRE 3 : METHODE PROPOSEE..................................................................................20
3.1. PRINCIPE DE LA METHODE ................................................................................................ 20
3.2. ETAPE DE SEUILLAGE GLOBAL .......................................................................................... 20
3.3. ETAPE DE RAFFINAGE ...................................................................................................... 21
3.3.1. Construction de l’arbre quaternaire ........................................................................22
3.3.2. Calcul des degrés d'appartenance de chaque pixel ..............................................25
3.3.3. Décision de degré d'appartenance final .................................................................26
CHAPITRE 4 : EVALUAT IONS ...............................................................................................28
4.1. RESULTATS EXPERIMENTAUX ........................................................................................... 28
4.2. MESURES DE PERFORMANCE ........................................................................................... 34
4.2.1. Mesure de contraste...............................................................................................34
4.2.2. Mesure d’homogénéité ...........................................................................................35
4.3. AVANTAGES ET INCONVENIENTS ....................................................................................... 35
CHAPITRE 5 : CONCLUSIONS ..............................................................................................37
REFERENCES..........................................................................................................................38
Page 5
LISTE DE FIGURES
Figure 2.1 : Fonction d’appartenance linéaire .....................................................................13
Figure 3.7 : Résultat final de la méthode proposée sur l’image jaures_partie1.tif .............27
LISTE DE TABLEAUX
Tableau 4.1 : Performances quantitatives ...........................................................................35
Page 6
CHAPITRE 1 : INTRODUCTION
1.1. Problématique
Au sein de développements forts de la science, on ne peut pas nier le rôle de
l’image numérique, un support important des applications dans de très nombreux
domaines tels que la médecine, le multimédia, la robotique... Parmi une série d’opérations
effectuées sur les images, le traitement d’images est considéré comme une étape de
base et indispensable dans toutes ces applications et a suscité de nombreuses
recherches. Il peut être vu comme préalable à la reconnaissance de formes, à l’analyse
de scènes, à l’intelligence artificielle... La segmentation, un traitement de base ayant pour
but de partitionner l’image en des régions homogènes qui représentent normalement les
objets, est un problème classique mais très considéré. C’est évident qu’il n’existe pas
toujours une solution idéale pour tous les cas. Plusieurs solutions ont été proposées pour
résoudre ce problème de segmentation d’images du plus général au plus particulier.
Cependant, chaque méthode a ses avantages et ses inconvénients tels que la
manipulation des paramètres [Trier,1995a], la complexité de calcul [Cheng,1999b]
[Tao,2003].
Problème
Remarque
Page 7
1.2. Objectif
Ce stage se situe dans la problématique de la segmentation d’images et de
chercher une méthode simple mais efficace pour l’image de documents graphiques afin
de séparer clairement le fond et l’objet. Autrement dit, il s’agit de trouver une méthode de
binarisation qui peut déterminer automatiquement et efficacement le seuil pour chaque
point de l’image.
Laboratoire
Equipe
Mon stage, qui a duré six mois, s’est déroulé au sein de l’équipe QGAR (Querying
Graphics through Analysis and Recognition) de l’INRIA lorraine sous la responsabilité de
Salvatore Tabbone (Maître de conférences à l’université de Nancy 2). C’est une équipe
spécialisée dans l’analyse de documents à forte composante graphique. Les objectifs
sont l’indexation et la recherche d’informations dans le contexte de la documentation
technique.
Page 8
CHAPITRE 2 : ETAT DE L’ART
2.1. Généralité
2.1.1. Segmentation
La segmentation, un traitement essentiel des images, consiste à créer une partition
de l’image en des sous-ensembles appelés régions Ri. Une région est un ensemble de
pixels qui possèdent des propriétés communes telles que l’intensité, la texture, etc. Le but
de la segmentation est d’extraire de l’image originale un certain nombre d’entités
différentes appelées objets ou régions. Comme c’est extrêmement difficile d’avoir un
algorithme idéal qui fonctionne correctement dans tous les cas, des nombreuses
méthodes sont proposées. En bref, on peut les classifier en deux grandes approches,
l’approche « frontière » et l’approche « région » [Horaud,1993].
Il existe également des méthodes qui se basent à la fois sur les propriétés des
frontières et sur les propriétés de la région, on les appelle approche collaboration
« région-frontière ».
2.1.2. Binarisation
Définition : la binarisation (le seuillage) est la technique de classification la plus
simple où les pixels de l’image sont partagés par un seul seuil s en deux classes : ceux
qui appartiennent au fond et ceux qui appartiennent à la scène (l’objet). L’image est alors
Page 9
séparée en deux classes de façon à ce que l’information comprise entre 0 et s est retenue
et l’autre non, ou vice-versa.
Soit l’image I (M x N), supposons que f(x, y) représente le niveau de gris du pixel
aux coordonnées (x, y), 0 ≤ x ≤ M ,0 ≤ y ≤ N et s est le seuil choisi, les pixels de l’objet
sont ceux ayant le niveau de gris inférieur à s et les autres ayant le niveau de gris
supérieur à s sont des pixel du fond. Alors, l’image binarisée G est déterminée par les
pixels (x, y) dont la valeur est :
1 si f ( x, y ) > s
g ( x, y) =
0 si f ( x, y ) ≤ s
Dans la méthode de binarisation globale un seuil unique est calculé à partir d’une
mesure globale sur toute l’image. Il nous permet de décider l’appartenance d’un pixel à
l’objet ou au fond. Les méthodes de Otsu [Otsu,1978], de Kapur [Kapur,1985], de Pun
[Pun,1980], ou de Cheng et Chen [Cheng, 1998b] peuvent être tenues comme des
représentants de cette approche. Chacun a de différentes stratégies pour atteindre leur
but. Par exemple, la méthode décrite dans [Otsu,1978] essaie de maximiser la variance
entre deux classes, tandis que d’autres méthodes dans [Kapur,1985] [Pun,1980]
[Cheng,1998b] [ Mello,2000] se basent sur la théorie de maximum d’entropie ou
d’entropie floue.
Page 10
La méthode de Trier et Taxt [Trier,1995a] et celle de Gadi et Benslimane
[Gadi,2000] peuvent être considérées comme deux exemples de technique de seuillage
locale adaptative. Dans [Trier,1995a], les auteurs ont appliqué des modifications sur la
méthode de White & Rohrer afin d’obtenir une bonne méthode de binarisation pour
l’image de documents. Une de leurs modifications est la façon de classifier des pixels ‘0’
dans l’image d’étiquettes à trois niveaux ‘+’, ‘-‘, ‘0’ qui est le résultat de l’opérateur
gradient. Le pixel étiqueté ’0’ sera classé dans la classe à la quelle la majorité de ses 8
pixels voisins appartiennent. Avec cette méthode, on peut obtenir des résultats
satisfaisants en essayant des différentes solutions des paramètres. Cependant, c’est la
difficulté de la manipulation de nombreux paramètres qui cause un grand inconvénient de
cette approche. Dans [Gadi,2000], a
l classification d’un pixel dépend de ses degrés
d’appartenance calculés dans des régions locales qui sont créées par le découpage de
l’image originale selon le principe de l’arbre quaternaire. En principe, il nous fournira un
résultat intéressant sur l’image de documents graphiques si il n’y a pas de problème de
sur-découpage.
Dans deux parties ci-dessous, des descriptions courtes des méthodes qui sont
abordées dans le chapitre trois sont présentées.
Dans la vie quotidienne, nous nous trouvons dans de nombreuses situations où les
informations dont nous disposons sont imprécises ou bien incertaines. Le sens des mots
dans la langue est un exemple : des mots tel que « cher » « pas trop cher » « tôt »
« tard » « possible »... ne donnent pas des informations exactes. L’être humain est
habitué à ces informations. Chacun analyse donc le contexte et prend sa propre décision.
Page 11
les autres appartiennent au sous-ensemble B, le complément de A dans Ω. En vue de la
logique classique, un élément n’appartient à qu’un sous-ensemble, A ou B. Ça veut dire
qu’un élément n’a que deux possibilités, soit il a cette propriété, soit il ne la possède pas
absolument. Cependant, il est possible qu’il existe dans Ω des éléments qu’on ne sait pas
toujours s’ils satisfont α ou qu’ils ne la possèdent qu’avec un certain degré. Dans ce cas,
il vaut mieux prendre le sous-ensemble flou pour représenter ces informations.
Sous-ensemble flou :
µ A : x ∈ Ω → µ A ( x) ∈ [0,1]
Chaque élément dans un sous-ensemble A possède un degré qui estime dans
quelle mesure l’appartenance de l’élément dans le A. Ce degré est déterminé par la
fonction d’appartenance. Il existe des différentes fonctions. La plus simple est la fonction
linéaire :
0 x≤ a
x − a
µ A ( x) = c−a a< x<c
x≥c
1
et celle qui est la plus connue et la plus utilisée est la fonction S de Zadeh :
0 x≤ a
x − a 2
2 a< x≤b
c− a
µ A ( x) = S Z ( x) = 2
1 − 2 x − c b< x≤c
c −a
1 x>c
où (a, c) la région floue, b un point au milieu de a et c, b = (a+c) /2.
Page 12
S
x
0 a c
0.5
x
0 a b c
Pour le seuillage des images, le but principal est d’obtenir deux classes « blanc » et
« noir » à partir de l’image originale à niveaux de gris. Cependant, il n’y aucune assurance
pour une classification grâce à un seuil quelconque. La question se pose toujours si un
point est vraiment « noir » ou « blanc » ? La théorie de sous-ensembles flous est devenue
une solution. En définissant un intervalle flou, la fonction d’appartenance nous permet
d’obtenir deux sous ensembles flous représentant le « noir » et le « blanc » de l’image.
Page 13
Histogramme
Définition : On définit l’histogramme des niveaux de gris d’une image comme étant
la fonction h : [0...L −1] → Ν qui associe à chaque niveau de gris entre 0 et L-1 la quantité
de pixels de l’image qui possèdent cette intensité lumineuse [Braviano,1995].
L’histogramme d’une image peut être représenté par un vecteur dont chaque
composante est un nombre de pixels de niveau de gris correspondant à son indice. Il
permet de fournir effectivement une estimation de la densité de probabilité des valeurs
des pixels sur l’image observée.
δ B2 (t ) δ B2 (t ) δ T2 (t )
λ (t) = η (t ) = k (t) =
δ W2 (t ) δ T2 δW2 (t )
δ B2 (t ) = δ T2 (t ) − δ W2 ( t )
max max
δ T (t ) =
2
∑ ( i − mT ) , 2
mT = ∑i* p i
: la moyenne totale de tous les points
i = min i = min dans l’image
t max
Pobjet ( t ) = ∑ p ,P i fond (t) = ∑p i = 1 − Pobjet ( t )
i = min i =t +1
• m fond , m objet : la moyenne des pixels appartenant au fond et celle des pixels
de l’objet.
Page 14
t max
∑i* p
i = min
i ∑i* p
i = t +1
i
m objet (t ) = , m fond ( t ) =
Pobjet Pfond
• δ 2fond (t ), δ objet
2
(t ) : la variance de la classe fond et la variance de la class
objet.
t max
∑ (i − m
i = min
objet ) 2 * pi ∑ (i − m
i = t +1
fond )2 * p i
δ objet
2
(t ) = , δ 2fond ( t ) =
Pobjet Pfond
k
H ( p1, p2 ,..., pk ) = − ∑ pi * log pi
i =1
N
où ∑p i =1
i =1
Plus l’entropie est grande, plus on obtient des informations. Plusieurs méthodes de
segmentation d’images l’ont utilisée dans le but de maximiser la qualité de l’information
obtenue du résultat final. [Pun,1980] [Kapur,1985] [Cheng,1998b] [Mello,2000]
[Braviano,1995].
où 0 ≤ µ S ( si ) ≤ 1
Principe :
Le principe de ces méthodes est de chercher une partition de l’image dont l’entropie
est la plus grande. De nombreuses méthodes sont proposées en se basant sur des
variations de l’entropie d’une partition. On va voir ci-dessous trois exemples dans le cas
de binarisation.
Page 15
Méthode de Pun :
Le seuil est choisi tel que la fonction H = H objet + H fond est maximale.
L−1
= max (H ) = max (−∑ p * log p − ∑ p * log p )
t
soptimal objet + H fond i i i i
t t
i= 0 i = t +1
Méthode de Kapur :
L−1
soptimal = max (H objet + H fond ) = max ( − ∑
t
pi p p pi
* log i − ∑ i * log )
t t
i =0 Pt Pt i= t+11 − Pt 1 − Pt
t
où Pt = ∑ pi
i= 0
Différant de ces deux méthodes précédentes, l’entropie d’une partition est calculée
en prenant des probabilités d’occurrence de sous-ensembles (objet et fond). La théorie de
sous-ensembles flous est comptée de plus dans son calcul. Alors, dans ce cas, l’entropie
d’une partition est :
2
H = − ∑ P( Ai ) * log P( Ai ) = − ( PObjet * log PObjet + Pfond * log Pfond )
i =1
L −1 L −1
où PObjet = ∑ µ objet ( i ) * p i , Pfond = ∑ µ fond ( i ) * pi
i= 0 i =0
Supposons que t soit la couleur apparaissant le plus souvent dans l’image. Prenons
cette valeur comme le seuil initial de l’image, les valeurs d’entropie de l’objet Hb et du
fond Hw sont déterminées comme dans [Pun,1980]. Un pixel i dont la couleur est
couleur(i) sera classé comme le fond si :
Page 16
2.3. Segmentation hiérarchique floue
Décrite dans [Gadi,2000], cette méthode est comme une représentante de
l’approche locale adaptative. Elle est basée sur un principe hiérarchique pour résoudre le
problème d’éclairage non uniforme. Sous l’hypothèse que l’image ne contient que deux
classes : l’objet et le fond, le principe de cette méthode est de récupérer le plus possible
des pixels à la classe objet.
♦ Fuzzification :
La condition pour que le critère d’homogénéité soit satisfait sur une région,
c’est qu’il n’y a plus de « différence significative » entre cette région et ses
quatre filles. Cette condition est vérifiée par le test statistique de Fisher.
♦ Défuzzification :
Page 17
(
µ Of ( x, y ) = h µ O0 ( x, y ), µ 1O ( x, y ),..., µ Ol −1 ( x , y ) )
(
= max µ O0 ( x, y ), µ 1O ( x, y ),..., µ Ol −1 ( x , y ) )
et le degré d’appartenance final au fond :
µ Ff ( x , y ) = 1 − µ Of ( x, y )
- Défuzzification : il s’agit de mettre au point des pixels à deux classes.
Cette méthode est proposée pour résoudre le problème d’éclairage non uniforme
sur l’image. Mais elle ne fonctionne bien que sur l’image dont le fond est vraiment
uniforme. Au cas contraire, des pixels du fond sont mis facilement à l’objet.
En considérant des images de documents graphiques, on constate que s’il n’y pas
de grande variation d’intensité des pixels appartenant à l’objet et pour diminuer l’effet
négatif du découpage, l’opérateur d’agrégation min(…) est plus convenable que
l’opérateur max (figure 2.4). Alors, quand on fait des tests sur l’image de documents,
l’opérateur d’agrégation min est pris au lieu de max à l’étape de décision.
Page 18
Figure 2.4 : Le résultat de la méthode [Gadi,2000] avec h = min(…)
Page 19
CHAPITRE 3 : METHODE PROPOSEE
Image originale
I Seuillage global
Image intermédiaire
II
Page 20
δ B2 ( t )
soptimal = arg max η ( t ) =
t∈[min,max ] δ T2
Au lieu de mettre le résultat de cette étape comme une image noire et blanche, on
va garder la valeur originale des pixels appartenant à l’objet pour obtenir une image
intermédiaire. Si gI (x, y) est l’intensité lumineuse du pixel (x, y) de cette image, alors :
255 si g ( x, y ) > T
g I (x , y ) =
g ( x, y) si g ( x, y ) ≤ T
Page 21
attribués à l'objet. En général, ce sont des pixels aux frontières objet-fond. C'est pourquoi
on a besoin d'un autre traitement pour éliminer ces pixels. Dans cette deuxième étape,
l'opération n'est effectuée que sur l'objet obtenu à partir de la première étape, c.à.d, on
manipule sur l'image intermédiaire I I mais sans compter les pixels du fond (ceux dont le
niveau de gris est égal à 255).
Le processus appliqué, afin de re-affecter un pixel qui est déjà classé comme l’objet
dans I I à la classe fond ou à la classe objet, se compose de 3 sous-étapes :
Soit ORi l’ensemble des pixels portant la valeur originale d’une région rectangle (une
sous-image) quelconque Ri de l’image intermédiaire I I . On peut considérer Ri comme
un nœud de l’arbre et R0 comme la racine I I .
ORi = {( x , y ) ∈ Ri g I ( x, y ) ≠ 255}, Ri ⊂ I I
Parce qu’on ne s’intéresse que sur l’ensemble ORi , à partir de maintenant tous les
notions et les formules concernant la région Ri ne sont appliquées que sur les pixels
dans ORi .
- Les noeuds au niveau k sont créés par des noeuds décomposables au niveau k-
1. Les noeuds décomposables sont ceux qui ne satisfont pas le critère
d'homogénéité. Un noeud décomposable au niveau k est divisé en 4 noeuds au
Page 22
niveau k + 1. Ceux qui ne sont pas décomposables représentent des noeuds
terminaux (des feuilles) de l'arbre. Ce processus est répété jusqu'à ce qu’il n'y a
plus de noeuds décomposables.
Niveau 1
Niveau 2
Dans ce processus, on doit vérifier s'il ne faut pas continuer à découper une image
en sous-images. Mais, comment détermine- t- on le critère d’arrêt ? Evidemment, on ne
décompose jamais une région Ri dont tous les pixels sont déjà classés comme le fond,
c’est à dire que l’ensemble ORi est vide. La région Ri sera représentée par un nœud
terminal. Pour d’autres régions, la décision dépend de la relation entre la région et ses
quatre filles correspondantes. En principe, on ne découpe plus une région s'il n'y a pas de
différence significative entre la moyenne de la région mère et celles de ses quatre filles,
ainsi que entre leurs variances. Alors, on doit prédéfinir un seuil e afin de définir la
« différence significative ». Pour éviter le problème de choisir le seuil, un test statistique
de Fisher est utilisé pour vérifier le critère d'arrêt [Gadi,2000]. Ce test nous permet de
comparer les moyennes et les écarts-types entre la mère Ri et les quatre filles Ri1, Ri2, Ri3,
Ri4.
Hypothèse null H 0 σ 1 = σ 2 = σ 3 = σ 4 = σ et m1 = m 2 = m 3 = m 4 = m
Hypothèse alternativ e H 1 ∃j ∈ {1, 2, 3, 4} σ j ≠ σ ou m j ≠ m
o
où
Page 23
Supposons que les quatre sous-images filles de l'image mère sont indépendantes et
présentent des distributions des niveaux de gris normales et identiques, le test
d'homogénéité f de Fisher a une distribution Fαp;n -p -1
4
K ∑ (m j − m ) 2 / 3
j =1
f = 4 K où :
∑ ∑ (X jk − m j ) /( 4 * ( K − 1))
2
j =1 k =1
Page 24
Figure 3.6 : Quadrillage de l’image intermédiaire
Page 25
degré d'appartenance est absolu dans toute la bande des niveaux de gris sauf l’intervalle
floue. Et les degrés d'appartenance d'un pixel (x, y) au niveau k sont déterminés par :
µ Fk ( x , y) = S Z ( g R ( x, y ); m − σ , m , m + σ ); µ Ok ( x , y ) = 1 − µ Fk ( x, y )
(
µ Of ( x, y ) = h µ O0 ( x , y ), µ 1O ( x , y ),..., µ Ol ( x, y ) )
On s’intéresse tout d’abord au degré d’appartenance du pixel à l’objet.
Comme les données traitées dans cette étape contiennent essentiellement des
pixels de l’objet, on doit assurer la qualité de l’objet obtenu à la fin. Si la fonction min (t-
norme de Zadeh) est choisie, la valeur la plus faible de tous les niveaux est rendue
comme la mesure d’appartenance du pixel à l’objet. Dans ce cas, Il risque de perdre une
partie de l’objet où l’intensité du niveau de gris est forte (plus claire). Tandis que si l’on
utilise la fonction max (t-conorme de Zadeh), les pixels de l’objet sont bien conservés et à
la fois les faux pixels à la frontière objet-fond sont effacés. La raison, c’est que on a
laissé, pour chaque pixel, la possibilité maximale d’appartenance à l’objet comme le degré
d’appartenance final. Par conséquent, la fonction t-conorme de Zadeh qui rend la valeur
la plus grande est choisie pour déterminer le degré d’appartenance final à l’objet :
( ) (
µ Of ( x, y ) = h µ O0 ( x , y ), µ 1O ( x , y ),..., µ Ol ( x , y ) = max µ O0 ( x, y), µ O1 ( x, y),..., µ Ol ( x, y) )
Et le degré d’appartenance d’un pixel au fond sera :
µ Ff ( x, y ) = 1 − µ Of ( x, y)
{
I F = ( x , y ), x = 0, M − 1, y = 0, N − 1, g F ( x, y ) ∈ {0,255} }
0 µ Ff ( x, y ) ≤ µ Of ( x, y )
g F ( x, y ) =
255 µ Ff ( x , y) > µ Of ( x , y )
Page 26
Figure 3.7 : Résultat final de la méthode proposée sur l’image jaures_partie1.tif
Page 27
CHAPITRE 4 : EVALUATIONS
- L’environnement : LINUX
Images originales :
Figure 4.3 : Image originale plan2.tif Figure 4.4 : Image originale extraire_1.tif
Page 28
Images résultats
Nous remarquons que les images c) dans les figures de 4.5 à 4.8 sont des résultats
obtenus par la méthode de Gadi et Benslimane avec un changement : la fonction
d’agrégation est t-norme (min) de Zadeh.
a)
Page 29
b)
c)
Page 30
a)
b)
c)
Page 31
a) b)
c) d)
Page 32
a)
b)
c)
Page 33
Dans la figure 4.5a), on a obtenu clairement des lignes et chiffres. Le fond entre les
lignes proches est bien détecté. Tandis que dans la figure 4.5b) les lignes, les textes ne
sont pas distingués. Dans la figure 4.5c) il y a des faux pixels classés à l’objet, et les
bords de l’objet ne sont pas lisses.
La méthode proposée a bien éliminé des bruits sur le fond et rendu un résultat
vraiment net dans la figure 4.6a). La méthode dans [Cheng,1998b] a mise des bruits
comme l’objet (figure 4.6b) ). Des fautes de binarisation apparaîtrent dans la figure 4.6c)
et 4.7c). Le résultat de Trier et Taxt dans 4.7d) serait le meilleur parmi les 4 résultats
(figure 4.7a) b) et c)) si une zone solide de l’objet n’est pas disparue.
Dans les figures 4.8c) et 4.8a), l’objet est bien détecté. Cependant, le résultat dans
4.8c) est plus claire. La raison ici, c’est que le fond sur l’image originale extrait_1.tif est
déjà tout à fait homogène.
Dans cette partie, on va prendre ces deux critères pour faire une comparaison entre
la méthode proposée avec quelques autres méthodes existant tel que la méthode de
Otsu, la méthode de Gadi et Benslimane, la méthode de Trier et Taxt [Trier,1995a]. Les
deux mesures de performance proposées par Levine & Nazif sont utilisées pour quantifier
le contraste et l’homogénéité [Tabbone,2003]:
La valeur de CI indique le contraste entre les deux classes fond et objet. Plus la
valeur de CI est grande, plus le contraste entre deux régions est élevé.
Page 34
4.2.2. Mesure d’homogénéité
∑ (g (x , y ) − m )
2
O
( x, y )∈objet
H I = σ objet =
Card (objet )
La valeur HI indique le degré d’homogénéité dans les régions. Dans ce cas, c’est
l’homogénéité des pixels dans la classe objet. On constate que plus cette valeur est
petite, plus la région est homogène.
Méthode de
Méthode de
Benslimane
Benslimane
Méthode de
Méthode de
proposée
proposée
Méthode
Méthode
Otsu
Otsu
A travers des tests, notre méthode a démontré son efficacité dans la binarisation
des images de documents graphiques. C’est une bonne solution pour résoudre le
problème de classification des pixels dans la zone floue à la frontière fond-objet.
Page 35
mais il y a une grande différence du temps d’exécution entre la méthode proposée et la
méthode de Gadi et Benslimane [Gadi,2000]. Les chiffres montrés dans le tableau 4.2
sont les temps d’exécution de deux méthodes quand on les exécute sur la même machine
avec les mêmes images.
Inconvénients
Observant l’image originale et le résultat dans la figure 4.8a), on trouve que le fond
de l’image originale est vraiment uniforme et le résultat de la première étape est déjà
parfait. La binarisation de cette image n’a pas besoin de la deuxième étape. Alors, le
résultat final est moins bien que le résultat intermédiaire. Il risque de perdre des points de
l’objet. Malheureusement, on n’avait pas encore trouvé une solution pour vérifier la
nécessité de cette étape. En principe, la vérification d’homogénéité de l’ensemble ORi au
sens que la variance est faible peut être une solution. Cependant, le test d’homogénéité
de façon automatique pour une région de l’image est encore un problème ouvert.
Page 36
CHAPITRE 5 : CONCLUSIONS
Pendant la durée de stage de six mois, j’ai fait des études sur les techniques de
segmentation d’images surtout la technique de binarisation et essayé de proposer, sous
des suggestions de mon responsable, une méthode de binarisation pour l’image de
documents graphiques. Après l’échec de quelques tests, une méthode de binarisation
coopérative en deux étapes a été proposée. Les résultats expérimentaux obtenus sur des
images de documents graphiques en terme de séparation l’objet et le fond sont
prometteurs. Nous avons, également, fait des études comparatives de notre méthode
avec d’autres comme celle de Otsu, la méthode se basant sur l’entropie floue de Cheng et
Chen et la méthode de Gadi et Benslimane. De plus, la complexité de la méthode n’est
pas grande en temps de calcul par comparaison à la méthode de Gadi sur laquelle la
méthode proposée se base.
Néanmoins, lorsque l’image issue de la première étape est trop homogène (i.e
variance très faible) le résultat issu de la deuxième se dégrade car la condition d’arrêt liée
à la construction de l’arbre quaternaire n’est plus vérifiée. Dans ce cas, pour chaque sous
région Ri, il faut examiner l’homogénéité des pixels dans ORi avant de vérifier la condition
de découpage pour éviter une fausse binarisation. Un seuil prédéfini pour la variance est
peut-être une solution pour le test d’homogénéité d’un ensemble, cependant le problème
réside dans le choix du seuil. On recherchera donc une méthode qui peut définir
automatiquement le seuil pour chaque ensemble ou bien vérifier automatique son
homogénéité.
Page 37
REFERENCES
[Braviano,1995] Gilson Braviano. « Logique floue en segmentation d'images: seuillage par
entropie et structures pyramidales irrégulières », thèse de doctorat à
l'Université Joseph Fourrier-Grenoble 1. Octobre 1995
[Cheng,1998a] H.D. Cheng, C. H. Chen, H.H. Chiu and Huijuan Xu. «Fuzzy Homogeneity
Approach to Multilevel Thresholding ». IEEE Transactions on Image
Processing, vol. 7, n. 7, July 1998
[Cheng,1998b] H.D. Cheng, Jim-Rong Chen and Jiguang Li. « Threshold selection based on
fuzzy c-partition entropy approach ». Pattern Recognition, vol. 31, No 7, pp.
857-870, 1998.
[Cheng,1999a] H. D. Cheng, Yen-Hung Chen, Ying Sun. « A novel fuzzy entropy approach to
image enhancement and thresholding ». Signal Processing 75, pp.277-301,
1999.
[Cheng,1999b] H.D. Cheng, Yen-Hung Chen. « Fuzzy partition of two -dimensional histogram
and its application to thresholding ». Pattern Recognition, vol.32, pp.825-843,
1999.
[Horaud, 1993] R. Horaud, O. Monga. Vision par ordinateur – outils fondamentaux. Editions
Hermès, 1993.
[Kapur, 1985] J.N. Kapur, P.K. Sahoo, A.K.C. Wong. « A New method for gray-level picture
threshold using the entropy of the histogram ».Graphical Models and Image
Processing, 29, 1985
[Kunt, 1993] Murat Kunt, Goesta Grandlund, Michel Kocher. «Traitement numérique des
images », vol.2, 1993
[Mello, 2000] Carlos A.B. Mello and Rafael D. Lins. « Image segmentation of historical
documents ». http://www.upe.poli.br/dsc/recpad/site_hist/visual2000.pdf
[Otsu, 1978] N.Otsu. « A threshold selection method from grey-level histograms ». IEEE
Trans. Syst. Man. Cybern., vol.SMC-8, 1978.
[Pun, 1980] T.Pun. « A New method for gray-level picture threshold using the entropy of
the histogram ». Signal processing, vol.2, n°3, 1980.
Page 38
[Tabbone,2003] Salvatore Tabbone, Laurent Wendling. « Multi-scale binarization of images ».
Pattern Recognition Letters, v.24 n.1-3, p.403-411, January 2003
[Tao,2003] Wen-Bing Tao, Jin-Wen Tian, Jian Liu. « Image segmentation by three-level
thresholding based on maximum fuzzy entropy and genetic algorithm »,
Pattern Recognition Letters, vol. 24, issue 16, pp.3069-3078, December 2003
[Trier,1995a] Øivind Due Trier and Torfinn Taxt. « Improvement of « Intergrated Function
Algorithm » for binarization of document images ». Pattern Recognition Lettres,
vol. 16, n° 3, March 1995.
[Trier, 1995b] Øivind Due Trier and Torfinn Taxt. “Evaluation of Binarisation Methods for
Document Images”. IEEE, Transactions on PAMI, vol. 17, number 3, March
1995.
[Wu,2003] Sue Wu, Adnan Amin. « Automatic thresholding of grey-level using multi-stage
th
approach », 7 International Conference on Document Analysis and
Recognition, vol.1, August 2003.
Page 39