0% ont trouvé ce document utile (0 vote)
15 vues56 pages

Document Fusionne

Transféré par

Malih Nourdine
Copyright
© © All Rights Reserved
Nous prenons très au sérieux les droits relatifs au contenu. Si vous pensez qu’il s’agit de votre contenu, signalez une atteinte au droit d’auteur ici.
Formats disponibles
Téléchargez aux formats PDF, TXT ou lisez en ligne sur Scribd
0% ont trouvé ce document utile (0 vote)
15 vues56 pages

Document Fusionne

Transféré par

Malih Nourdine
Copyright
© © All Rights Reserved
Nous prenons très au sérieux les droits relatifs au contenu. Si vous pensez qu’il s’agit de votre contenu, signalez une atteinte au droit d’auteur ici.
Formats disponibles
Téléchargez aux formats PDF, TXT ou lisez en ligne sur Scribd

REPUBLIQUE ALGERIENNE DEMOCRATIQUE ET POPULAIRE

MINISTERE DE L’ENSEIGNEMENT SUPERIEUR ET DE LA RECHERCHE


SCIENTIFIQUE
Université Larbi Ben M’hidi Oum El Bouaghi
Faculté des sciences exactes et sciences de la nature et de la vie

Département de mathématiques et Informatique


Mémoire de fin d’étude en vue de l’obtention du diplôme
Master en informatique
Option : Imagerie

Thème :

Reconnaissance de visage

Présenté par :Samia Mekkani .

Jury
Encadré par :
Dr :[Link].
M :[Link].

Examinateurs :
Melle :[Link].
M :[Link]

Soutenu le : 04/06/2014

Année universitaire : 2013-2014


Remerciements

J’adresse mes remerciements les plus chaleureux à : mes très cher


parents pour leur grand soutient et encouragement.
J’adresse mon profond remerciement à :Monsieur Berkane
Mohamed et Monsieur Taouche chérif mes encadreurs pour leur
aides, et également leurs témoigner ma gratitude pour leur patience
que j’ai apprécié afin de compléter ce travail…Merci !
J’adresse, également, mon remerciement à mes professeurs.
Enfin à tous mes amis et mes collègues.
Sommaires

Introduction générale

Chapitre 1 : état d’art

1. Introduction………………………………………………………………………………………………………….....1

2. Principales difficultés de la reconnaissance de visage…………….....…………………..1

1.1. Changement d’illumination……………………………………………………………………………………1


1.2. Variation de pose………………………………………………………………………………………..…….….2
1.3. Expressions faciales………………………………………………………………………………..…..…….….2
1.4. Présence ou absence des composants structurels………………………………………..………3
1.5. Occultations partielles………………………………………………………………………………..……….…3
[Link] générale d'un système de reconnaissance de visage …………… 4
4. Méthodes de la reconnaissance de visages……………………………………………………….6
4.1 Méthodes globales …………………………………………………………………………….…………….6
4.1.1 Analyse en Composantes Principales (ACP)………………………………….……....6
4.1.2. Analyse Discriminante Linéaire(LDA)………………………………………..…………..10
4.1.3. Réseau de neurones……………………………………………………………………………….10
4.1.4. Les Modèles de Markov Caché modulaire……………………………………..………11
4.2. Méthodes locales………………………………………………………….………….………………….…12
4.2.1 Méthodes locales basées sur les points d'intérêts(EBGM)…………………12
4.2.2. Les méthodes locales basées sur l'apparence du visage…………………..13
4..3. Méthodes Hybrides…………………….……………………...…………………………………………14
5. Domaines d'Applications……………………………………………….………………………………….….15
6. Conclusion……………………………………………..…………………………..……………………………………16
Sommaires

Chapitre 2 : La Méthode LBP

1. Introduction ………………………………………………………………………………………………….………17
2. Méthodes de LBP dans l'analyse de texture et classification………………………17

2.1. LBP de base ………………………………………………………………………………………………….…17

2.2. Modèle binaire Médian (MBP) ……………………………………………………………………………19

2.3. LBP Adaptive (ALBP) ……………………………………………………………………………………………20

3. La méthode LBP pour l'analyse et la reconnaissance du visage …………….…21


3.1. LBP pour la reconnaissance de visages……………………………………..……………….……22

3.2. LBP Allongée (ELBP) ………………………………………………………………………………………23

3.3. Amélioration de la configuration binaire locale (ILBP) ………………..…………..…24

3.4. Ligne des motifs binaires locales (LLBP) ………………………………………………….……25

3.5. Patrons locaux ternaires (LTP) ………………………………………………………….…….……26

3.6. Blocs multi-échelle des motifs binaires locaux (MBLBP) ……………………..………27


4. Conclusion…………………………………………………………………………………………………………28

Chapitre 3 : Implémentation et résultats

1. Introduction…………………………………………………………………………………………….……………29

2. Organigramme ………………………………………………………………………………..……………………29

[Link]…………………………………………………………………………………………….…………………30

4. Implémentation………………………………………………..……………………………………………………31
Sommaires

4.1. Environnement de développement………………………………...…………………………………31

4.1.1 Le matériel ………………………………………………………………….….…………………………31

4.1.2 Le logiciel…………………………………………………………………………………………….………32

4.2 Les données de test………………………………………………………………………….………………32

5. L’application………………………….………..……………………………………………………………………34

5.1. Les interfaces…………………………………………………………….……………………………………34

5.2. Exemple de code………………………………………………………….…………………..……………42

5.3 Les paramètres utilisés ……………………………………………………….…………………………42

6. Test et résultats…………………………………………………………………………………………………42

7. Conclusion…………………………………………………………………………………………………………46
Conclusion général
Les références
Résumé

Cette thèse présente un système d’authentification biométrique basé sur la reconnaissance


de visage. Le système est composé de deux modules: détection et authentification. Le but du
premier module consiste à détecter si un visage est contenu dans l’image. Le second module
détermine si ce visage appartient ou non à la personne qui tente de s’authenti fier. Les
contributions de cette thèse sont les suivantes: un module de détection temps-réel robuste
à lumière et capable de localiser des visages non frontaux, un module d’ authentification
basé sur l’adaptation de filtres locaux appelés LBP (Local Binary Pattern) une étude sur
l’évaluation de la qualité des modules de détection.
La première partie de ce travail discute le problème de la détection de visages. Les
principales limites des systèmes existants résident dans le manque de robustesse à la
lumière et aux occultations partielles du visage. Pour y remédier, nous proposons une
représentation du visage basée sur les LBP. Une attention particulière est apportée aux
processus de recherche dans l’image et de la fusion des multiples détections, qui peuvent
avoir un impact significatif sur les performances du système.
Dans la deuxième partie, nous présentons une nouvelle méthode d’ authentification
basée sur une représentation LBP de l’image. Elle offre une meilleure robustesse aux
conditions de lumière et une procédure d’entrainement plus simple et rapide.
La troisième partie adresse le problème de l’évaluation de la qualité de la détection
de visages. En premier lieu, nous analysons l’influence des erreurs de détection sur
l’authentification. Ensuite, nous démontrons empiriquement les limites des mesures de
détection existantes, puis nous proposons d’encapsuler le module d’authentification dans le
processus d’évaluation. La méthodologie proposée améliore l’évaluation de la performance
finale du module d’authentification.

Mots-clés: Détection et authentification de visages, Local Binary Patterns(LBP).


Introduction générale

La biométrie humaine est la partie de la biologie qui analyse statistiquement les


mesures faites sur l’Homme. Étymologiquement, biométrie humaine est synonyme
d’anthropométrie. Autrement dit, La biométrie s'applique à des particularités ou des
caractères humains uniques en leur genre et mesurables, permettant de reconnaître ou de
vérifier automatiquement l'identité ». Il faut noter que jusqu’à présent qu’aucune modalité
biométrique n’est en elle-même fiable à 100%[1].Les techniques appliquant la biométrie
visent donc à établir l’identité d’une personne en mesurant une ou plusieurs de ses
caractéristiques physiques variables. Les unes plus fiables que d'autres, mais toutes doivent
être infalsifiables et uniques pour pouvoir être représentatives d'un seul et même individu.
D'autre part, comme nous allons le voir, les caractéristiques physiques sont loin d'être aussi
parfaites et précises, qu’on pourrait le penser et l’on atteint très vite des limites pour ces
techniques. Il existe plusieurs caractéristiques physiques uniques pour un individu, ce qui
explique la diversité des systèmes appliquant la biométrie, L’avantage de ces
caractéristiques biométriques est d’être universelles, c’est-à-dire présentes chez toutes les
personnes à identifier. D’autre part, elles sont mesurables et uniques: deux personnes ne
peuvent posséder exactement la même caractéristique. Elles sont aussi permanentes ce qui
signifie qu’elles ne varient pas ou peu au cours du temps .L’intérêt des applications utilisant
la biométrie se résume en deux classes : faciliter le mode de vie, éviter la fraude.

Parmi les principales modalités biométriques (Figure 1) physiologiques (empreintes


digitales, forme de la main, traits du visage,...) et comportementales (dynamique du
tracé de la signature, frappe sur un clavier d'ordinateur,...) les traces biologiques (odeur,
salive, ADN,...). A titre d’exemples traités nous citons :

 La voix basée sur l’analyse des caractéristiques comme les fréquences, les
harmoniques, la puissance sonore, etc.
 Les empreintes digitales analyse des caractéristiques des sillons cutanés,
terminaison des sillons, croisements, bifurcations, etc.
 L’œil basée sur l’étude de la disposition des muscles circulaires et radiaux qui ouvrent
et ferment la pupille.
 La main mesure de la longueur, largeur, forme des phalanges, des articulations, des
lignes de la main, etc…
 La signature (reconnaissance statique ou dynamique) analyse de la forme
(statique) et/ou de la vitesse et de la trajectoire de la signature (dynamique)
…etc.
 Le visage cherche la géométrie du visage de face et profil, Le visage est sujet à
une variabilité tant naturelle (vieillissement, par exemple) que volontaire
(maquillage, chirurgie esthétique, grimaces, etc.). Son traitement est donc
difficile (forme des yeux, de la bouche, du nez, position des pommettes, …
etc.).
Figure 1 : les différentes caractéristiques biométriques

La reconnaissance des visages humains est considérée actuellement comme l’une


des tâches les plus importantes pour relever le défi en reconnaissance des formes. La
facilité et la précision avec lesquelles nous pouvons identifier nos amis et nos ennemis,
même dans des conditions défavorables, sont des capacités des plus étonnantes du système
visuel humain, le but de la reconnaissance des visages est de concevoir des systèmes
informatiques capables d'égaler les êtres humains dans ce domaine.

La reconnaissance de visages est la technique la plus commune et populaire et l'une des


technologies les plus utilisées et les plus adaptées. Elle reste la plus acceptable puisqu'elle
correspond à ce que les humains utilisent dans l'interaction visuelle, relativement aux autres
méthodes, la reconnaissance du visage s'avère plus avantageuse, d'une part c'est une
méthode non intrusive, c'est-à-dire elle n'exige pas la coopération du sujet (en observant les
individus à distance), et d'une autre part les capteurs utilisés sont peu coûteux.

Notre mémoire est organisé en trois chapitres :


1. Dans le premier chapitre, nous présentons l’état de l’art à savoir la position du
problème, la reconnaissance faciale en étudiant les principales composantes d’un
système de reconnaissance faciale et les algorithmes de reconnaissance de
visages 2D globale, locale et hybride.
2. Pour le chapitre 2, il comporte une analyse détaillée de la technique LBP
développées au cours de ces dernières années dans les domaines de la
reconnaissance 2D est présentée.
3. Le chapitre 3 est consacré à la partie conception et l’implémentation de la
méthode adopté, où nous présenterons la base de visages utilisée lors de la phase
d'apprentissage et la phase de test et nous présentons les résultats obtenues
suivi d’une analyse et discussion.
4. On terminera notre mémoire par une conclusion générale.
Etat d’art La reconnaissance de visage humaine Chapitre 1

1. Introduction

Les recherches sur la reconnaissance de visage ont commencé au début des années
70. Elles ont connu un essor récemment pour des raisons sécuritaires. On note en effet un
intérêt croissant de la part des états et des industriels pour ce domaine de recherche qui
s'est manifesté par l'introduction de l'image de visage numérisée dans les documents
officiels tels que le passeport et un probable carte d'identité biométrique. Déférentes bases
de données de visage ont été collectées afin de tester les performances des algorithmes de
reconnaissance et des compétitions à l'échelle mondiale sont organisées chaque année pour
évaluer les avancées réalisées dans ce domaine. Mais la biométrie de reconnaissance de
visage connaît des challenges techniques assez importants du fait que le visage est sujet à de
multiples variations liées soit aux conditions d’acquisition (problème d'illumination) soit aux
poses et à l'expression. [1]

2. Principales difficultés de la reconnaissance de visage


Pour le cerveau humain, le processus de la reconnaissance de visages est une tâche
visuelle de haut niveau. Bien que les êtres humains puissent détecter et identifier des
visages dans une scène sans beaucoup de peine, construire un système automatique qui
accomplit de telles tâches représente un sérieux défi. Ce défi est d’autant plus grand lorsque
les conditions d’acquisition des images sont très variables. Il existe deux types de variations
associées aux images de visages : inter et intra sujet. La variation inter-sujet est limitée à
cause de la ressemblance physique entre les individus. Par contre la variation intra-sujet est
plus vaste. Elle peut être attribuée à plusieurs facteurs que nous analysons ci-dessous.

2.1. Changement d’illumination

L’apparence d’un visage dans une image varie énormément en fonction de l’illumination
de la scène lors de la prise de vue (voir figure 1.1). Les variations d’éclairage rendent la tâche
de reconnaissance de visage très difficile. En effet, le changement d’apparence d’un visage
du à l'illumination, se révèle parfois plus critique que la différence physique entre les
individus, et peut entraîner une mauvaise classification des images d'entrée. Ceci a été
expérimentalement observé par Adini et al. [Face recognition: The problem of compensating
for changes in illumination direction] dont ils ont utilisé une base de données de 25
individus. L'identification de visage dans un environnement non contrôlé reste donc un
domaine de recherche ouvert. Les évaluations FRVT ont révélé que le problème de variation
d'illumination constitue un défi majeur pour la reconnaissance faciale.

1
Etat d’art La reconnaissance de visage humaine Chapitre 1

Figure 1. 1. Exemple de variation d’éclairage.

2.2. Variation de pose

Le taux de reconnaissance de visage baisse considérablement quand des variations


de pose sont présentes dans les images. Cette difficulté a été démontrée par des tests
d’évaluation élaborés sur les bases FERET(Face Récognition Technology) et FRVT. La variation
de pose est considérée comme un problème majeur pour les systèmes de reconnaissance
faciale. Quand le visage est de profil dans le plan image (orientation < 30°), il peut être
normalisé en détectant au moins deux traits faciaux (passant par les yeux). Cependant,
lorsque la rotation est supérieure à 30°, la normalisation géométrique n'est plus possible
(voir figure 1.2).

Figure 1. 2. Exemples de variation de poses.

2.3. Expressions faciales

Un autre facteur qui affecte l’apparence du visage est l’expression faciale (voir figure
1.3).La déformation du visage qui est due aux expressions faciales est localisée
principalement sur la partie inférieure du visage. L'information faciale se situant dans la
partie supérieure du visage reste quasi invariable. Elle est généralement suffisante pour
effectuer une identification. Toutefois, étant donné que l'expression faciale modifie l'aspect
du visage, elle entraîne forcément une diminution du taux de reconnaissance.
L'identification de visage avec expression faciale est un problème difficile qui est toujours
d’actualité et qui reste non résolu. L'information temporelle fournit une connaissance
additionnelle significative qui peut être utilisée pour résoudre ce problème.

2
Etat d’art La reconnaissance de visage humaine Chapitre 1

Figure 1. 3. Exemples de variation d’expressions.

2.4. Présence ou absence des composants structurels

La présence des composants structurels telle que la barbe, la moustache, ou bien les
lunettes peut modifier énormément les caractéristiques faciales telles que la forme, la
couleur, ou la taille du visage. De plus, ces composants peuvent cacher les caractéristiques
faciales de base causant ainsi une défaillance du système de reconnaissance. Par exemple
des lunettes opaques ne permettent pas de bien distinguer la forme et la couleur des yeux et
une moustache ou une barbe modifie la forme du visage.

Figure 1. 4. Présence ou absence des composants structurels.

2.5. Occultations partielles

Le visage peut être partiellement masqué par des objets dans la scène, ou par le port
d’accessoire tels que lunettes, écharpe... Dans le contexte de la biométrie, les systèmes
proposés doivent être non intrusifs c’est-à-dire qu’on ne doit pas compter sur une
coopération active du sujet. Par conséquent, il est important de savoir reconnaître des
visages partiellement occultés. Gross et al. [Third Workshop on Empirical Evaluation
Methods in Computer Vision] ont étudié l’impact du port de lunettes de soleil, et du cache-
nez occultant la partie inférieure du visage sur la reconnaissance faciale. Ils ont utilisé la base
de données AR. Leurs résultats expérimentaux semblent indiquer que, dans ces conditions
les performances des algorithmes de reconnaissance restent faibles.

3
Etat d’art La reconnaissance de visage humaine Chapitre 1

Figure 1. 5. Occultations partielles.

Nous avons mis en évidence les différentes difficultés inhérentes à la reconnaissance


automatique de visages, ce qui nous a permis de bien définir les problématiques traitées.
Notamment l’invariance à l’illumination. Les techniques utilisées aux différentes étapes de la
reconnaissance de visage sont détaillées dans la section suivante va fin de mettre en
évidence les particularités ainsi que les avantages et les inconvénients de chacune d’entre
elles. Ceci nous permettra, par la suite, de mettre en avant les critères de performances qui
vont guider le choix des solutions retenues dans le cadre de notre problématique. [2]

3. Architecture générale d'un système de reconnaissance de visage

Un système de reconnaissance de visage peut être considéré comme composé de 4


parties (figure 1.6)

Figure 1.6: Schéma général d'un système de reconnaissance de visage

 Capture : C’est la première étape dans le processus. C'est aussi l'acquisition des
informations et leur transfert vers l'unité de traitement. Elle est une étape très importante
dans les systèmes de reconnaissance. En effet, avoir des images de bonne qualité en
référence améliore les performances de reconnaissance. Il faut réussir à capter l'information
pertinente sans bruit.
Dans la reconnaissance de visage on peut utiliser les capteurs 3D par exemple pour
s'affranchir des problèmes de pose. Mais leur prix excessif ne permet pas une utilisation à

4
Etat d’art La reconnaissance de visage humaine Chapitre 1

grande échelle. Les capteurs en proche infrarouge sont utilisés pour éliminer les problèmes
de l'illumination.
 Détection du visage Après avoir capturé la scène contenant un visage, la deuxième
étape consiste à l'extraire de l'image. Cela peut se faire par détection de la couleur de la
peau, ou par des méthodes détectant les différentes caractéristiques du visage par des
descripteurs locaux (adaboost). Cette étape est autant plus délicate autant que l'image
acquise contient plusieurs objets de visage ou un fond non uniforme qui crée une texture
perturbant la bonne segmentation du visage. Cette étape est dépendante de la qualité des

images acquise. Après la segmentation du visage, on peut filtrer ou améliorer la


qualité par des prétraitements qui sont appliqués au visage extrait. On peut effectuer des
normalisations géométrique et photométrique. Ces prétraitements sont nécessaires pour
éliminer ou limiter les variations de pose ou d'illumination. Un prétraitement photométrique
tend à uniformiser l'éclairage dans une image et ainsi minimiser l'influence de l'illumination.
Cela peut être effectué soit par des méthodes simples telle que l'égalisation d'histogramme,
une correction gamma ou par des méthodes plus complexes tel que le lissage anisotropique
ou la méthode retinex. Une normalisation géométrique est un ajustement du visage pour
qu'il ait une dimension donnée et qu'il soit horizontal. La taille du visage est généralement
donnée par la distance inter-oculaire. La figure 2.2 montre la normalisation géométrique.

Figure 1.7: Normalisation géométrique du visage

Tous ces prétraitements tendent à éliminer les variations de formes du visage (rotation,
taille) et à avoir une image uniformément éclairée. Ainsi, l'image du visage ressemble à une
image acquise dans de bonnes conditions, comparable à celles de l'image de référence. On
diminuera donc les chances d'un faux rejet.

 Extraction de caractéristiques le but est d'extraire les caractéristiques du visage qui


peuvent le rendre à la fois différent de celui des autres personnes et robuste aux variations
de la personne elle-même. C'est l'information nécessaire pour que le visage d'une
personne ne ressemble pas à celui d'une autre personne et en même temps qu'il ressemble
à lui-même dans d'autres conditions d'acquisition. Au début des travaux sur la
reconnaissance de visage, on a estimé qu'une représentation du visage devait passer par

5
Etat d’art La reconnaissance de visage humaine Chapitre 1

l'utilisation de la bouche, des yeux, du nez, de leurs positions relatives et de leur


géométrie. Mais cette procédure a montré ses limites. Il faut alors une analyse plus

Poussée du visage pour trouver d'autres caractéristiques. Dans certaines méthodes,


on n'utilise d'ailleurs que la détection des yeux pour normaliser le visage et on fait ensuite
une étude globale du visage.
 Comparaison des caractéristiques selon les caractéristiques extraites
précédemment, les algorithmes de comparaison diffèrent. On trouve dans la littérature
plusieurs approches : calcul de distance, calcul de similarité.[8]

4. Méthodes de la reconnaissance de visages

4.1 Méthodes globales

Les Méthodes globales sont basées sur des techniques d'analyse statistique bien
connues. Il n'est pas nécessaire de s'intéresser à certains points caractéristiques du visage
(comme les centres des yeux, les narines, le centre de la bouche,. . . )pour normaliser les
images. Dans ces méthodes, les images de visage (qui peuvent être vues comme des
matrices de valeurs de pixels) sont traitées de manière globale et sont généralement
transformées en vecteurs, plus faciles à manipuler.

L'avantage principal des méthodes globales est qu'elles sont relativement rapides à
mettre en œuvre et que les calculs de base sont d'une complexité moyenne. En revanche,
elles sont très sensibles aux variations d'éclairement, de pose et d'expression faciale. Dans
les méthodes globales, la technique la plus populaire est l'analyse en composent principales
(ACP). L'idée est de trouver une transformation linéaire dans un espace de dimension
réduite qui maximise la variance des projections des échantillons originaux.
Il existe d'autres techniques comme l'analyse discriminante linéaire (LDA), elle à été
appliquée aux visages en 1996 ou encore l'analyse en composantes indépendantes (ICA)...

4.1.1 Analyse en Composantes Principales (ACP)

L’algorithme ACP adapté à l’analyse et l’identification de visage est connu sous le nom
de EigenFaces (visages propres) et a été développé par M.A. Turk et A.P Pentland[In Proc.
Intl. Conf. On Computer Vision and Pattern Recognition] en 1991. Il se divise en une phase
d’apprentissage et une phase de classifi[Link] cours de la phase d’apprentissage, un
espace propre est construit à partir d’une base d’apprentissage en utilisant la méthode ACP
puis ces mêmes images sont projetées sur l’espace ainsi obtenu. Durant la phase de
classification, un visage test est projeté à son tour sur ce même espace pour être alors
identifié en le comparant aux projections de chacun des visages de la base d’apprentissage.

6
Etat d’art La reconnaissance de visage humaine Chapitre 1

Cela revient à projeter les images sur une base orthogonale de vecteurs particuliers qui
présentent les caractéristiques les plus indépendantes possible des visages (la redondance a
donc été éliminée) pour mettre en évidence leurs déférences. En termes mathématiques,
cela revient à considérer une image de taille N = n × m comme un vecteur de dimension N.
Autrement dit on représente ce visage comme un point dans un espace de dimension N.

Soit Г le vecteur dedimensionN correspondant à une image ”i” de la base


d’apprentissage composée de M images. Soit Ψ l’image moyenne de cette base
d’apprentissage définie par :

= ∑ Г (1)

Soit ɸ un vecteur de dimension N correspondant à l’image i dont on a soustrait l’image


moyenne telle que :

ɸ Г − (2)

Etant donnée la dimension de chacun de ces vecteurs, il serait difficile d’implanter un


quelconque algorithme sans les projeter sur une base adaptée. C’est là tout l’intérêt de
méthode ACP qui permet de trouver un ensemble de K vecteurs orthogonaux P décrivant de
façon adaptée la distribution de ces visages en réalisant une combinaison linéaire des
vecteurs de la base originale. Pour cela, on souhaite éliminer la redondance d’information
traduite en termes mathématiques par la matrice de covariance ” ” définie comme une
matrice de dimension N × N :

= ɸ ɸ = XX (3)

= [ɸ , ɸ , … … … … ɸ ],une matrice de dimension N × M (4)

Diminuer la redondance d’information est équivalent à dire que la covariance


entredeux images doit être la plus petite possible ce qui revient à diagonaliser ” L’ACP
suppose que plus la valeur d’une variance est élevée plus elle traduit la différence existant
entre deux images. Autrement dit, les directions associées aux variances élevées sont
gardées et correspondent aux directions principales. Les directions principales ne sont rien
d’autre que les M vecteurs propres ”v” de la matrice ”A” définie par :

= XX (5)

7
Etat d’art La reconnaissance de visage humaine Chapitre 1

Ces vecteurs forment ainsi une combinaison linéaire des M images de la base
d’apprentissage pour former les EigenFacesX. également vecteurs propres de . On
montre surla figure 2.1.1 un exemple d’EigenFaces obtenus sur la base Feret.

Figure1.8 :Illustration de plusieurs Eigenfaces obtenus sur la base Feret.

En pratique on réorganise les valeurs propres de ” ” dans l’ordre croissant pour


n’engarder que les M’ (M’<M)valeurs les plus élevées. On en déduit les M directions
principales associées aux variances des données d’apprentissage les plus élevées et qui
correspondent aux vecteurs propres associés. La valeur M’ varie en fonction de la base
d’apprentissage utilisée. Il convient donc, dans un premier temps, de calculer l’ensemble des
valeurs propres pour déterminer celles dont les valeurs sont suffisamment importantes
pour être considérées par l’algorithme. La décision finale sur la valeur de M’revient à
l’utilisateur. En effet, il n’existe pas vraiment de règle concernant ce choix. Généralement,
celui-ci est déterminé en calculant la concentration d’information (en pourcentage)
contenue par chaque valeur propre et en ne gardant que les plus signi ficatives. Le tracé
d’une courbe de pourcentage cumulé peut ainsi faciliter la prise de décision (un seuil peut
être fixé au point de flexion de la courbe). Également souvent utilisé, le critère empirique de
Kaiser permet quant à lui de ne garder que les composantes principales dont la valeur
propre est supérieure à 1.

Une fois le nombre de composantes principales fixé, il reste enfin à projeter les
images ɸ sur l’espace des visages ainsi formé. est définie comme suit :

={ , , … . . ., ʹ } (6)

la matrice de projection qui décrit la classe de visage est définie par :

= , , ……, ʹ (7)

Enfin, le projeté sur d’une image ɸ (ramenée à sa moyenne) est donnée par :

8
Etat d’art La reconnaissance de visage humaine Chapitre 1

ʹ
ɸ =∑ X. (8)

Pour l’identification, l’idée est de trouver le kème visage de la base d’apprentissage qui
minimise la distance euclidienne entre le vecteur de projection Ωet celui de l’image test :

: = || Ω − Ω || (9)

Cette distance peut être seuillée pour minimiser les erreurs de classifi[Link]
augmenter la pertinence de la reconnaissance, M.A. Turk et A.P Pentl and proposent
également de considérer la distance à l’espace des visages (DFFS ou Distance From Face
Space) comme un critère de décision. Plus cette distance est courte, plus le visage que l’on
cherche à reconnaître a de chance d’être correctement reconnu. Quatre cas déférents
peuvent être rencontrés comme cela est illustré sur la figure 1.9, Le premier cas représente
un visage correctement reconnu. La distance est suffisamment petite pour considérer la
projection appartenant à la classe 1. Dans le second cas le visage n’est pas reconnu car la
projection n’appartient à aucune des classes. La distance calculée pour chacune des trois
classes représentées est trop importante pour pouvoir considérer ce visage comme
appartenant à une de ces classes. Pour le troisième et le quatrième cas, la distance à
l’espace des visages est importante contrairement aux deux premiers cas. Le troisième cas

illustre cependant un cas de faux positif : la DFFS est importante mais la distance est
suffisamment courte pour considérer ce visage comme apparten ant à la classe 3.

De nombreuses techniques d’identification de personne ont par la suite été


développées pour améliorer les performances de l’algorithme Eigenfaces. Les méthodes
basées sur l’analyse discriminante linéaire en font notamment partie. L’idée est de trouver
les directions de projection les plus discriminantes dans l’espace des visages. [4]

Figure1.9 :Illustration des quatre cas pouvant être rencontrés après projection d’une imagesur l’espace des
visages schéma adapté de.

9
Etat d’art La reconnaissance de visage humaine Chapitre 1

4.1.2. Analyse Discriminante Linéaire ( Linear Discriminative Analysis :LDA)

L’algorithme LDA adapté à l’analyse et l’identification de visage est connu sous le


nom de FisherFaces et a été développé par Belhumeur et al. À l’université de Yale aux USA
en 1997 . Contrairement à l’algorithme précédent qui permet d’extraire des caractéristiques
particulières à chaque image, celui-ci permet de réaliser une véritable séparation de classes.
Il utilise en effet une étiquette de cla sse associée à chacune des variables lors de
l’apprentissage. Cette technique est donc basée sur un apprentissage supervisée, c’est à dire
que l’on dispose cette fois-ci d’informations supplémentaires concernant les données
d’apprentissage qui doit nous permettre de réaliser une classification de ces données et de
trouver la classe à laquelle appartient toute nouvelle observation. Cela demande donc de
diviser au préalable la base d’apprentissage en c classes différentes. Autrement dit, chaque
personne de cette base est équivalent à une classe et à chacune d’entre-elles est associée au
moins deux images. L’objectif de cet algorithme est cette fois de maximiser le rapport entre
les variations inter-classe (les variations entre les images de personnes différentes) et les
variations intra-classe (les variations entre les images d’une même personne). Ainsi, comme
précédemment, la méthode FisherFace consiste à trouver un espace adéquat sur lequel vont
être projetées les images de la base d’apprentissage tout comme celles de la base test.
L’identification est réalisée en comparant la projection de l’image test avec chacune des
projections des images de la base d’apprentissage. Comme précédemment G est le vecteur
de dimension N correspondant à une image i de la base d’apprentissage, laquelle est
composée de M images.

Cette méthode est utilisée efficacement dans de nombreux problèmes de


classification et de réduction de dimension. Cependant, dans le cas où les données sont de
trop grandes dimensions, il n’est pas possible d’appliquer directement cette méthode sur les
images sans diminuer au préalable la dimension des données. Dans ce cas, au lieu d’utiliser
directement la valeur des pixels des images, une ACP est premièrement appliquée sur les
données et c’est la représentation des images dans l’espace des visages qui est utilisée. [5]

4.1.3. Réseau de neurones

Rowley et al. [twork based Face Detection",], ont proposé un système de détection de
visage basé sur la classification par des réseaux de neurones. Leur technique est divisée en
deux étapes:
La localisation des visages en utilisant un réseau de neurones et la vérification des résultats
obtenus. Les auteurs ont construit un réseau de neurones qui, à partir d’une image
prétraitée de 20x20 pixels, indique s’il s’agit d’un visage ou non. Le prétraitement consiste à
égaliser l’histogramme. L’image est balayée avec des fenêtres de 20x20. Pour détecter les

10
Etat d’art La reconnaissance de visage humaine Chapitre 1

visages de différentes tailles, une analyse multi-résolutions est effectuée. L’extension a aussi
été proposée afin de déterminer un réseau de neurones indiquant le degré de rotation d’un
visage. Ainsi, le système est capable de détecter des visages ayant subi des rotations dans le
plan et de différentes échelles. L’un des avantages des réseaux de neurones est leur
robustesse au bruit. Malheureusement, les réseaux de neurones, sont souvent difficiles à
construire. Leur structure (nombre de couches cachées pour les perceptrons par exemple)
influe beaucoup sur les résultats et il n’existe pas de méthode pour déterminer
automatiquement cette structure. La phase d’apprentissage est difficile à mener puisque les
exemples doivent être correctement choisis (en nombre et en configuration). [2]

4.1.4. Les Modèles de Markov Caché modulaire

Les méthodes mentionnées ci-dessus ne considèrent pas explicitement le rapport


entre les caractéristiques locales. Une autre façon intéressante d'incorporer des
informations globales est la méthode basée sur les Modèles de Markov Caché (MMC). Plutôt
que de traiter l’image de visage comme un graphe topologique statique où les
caractéristiques locales représentent les nœuds, la méthode basée sur les MMC caractérise
le modèle de visage comme un processus aléatoire dynamique avec un ensemble de
paramètres. Samaria et al. [in: British Machine Vision Conference]ont illustré l'utilité des
techniques MMC dans l'identification de visages. Dans leur méthode, un modèle de visage
est divisé en cinq régions qui se chevauchent, incluant le front, les yeux, le nez, la bouche et
le menton. La technique MMC est introduite en considérant chaque région comme un état
caché d'un modèle MMC. Un modèle de visage est alors considéré comme une séquence
d'observation constituée de cinq états, dont chacun peut être modélisé par une distribution
gaussienne multi-variables, et les transitions probabilistes entre les états peuvent être
apprise à partir des frontières entre les régions. Après que le MMC soit entraîné, un visage
peut être reconnu en calculant la probabilité de sortie de son ordre d'observation.
L’inconvénient de cette méthode est qu’elle est trop exigeante en termes d’échantillons
d’apprentissage afin d’assurer la fiabilité de l’estimation des paramètres. Le et al ont
présenté une méthode pour rendre la technique MMC applicable dans le cas d’un exemple
d’apprentissage. Deux facteurs ont contribué à la faisabilité et à l'efficacité de leur méthode.
D'abord, ils ont produit une grande collection de vecteurs d'observation de chaque image,
dans les deux directions verticale et horizontale, agrandissant ainsi l’ensemble
d’apprentissage. Deuxièmement, l'Ondelette de Haar a été appliquée à l'image pour
diminuer la dimension des vecteurs d'observation et améliorer la robustesse. Leurs résultats
expérimentaux évalués sur la base de données de visage frontal montrent que la méthode
proposée surpasse les approches PCA, LDA et l'analyse de caractéristiques locales (LFA local
feature analysis). [2]

11
Etat d’art La reconnaissance de visage humaine Chapitre 1

4.2. Méthodes locales

Les méthodes locales peuvent être classées en deux catégories, les méthodes basées
sur les points d'intérêt et celles basées sur l'apparence du visage.

4.2.1 Méthodes locales basées sur les points d'intérêts

On détecte tout d'abord les points d'intérêts et ensuite on extrait des


caractéristiques localisées sur ces points d'intérêt. Les méthodes les plus anciennes en
reconnaissance de visages appartiennent à cette catégorie. Elles s'appuient toutes sur
L’extraction de caractéristiques géométriques spécifiques telles que la largeur de la tête, les
distances entre les yeux,. . . Ces données sont ensuite utilisées par des classificateurs on de
reconnaitre des individus. Ces méthodes présentent les deux inconvénients suivants :
les caractéristiques géométriques sont difficiles à extraire dans certains cas puisque
la tâche de la détection précise de points caractéristiques n'est pas facile, en particulier dans
les cas ou des occultations ou des variations (pose, expression) de visages sont présentes, et
les caractéristiques géométriques seules ne sont pas suffisantes pour représenter réellement
un visage, alors que d'autres informations utiles telles que les valeurs des niveaux de gris de
l'image sont complètement écartées.

Ces deux limites ont engendré deux directions de recherche. La première se


concentre sur les performances des détecteurs de points caractéristiques du visage. Dans
Brunelli et Poggio [IEEE Trans. Pattern Anal. Mach. Intell] ont proposé d'utiliser un ensemble
d'apprentissage pour détecter la position de l'œil dans une image. Ils ont tout d'abord
calculé pour chaque point des coefficients de corrélation entre l'image de test et les images
de l'ensemble d'apprentissage et ensuite ils ont cherché les valeurs maximales. Rowley et al
Ont utilisé plusieurs détecteurs de traits spécifiques correspondant à chaque partie du
visage, telles que les yeux, le nez, la bouche,. . . . Malgré toutes ces recherches, il n'existe pas
encore de détecteur de points caractéristiques qui soit suffisamment précis.
Dans la deuxième direction, les méthodes se concentrent sur des représentations plus
élaborées des informations portées par les points caractéristiques du visage, plutôt que
simplement sur des caractéristiques géométriques. Manjunath et al [ in: Proceedings, IEEE
Conference on Computer Vision and Pattern Recognition] ont proposé des algorithmes pour
détecter et représenter des caractéristiques faciales à partir d'ondelettes de Gabor. Pour
chaque point détecté, deux types d'information sont stockées : sa position et ses
caractéristiques (les caractéristiques extraites en utilisant le filtre Gabor sur le point
considéré). Pour modéliser la relation entre les points caractéristiques, un graphe
topologique est construit pour chaque visage.

12
Etat d’art La reconnaissance de visage humaine Chapitre 1

 Elastic Bunch Graph Matching (EBGM)


Plus tard, Wiskott et al. [IEEE Trans. on Pattern Analysis and Machine Intelligence] ont
proposé une méthode très connue appelée Elastic Bunch Graph Matching (EBGM), où les
nœuds des graphes sont situés sur un certain nombre de points sélectionnes du visage (voir
la figure 1.10) De manière similaire à la méthode de Wiskott et al.
Ont utilisé les ondelettes de Gabor pour extraire les caractéristiques des points
détectes car les filtres de Gabor sont robustes aux changements d'illumination, aux
distorsions et aux variations d'échelle. De ce fait, l'EBGM fut l'un des algorithmes les plus
performants lors de la compétition de FERET en 1996.

Figure 1.10 :EBGM

4.2.2. Les méthodes locales basées sur l'apparence du visage

Dans les méthodes locales basées sur l'apparence du visage, on divise le visage en
petites régions (ou patches) sur lesquelles les caractéristiques locales sont extraites
directement. Martinez a présenté une approche probabiliste locale pour la reconnaissance
de visages qui sont occultés partiellement et avec des variations d'expression dans le cas où
une seule image de référence est disponible. De nombreux échantillons virtuels sont d'abord
générés à l'aide d'une méthode de perturbation de l'image, puis, chaque visage est divisé en
six régions locales enforme d'ellipse. Ensuite, tous les patches locaux à la même position de
chaque visage sont regroupés séparément dans un sous-espace de visages (donc six sous-
espaces au total). Dans la phase d'identification, les images de test sont également divisées
en six zones locales et sont projetées sur les espaces propres calculés ci-dessus,
respectivement. Une approche probabiliste est utilisée pour mesurer la similarité d'une paire
d'images. Des expériences sur un ensemble de 2600 images montrent que l'approche
probabiliste locale ne réduit pas le taux de reconnaissance même lors que du visage est
occulté Cependant, les complexités de calcul et de stockage ainsi que la procédure de
génération des échantillons virtuels sont très compliquées (6615 échantillons par
individu),en particulier si on a une base de référence avec de nombreux visages.

13
Etat d’art La reconnaissance de visage humaine Chapitre 1

La variation de pose est l'une des questions les plus importantes et difficiles en
reconnaissance automatique de visages, en particulier dans le cas où une seule image de
référence est disponible. Pour traiter ce problème, Kanade et Yamada [In In IEEE
International Symposium on Computational Intelligence in Robotics and Automation] ont
proposé une méthode probabiliste qui est similaire à celle de Moghaddam et Pentland [on
Pattern Analysis and Machine Intelligence]. Les méthodes mentionnées ci-dessus ne
considèrent pas explicitement les relations existantes entre les caractéristiques locales. Il est
concevable que l'utilisation de cette information soit bénéfique pour le système de
reconnaissance. Une solution possible est de construire un modèle flexible de géométrie sur
les caractéristiques locales comme cela se fait dans la méthode EBGM. [4]

4.3. Méthodes Hybrides

Les méthodes hybrides sont des approches qui combinent les caractéristiques
holistiques et locales afin d’améliorer les performances de la reconnaissance de visages. En
effet, les caractéristiques locales et les caractéristiques globales ont des propriétés tout à
fait différentes. On peut espérer pouvoir exploiter leur complémentarité pour améliorer la
classification. [2]

L'idée est de les combiner de manière à utiliser les avantages de l'une pour contre
balancer les défauts de l'autre. La combinaison efficace entre caractéristiques locales et
globales reste pour le moment un problème et peu de travaux sur son application au
problème de la reconnaissance faciale existent.[6]

Le tableau 1.1 récapitule qualitativement la différence entre les deux types de


caractéristiques.

Facteurs de variations Caractéristiques locales Caractéristiques globales


Illuminations Très sensible Sensible
Expressions Pas sensible Sensible
Pose Sensible Très sensible
Bruit Très sensible Sensible
Occlusion Pas sensible Très sensible
Tableau 1.1 : Comparaison des méthodes basées sur les caractéristiques locales ou globales. [2]

Nous pouvons voir que les caractéristiques locales et globales réagissant


différemment sensibles aux facteurs de variation. Par exemple, les changements
d'illumination peuvent avoir plus d'influence sur les caractéristiques locales, tandis que les
changements d'expression ont plus d'impact sur les caractéristiques holistiques. Ainsi, les

14
Etat d’art La reconnaissance de visage humaine Chapitre 1

méthodes hybrides peuvent constituer une approche efficace pour réduire la complexité des
classifieurs et améliorer leur capacité de généralisation. Malgré ces avantages, les travaux de
recherche dans ce domaine restent relativement peu nombreux, probablement en raison
des difficultés mentionnées ci-dessus, tandis que les méthodes hybrides classiques (c'est-à-
dire qui utilisent plusieurs exemples d’apprentissage par personne), comme les modèles
d'apparence flexibles ou le LFA hybride ne sont pas généralement appropriées pour traiter le
cas d’un seul exemple d’apprentissage.

5. Domaines d'Applications
Le grand intérêt accordé à la reconnaissance des visages est du à l'importance et à
l'utilité du visage par rapport aux autres parties du corps humain. En effet à partir de l'image
du visage d'une personne on peut deviner son identité, sa race, son sexe, etc. Cet intérêt
s'explique aussi par la multitude et la variété des domaines d'applications possibles, parmi
lesquelles on trouve :

• Les systèmes de contrôle d'accès automatique : Une caméra placée à l'entrée d'un site
envoie les images des individus, désirant accéder à ce site, à un ordinateur qui effectue
une reconnaissance des visages pour décider s'il faut accorder l'accès ou non.

• Les systèmes de télésurveillance et d'identification criminelle : Pour les enquêteurs la


vérification des identités des suspects peut être assistée par ordinateur ou entièrement
automatisée.

• Les interfaces homme-machine : On peut rendre la communication entre l'homme et la


machine plus attractive, plus naturelle et plus confortable. Par exemple, s'il est possible
d'estimer la direction de la tête, on peut diriger une caméra vers l'objet que

L’individu regarde et acquérir des informations concernant cet objet .En E1A0
(Enseignement Intelligemment Assisté par Ordinateur), le système (le Tuteur) peut deviner si
l'élève a compris une certaine notion selon l'expression de son visage (souriant, satisfait,
étonné ou mécontent).

15
Etat d’art La reconnaissance de visage humaine Chapitre 1

6. Conclusion

Par ailleurs, nous avons présenté les trois classes des techniques de reconnaissance 2D
de visages en trois grandes catégories : les approches globales, les approches locales et les
approches hybrides.

Nous avons vu l'utilité de la reconnaissance des visages et nous donnons un aperçu sur
les différentes méthodes et les systèmes existants de reconnaissance des visages humains.

Dans le chapitre suivant nous déposons la méthode LBP (Local BinaryPatter) en détail
ainsi que ses différentes variantes.

16
La Méthode LBP(Local Binary Patterns) Chapitre 2

1. Introduction

Durant les vingt dernières années, la reconnaissance automatique de visages est


devenue un enjeu primordial, notamment dans les domaines de la sécurité et de la
surveillance. Malgré la multitude de techniques proposées et les progrès réalisés, le problème
reste non résolu, comme le montre la récente évaluation menée par le(NIST) National
Institute of Standards and Technology.

La reconnaissance du visage a atteint un haut niveau des performances même avec


l’utilisation d’un seul exemple d’apprentissage. Dans les conditions actuelles (changement
les conduisons d’éclairages, variations de l‘expression faciale, modifications de l’apparence
de visage (lunettes, barbe…). Des travaux dans la reconnaissance faciale, le système visuel
humaine reste le plus robuste face aux diverses variations pouvant altérer le processus
d’identification De nombreuses techniques ont été développées ces dernières années, nous
avons passées en revue les plus connues dans le chapitre deux. Parmi elle la méthode LBP
qui est une technique particulièrement prisée par les chercheurs de la communauté de a
biométrie.

2. Méthodes de LBP dans l'analyse de texture et classification

Parce que la méthode de LBP est principalement utilisée pour décrire les
informations de caractéristique de texture, les applications des premières études se sont
fixées sur l'analyse de texture et sur traitement de classification. Plusieurs types
d'amélioration de la LBP influent des méthodes sont discutés et analysés comme suit [7] :

2.1. LBP de base

Pour chaque pixel de niveau de gris d'une image, on extrait la distribution de


niveaux de gris du voisinage circulaire = ( , ,... ) où P est le nombre de points
du voisinage, et les points { ,... } sont les niveaux de gris des P points uniformément
répartis sur le cercle de rayon R. Pour extraire les variations locales de luminance, le niveau

17
La Méthode LBP(Local Binary Patterns) Chapitre 2

de gris central du voisinage est retranché aux niveaux des autres pixels du voisinage. Un
seuil est en suite appliqué [4] :

, ( , )=∑ − 2 1

0, <0
( )= 2
1 , ≥0

Figure 2.1 : Construction d’un forme binaire et calcul du code LBP pour un pixel central. [4]

Avec LBP uniforme , , c'est possible de détecter la caractéristique (local) des


textures dans l'image, comme les endroits, les fins de ligne, les bords et les coins. Ceci est
fait en divisant une image dans plusieurs petites régions de lesquelles les caractéristiques
sont extraites. Ces caractéristiques consistent en des modèles binaires qui décrivent les
environs de pixels dans les régions de points d'échantillonnage de sur un cercle de
rayon .

Cette méthode est couramment utilisée dans les problèmes de classification de


textures.

18
La Méthode LBP(Local Binary Patterns) Chapitre 2

LBP (Local Binary Pattern), et défini sur des voisinages circulaires [5] (figure 2.2).

Figure 2.2 : Représentation de 3 voisinages possibles utilisés par l’algorithme LBP. P fait référence au nombre
de pixels voisins du pixel central considéré et R fait référence au rayon du cercle pris comme motif de

L'opérateur LBP obtenu avec P = 8 et R = 1,( , ) est très proche de l'opérateur


LBP d'origine. La principale différence est que les pixels doivent d'abord être interpolés pour
obtenir les valeurs des points sur le cercle (voisinage circulaire au lieu de rectangulaire).

Une autre extension à l'opérateur d'origine est le LBP uniforme. Un code LBP est
uniforme s'il contient au plus deux transitions de bits de 0 à 1 ou vice-versa lorsque la chaîne
binaire est considéré circulaire. Par exemple, 00000000, 00011110 et 10000011 sont les
codes uniformes. L'utilisation d'un code LBP uniforme, noté à deux avantages.

Le premier est le gain en mémoire et en temps calcul. Le deuxième est que


permet de détecter uniquement les textures locales importantes, comme les spots, les fins
de ligne, les bords et les coins.

OJALA a constaté que seuls 58 des 256 patterns LBP sont uniformes mais
expérimentalement, il a été constaté que 90% des patterns rencontrés dans les images sont
uniformes.[4]

2.2. Modèle binaire Médian (MBP)

Hafiane et al A proposé le modèle binaire médian (MBP) la méthode pour


classification de texture ,qui cherche dériver le modèle binaire localisé par seuillage les pixels

19
La Méthode LBP(Local Binary Patterns) Chapitre 2

contre leur valeur médiane sur un 3 × 3 voisinage. Le pixel central est inclus dans ce
processus de filtrage, il devant 2 les structures possibles sont obtenu.

MBP est défini comme suit:

1 >
= ( )∗ 2 ( )= 3
0

Où L est le nombre de voisins et est la valeur de l'intensité. MBP capture les


contrastes entre les deux gammes d'intensité qui a également un impact sur la structure
locale. Ces modèles constituent l'élément de base de la texture. Cependant, les
changements à l'échelle peuvent influencer les structures locales, ainsi influé sur le
descripteur MBP. Pour réduire cette incidence, l'image est décomposée en plusieurs
gammes de fréquences par la méthode de sous-échantillonnage. Ces sous-images peuvent
capturer relation entre pixels, qui ne sont pas voisins immédiats. Bien que la médiane soit
invariante par rotation, le codage utilisé pour marquer la modèle n'est pas invariant à la
rotation.

2.3. LBP Adaptive (ALBP)

Guo et al exploité la méthode adaptative LBP (ALBP) pour la classification de la


texture, qui introduit la direction information statistique. Plus précisément, la moyenne et
l’absolu de la différence locale sont extraits pour améliorer l'efficacité de la classification de
LBP. Trois différents caractéristiques statistiques directionnelles sont calculées: la moyenne
et l'écart type de la différence locale, et les poids qui minimiser la différence
directionnelle . Adaptative est formulé comme suit:

= s(g − )2 4

Où = /( ), = [ (1,1); (1,2); … . ; ( , )] 5

est un vecteur de colonne qui contient tout les pixels possible

20
La Méthode LBP(Local Binary Patterns) Chapitre 2

(, ) =[ (1,1); (1,2); … . ; ( , ) est le vecteur correspondant pour tous les


pixels (, ) . est la transposition de .

Les moyennes et l'écart type de la différence locale sont les suivants:

∑ ∑ | (, ) (, ) |
= 6

(| ( , )− ( , )w | − )
= 7

Les expériences sur la texture de CUReT le spectacle de données qui l'extraction de


caractéristique de texture et classification l'arrangement de d'ALBP peut significativement
améliore la classification la précision de LBP. Toutefois, la robustesse n'est pas inspectée
dans le correspondant comme il a contenu l'image de texture bruyante.

3. La méthode LBP pour l'analyse et la reconnaissance du visage

Méthode de LBP ne montre pas seulement une performance supérieure dans


l'analyse de la texture et de la classification de l'application, mais obtient aussi le même bon
effet dans les applications de la reconnaissance faciale.

Ahonen et al ont appliqué une représentation LBPH (histogramme LBP) pour faire de
la reconnaissance avec de très bons résultats sur la base de données FERET. Dans leur
méthode, l'image du visage est d'abord divisée en petites régions à partir desquelles les
histogrammes LBP sont extraits et concaténés en une seule fonction histogramme
représentant la texture locale et la forme globale du visage. La reconnaissance est effectuée
en utilisant un classificateur plus proche voisin. [4]

21
La Méthode LBP(Local Binary Patterns) Chapitre 2

Plusieurs types d'amélioration de la LBP influent méthodes en application de


reconnaissance de visage sont discutées et s'analyse comme suit.

3.1. LBP pour la reconnaissance de visages

Une fois le code LBP calculé pour tous les pixels de l'image, on calcule l'histogramme
de cette image LBP pour former un vecteur de caractéristiques représentant l'image faciale.
En réalité, an d'incorporer plus informations spatiales au vecteur représentant le visage, on
divise tout d'abord l'image codée par l'opérateur LBP en petites régions et l'histogramme est
construit pour chaque région. Finalement, on concatène tous les histogrammes des régions
an de former un grand histogramme représentant l'image des caractéristiques faciales (voir
figure 2.3). L'efficacité du code LBP comme indice facial s'explique par le fait que le LBP
permet de caractériser les détails d'un visage. Quand seules les LBPs uniformes sont utilisés,
tous les codes LBPs non-uniformes sont étiquetés avec une étiquette unique, alors que
chacun des codes uniformes est regroupé dans un histogramme unique. Par exemple, quand
P = 8, nous avons 58 codes uniformes mais l'histogramme est de dimension 59. De même
manière P = 6 produit un histogramme de dimension 33.

Figure 2.3 : Illustration de la procédure d'extraction de LBP.

Etant donnés deux histogrammes de LBP ; de deux visages, l'étape suivante est
d'utiliser une métrique pour calculer la similarité entre ces deux histogrammes. En testant
les trois métriques , Histogrammes intersection et Log likelihood statistic, Ahonen et

22
La Méthode LBP(Local Binary Patterns) Chapitre 2

al[6]. ont observé que la première métrique permet d'obtenir les meilleurs résultats :

( , )=∑ 8

Figure 2.4: Illustration du stage de reconnaissance. [6]

3.2. LBP Allongée (ELBP)

Liao et al proposé la méthode LBP allongé (ELBP) pour la reconnaissance faciale, et


développé une nouvelle fonctionnalité qui est appelée moyenne amplitude maximale de
gradient à distance (AMDGM). AMDGM intègre la différence de niveau de gris des
informations entre le pixel de référence et voisins pixels dans chaque modèle de ELBP. Il ya
trois paramètres associées à l'approche de ELBP: le grand axe de l'ellipse, noté A = 2, le petit
axe de l'ellipse, notée par B = 3, et le nombre de pixels voisins.

La figure 2.5 montre des exemples de schémas de ELBP avec différentes valeurs de
A, B, ANDM.

23
La Méthode LBP(Local Binary Patterns) Chapitre 2

Figure 2.5 : Des exemples de ELBP avec différentes valeurs de A, B, et m

En fait, les caractéristiques de ELBP sont plus générales que l' LBP classique, plus
précisément, la LBP classique peut être considérée comme un cas particulier de ELBP lors du
réglage du Les valeurs de A et B égaux entre eux. Le ELBP est capable pour capturer des
informations anisotrope à partir des images du visage, qui sont des éléments importants car
il ya beaucoup importante parties dans le visage comme les yeux, la bouche sont tous des
structures allongées. Par conséquent, on s'attend à ce que peut avoir plus ELBP pouvoir
discriminant de la LBP classique.

3.3. Amélioration de la configuration binaire locale (ILBP)

Jin et al présenté une approche de détection romane de visage ayant accès à motifs
binaires locaux (ILBP) comme la représentation du visage. Dans la plupart des cas, le point
central fournit plus informations de son quartier. Pour obtenir tous les représentations de
LBP, ILBP considère l'effet du pixel central et lui donne le plus grand poids. La figure 2.6
montre la distribution de poids ILBP.

ILBP est défini comme suit :

, = ( − )2 + ( − )2 9

0, <0 −1
( )= où = ∑ =0 − 10
1 , ≥0

24
La Méthode LBP(Local Binary Patterns) Chapitre 2

Figure 2.6 :poids de cartographie pour , et ,

("X" indique la valeur arbitraire de pixels)

Les caractéristiques de ILBP sont insensibles à la variation d'illumination, il n'est pas


nécessaire de faire la mise en valeur d’image telle que éclairage égalisation pour éliminer
l'influence de la lumière. Mais il existe un besoin d'améliorer l'efficacité de calcul, et les
performances en utilisant d'autres nouveaux classificateurs et plus ILBP caractéristiques au
quartier différent.

3.4. Ligne des motifs binaires locales (LLBP)

Petpon et al introduit une nouvelle méthode de représentation de visage pour la


reconnaissance du visage, appelé schéma binaire de ligne locale (LLBP), qui résume la
structure spatiale locale d'une image par le seuillage de la fenêtre binaire locale avec poids
et l'introduction d'un nombre décimal comme une texture présentation. En outre, il
nécessite moins de temps de calcul. Codage de manière LLBP est représenté sur la figure 2.7

.
Figure 2.7 :opérateur LLBP avec une longueur de ligne de 9 pixels.

25
La Méthode LBP(Local Binary Patterns) Chapitre 2

L'idée de base de LLBP est d'obtenir d'abord le binaire en ligne Code avec le sens
horizontal et vertical séparément puis calculer sa grandeur, ce qui caractérise le
changement de l'intensité de l'image telle que les bords et les coins. Par conséquent, LLBP
est plus discriminante que les autres méthodes, même en condition d'éclairage extrêmes.
Cependant,

LLBP besoin d'augmenter le pouvoir discriminant dans la macrostructure de l'image.

3.5. Patrons locaux ternaires (LTP)

Tan et al introduit les modèles ternaires locales (LTP), qui est moins sensible au bruit
dans les régions uniformes. LTP s'étend LBP aux codes 3-évalués, dans lequel des niveaux de
gris dans une zone de largeur ± t autour sont quantifiées à zéro, et celles ci-dessus ce sont
quantifiées à +1 et les dessous à -1. Manière de Codage LTP est représentée sur la figure 2.8

Figure 2.8:Illustration de la LTP de base.

Le calcul de ces trois valeurs est représenté comme suit:

1, ≥ +
( , , )= 0, | − | < 11
−1, ≤ −

Où est égal à un seuil défini par l'utilisateur, qui est définie comme 5 dans Figure
2.9, d'où son intervalle de tolérance est [50,60]. Pour plus de simplicité, les expériences de

26
La Méthode LBP(Local Binary Patterns) Chapitre 2

LTP utilisent un régime codage qui divise chaque modèle ternaire dans son positif et
moitiés négatives comme illustré sur la figure 2.9 Par la suite, LTP traite ces composants
sous forme de deux canaux séparés d' Descripteurs de LBP pour laquelle des histogrammes
et similitude séparés métriques sont calculées en combinant les résultats uniquement à la
fin du calcul.

Figure 2.9 :Diviser un code de LTP dans LBP positif et négatif codes.

LTP a une capacité de discrimination plus forte contre les changements de bruit et
l'éclairage de LBP dans l'uniforme région. Mais la variation multi-échelle et occlusion
partielle sont nécessaires pour résoudre les problèmes de l'image.

3.6. Blocs multi-échelle des motifs binaires locaux (MBLBP)

Liao et al proposé une nouvelle représentation, appelé bloc multi-échelle de modèle


binaire locale (MB-LBP), et appliqué à la reconnaissance du visage. En MB-LBP, le calcul se
fait sur la base des valeurs moyennes des sous-régions de blocs, au lieu des pixels
individuels, son principe est représenté sur la Figure 2.10.

27
La Méthode LBP(Local Binary Patterns) Chapitre 2

Dans chaque sous-région, la somme moyenne de l'intensité de l'image est calculée.


Ces sommes sont moyennes seuillées par le bloc central. MB-LBP est alors obtenu.

Figure 2.10 : La LBP base ((a)) et le 9 × 9 MB-LBP ((b)).

MB-LBP code non seulement microstructures mais aussi macrostructures de motifs


d'image, offre donc une plus complété représentation de l'image de la LBP base. La
question de savoir comment faire la taille de bloc MB-LBP a mieux représentation du seuil
d'information d'image doit en outre étude. En outre, Zhang et al également proposé une
semblable MB-LBP. [7]

4. Conclusion

Étant donné la valeur théorique et pratique de modèle binaire local (LBP), les
diverses méthodes de LBP dans l'analyse de texture et classification, l'analyse de visage et la
reconnaissance, et les autres applications de détection sont réexaminées. Le principe de
méthode de LBP est brièvement discuté, qui analyse principalement l'opération de seuil, le
modèle et la rotation l’uniforme modèle invariant dans la méthode de LBP. Deuxièmement,
l'analyse de texture et classification de la méthode de LBP, l'analyse de visage et la
reconnaissance de la méthode de LBP et les autres applications de détection de la méthode
de LBP est particulier peigné et commenté. Enfin, les problèmes importants actuels de la
méthode de LBP sont analysés et l'avenir pour la méthode de LBP est fait remarquer.[7]

28
Implémentation et résultats Chapitre 3

1. Introduction

Ce chapitre est consacré à la conception et la réalisation de notre application. La


première partie de ce chapitre est une présentation des détails ainsi que les approches
théoriques utilisées dans le cadre de la conception de notre système de reconnaissance de
visages par LBP. Tandis que la seconde partie c'est l'implémentation de ce système et la
présentation du matériel et logiciel nécessaire à son fonctionnement.

Nous commencerons d’abord par détailler le principe de la méthode LBP, puis nous
représenterons la base de données dans lesquelles les tests ont étais effectués.
L’application de la méthode LBP dans la reconnaissance de visages convertit les images en
modèles binaires locaux ('local binary patterns'), les divise en plusieurs sous-régions et
détermine l'identité d'un visage en comparant leurs histogrammes de sous-régions.

2. Organigramme
On représente les étapes de la reconnaissance de visage par LBP

Charger une image

Générer les formes locales (LBP)

Diviser l’image résultat en régions

Calculer l’histogramme de chaque région

Concaténer ces histogrammes dans un vecteur

La comparaison (le vecteur avec la base de


données)

Figure 3.1 :l’organigramme générale de reconnaissance de visage par la méthode LBP.

29
Implémentation et résultats Chapitre 3

3. Conception
 Présentation de technique avec l’algorithme
La valeur LBP est calculée pour chaque pixel par le seuillage de ses voisins avec un
seuil dont la valeur est le niveau de gris du pixel en question. Tous les voisins prendront alors
une valeur 1 si leur valeur est supérieure ou égale au pixel courant et 0 si leur valeur est
inférieure.
0, <0
( )=
1 , ≥0
, ( , )=∑ − 2 tel que p est le nombre de voisins.

Seuil = pixelTapez
voisinune équation ici.
- pixel
centre

Seuil<0 Pixel voisin=1

Pixel voisin=0

Code LBP ( )=code LBP+ (Pixel voisin*2 )

p=1,..,8.

Figure 3.2 Le diagramme pour calcul le LBP


code

Le code LBP du pixel courant est alors produit en concaténant ces 8 valeurs pour former un
code binaire qui sera ensuite transformé en décimal.
On obtient donc, comme pour une image à niveaux de gris, une image des valeurs LBP
contenant des pixels dont l'intensité se situe entre 0 et 255.

30
Implémentation et résultats Chapitre 3

On divise cette image des valeurs LBP en des blocs selon une taille de bloc qui est
choisi par l’utilisateur selon ses besoins.
On calcule l’histogramme de chaque blocs puis on concatène ses histogrammes dans
un seul vecteur de taille « le nombre de blocs*256 ».

µ, , = (ℎµ, , , , ℎµ, , , , … , ℎµ, , , )

Les opérations précédentes sont répétées pour chaque image de la base de donnée
le résultat est enregistré dans une matrice tel que chaque ligne de la matrice est représente
l’histogramme concaténé d’une image.
Pour la reconnaissance, l’histogramme concaténé de chaque image de test est calculé
qui sera comparé avec tous les histogrammes des images originales de la base de données
stockées dans la matrice en utilisant la métrique Chi square X2qui permet de calculer la
similarité entre les deux images.

,
− ,
( , )=
, ,
+ ,

Dans notre travail on prendre toujours =1.


On enregistre tous les résultats obtenus dans un tableau puis chercher la valeur
minimale de ce tableau qui corresponde à l’image la plus proche de l’image de teste dans la
base de donnée.

4. Implémentation
4.1 Environnement de développement
On commence par la présentation de l’environnement matériel et logiciel (langage de
programmation) utilisé dans notre travail et l’ensemble des principales fonctions qu’on a
implémenté.

4.1.1 Le matériel

Le matériel utilisé pour le développement de notre application est :

31
Implémentation et résultats Chapitre 3

Un Acer ayant les caractéristiques suivantes:

 Disque Dur 465 GO.

 SYSTEME D’EXPLOITATION: système d’exploitation Windows 7 professionnel32bit.

 Carte Graphique : HD Graphics.

 Ram: 4,00 GO.

 PROCESSEUR : Intel(R) Core(TM) i3 CPU.

4.1.2 Le logiciel
Le langage de programmation : java sous l’environnement Eclipse.
 Java-eclipse
Eclipse IDE est un environnement de développement intégré libre (le terme Eclipse
désigne également le projet correspondant, lancé par IBM) extensible, universel et
polyvalent, permettant potentiellement de créer des projets de développement mettant
en œuvre n'importe quel langage de programmation. Eclipse IDE est principalement écrit
en Java (à l'aide de la bibliothèque graphique SWT, d'IBM), et ce langage, grâce à des
bibliothèques spécifiques, est également utilisé pour écrire des extensions.

4.2 Les données de test

Dans notre application, nous avons utilisé les images (originales) de la base de
données de visages.

 Base de données de visages

Nous avons travaillé avec une base d’images intitulée « Yalefaces ». Dans cette base, les
visages ont tous été traités, afin de les recaler et rogner à la taille 320*243 pixels, de sorte que les
images puissent être comparées pixel à pixel. Cette base contient 165 images en niveaux de gris

32
Implémentation et résultats Chapitre 3

représentant les visages de 15 individus. Il y a 11 images par individu, chacune correspondant à


une catégorie d’images variant selon les critères suivants (figure 3) :

1. Variation de l’expression du visage : normal, sad, sleepy, surprised, wink, happy


2. Variation des accessoires : glasses, noglasses,

Nous diviserons la base d’images en deux groupes : l’un des groupes va être utilisé
comme jeu d’entrainement, l’autre groupe comme jeu de tests, placé dans le répertoire Test.
La base de référence contient n images, chacune ayant un nombre de pixels d = nl · nc. Chaque
image est de taille 320*243, où d = 77760.
Dans la suite, nous manipulerons toujours les images de visage sous la forme de
vecteurs, et un ensemble de visages sous la forme d’une matrice dont chaque colonne est un
visage. Sous java eclipse, les images seront stockées dans des matrices de type entier. En
particulier, les images de la base seront stockées dans une matrice I de taille d × n :

= [ 1 ,..., ]

On stockera aussi deux vecteurs id et categorie, qui contiennent des informations


sur le contenu des images (id(k) et categorie(k) sont respectivement l’indice de l’individu de
l’image k, et la catégorie à laquelle appartient l’image).

1 Leftlight 2 Happy 3 Glasses 4 Center light 5 wink 6 Surprised

7 Sleepy 8 Sad 9 Rightlight 10 No glasses 11 Normale

Figure 3.3 : catégorie d’images variant

33
Implémentation et résultats Chapitre 3

5. L’application

On présente dans cette section les différents aspects du programme.

5.1 Les interfaces

C’est une interface simple et permet d’illustrer les principaux processus du programme

Figure 3.4 : interface générale pour la reconnaissance de visage

Dans notre application on a deux menus principaux et chacune a des sous


menus et deux panels.

Menu 1 : fichier

 Sous menu 1 Ouvrir : Pour sélectionner une image de teste, puis ouvrir.

34
Implémentation et résultats Chapitre 3

 Sous menu 2 Enregistrer : pour sauvegarder une image dans un répertoire selon le
choix d’utilisateur.
 Sous menu 3 Exit : Pour quitter la fenêtre principale.

Menu 2 : Traitements

 Sous menu 1 code LBP : On calcule le code LBP de l’image sélectionnée auparavant en
cliquant dans le menu traitements puis le sous menu code LBP.
 Sous menu 2 Histogramme: On calcule l’histogramme de l’image codé par [Link]
résultat dans la figure suivant :

Figure 3.5 : Menu Traitements

Trois panels : pour l’affichage.

 Panel 1 : pour l’affichage de l’image de teste.


 Panel 2 : pour l’affichage de l’image codé par LBP.
 Panel 3 : pour l’affichage de l’image résultat (correspondante).

35
Implémentation et résultats Chapitre 3

 Démarche à suivre pour la reconnaissance de visage


 Pour ouvrir une image qu’on veut l’identifier on clique fichier puis choisir le sous menu
Ouvrir qui ouvre une fenêtre permettant de choisir une image de teste.

 En suite on sélectionner une image qui on peut le cherché.

Figure 3.6 : charger une image à partir dans un répertoire

 On afficher l’image de test que nous avons choisi. Puis on calcule le code LBP de l’image
de test on cliquant sur le menu traitement puis sur le sous menu Code LBP.

36
Implémentation et résultats Chapitre 3

Figure 3.7 : Application de LBP de l’image de teste.

 On calcule l’histogramme du code LBP résultant en divisant l’image en un ensemble


de blocs selon une taille entrée par l’utilisateur.

Figure 3.8 : La taille des blocks

 si l’image de teste correspondant à une image dans la base de données c.-à-d. elle
appartient à notre base de données donc on a un résultat comme suit :

37
Implémentation et résultats Chapitre 3

Figure 3.9 : image de teste existe dans la base de données

 Nous traitons un autre cas que où l’image de test n’appartient pas à la base de
données, dans ce cas on a des probabilités qu’on trouve une image correspondante dans la
base de donné ou bien ne la trouve pas.

38
Implémentation et résultats Chapitre 3

 Cas 1 : Une image entré à une variation intra-sujet(Changement d’illumination, Variation


de pose ,occultations partielles…)

Figure 3.10 : image de teste n’est existe pas dans la base de données
mais correspondant a une autre dans la base de données.

 Cas 2 : Si l’image de teste n’existe pas dans la base de données on obtient le


résultat suivant :

Figure 3.11 : image de test n’existe pas dans la base de données et ne


correspondant pas à aucune image dans la base.
39
Implémentation et résultats Chapitre 3

 Si l’image de teste n’existe pas dans la base de données on a le droit de la


sauvegarder dans la base de données ou dans un autre répertoire comme suit :

Figure 14 : Sauvegarder une image dans un répertoire.

40
Implémentation et résultats Chapitre 3

 Cas 3 notre programme traite le cas de rotationd’une image de test qu’il peut la
trouve.

 Cas 4 :notre programme traite aussi le cas de changement d'échelle

41
Implémentation et résultats Chapitre 3

5.2 Exemple de code


On représente comment calculer le code LBP pour une image :

for (int i0 = 1; i0 <[Link]() - 1; i0++) {


for (int j0 = 1; j0 <[Link]() - 1; j0++) {
intib = 0;
for (int i = i0 - 1; i <= i0 + 1; i++) {
intjb = 0;
for (int j = j0 - 1; j <= j0 + 1; j++) {
if ([Link](i, j) >= [Link](i0, j0))

binaire[ib][jb] = 1;
else

binaire[ib][jb] = 0;
jb++;}
ib++;}

intsome = 0;
for (int i = 0; i <= 2; i++) {
for (int j = 0; j <= 2; j++) {

binaire[i][j] = binaire[i][j] * puis[i][j];


some = some + binaire[i][j];}}
[Link](i0, j0, some);

5.3 Les paramètres utilisés

Dans notre application le seul paramètre utilisé est la taille de bloc qui permet de
diviser l’image en un ensemble de régions (blocs) lorsqu’on calcule l’histogramme de
l’image à identifier et les images (originales) de la base de données.

6 Test et résultats
On a des cas exceptionnels dans notre travail à cause de la taille entrée par l’utilisateur
pour les traitements des images de test et les images (originales) de la base de données,
par exemple:

42
Implémentation et résultats Chapitre 3

 Cas 1 : taille de bloc=3.

Cas 2 : taille de bloc=5.

43
Implémentation et résultats Chapitre 3

Cac 3 :taille de bloc=81.

Cas 4 :taille de bloc =82.

44
Implémentation et résultats Chapitre 3

 Nous avons utilisés les mêmes traitements sur la base “Yaleface“ originale(non
traitée) mais le temps de traitements (calcule..) a augmenté par rapport à la petite
base que nous avons utilisés dans notre travail car nous avons utilisés des images de
la base yaleface contenant la zone du visage seulement nous détectons seulement
(nous avons effectué cette opération manuellement en utilisant paint de windows)

Exemple (cet individu appartient à la base et il à son image correspondante)

45
Implémentation et résultats Chapitre 3

7. Conclusion

Dans ce chapitre nous avons présenté l’implémentation de la méthode LBP en utilisant


le langage de programmation Java Eclipse. Nous avons testé l’application sur différentes
images de la base de données Yalefaces. Les tests ont été effectués sur les images originales
non traitées ainsi que sur des images traitées contenant la zone du visage seulement. Les
résultats montrent une augmentation du temps de traitement pour les images originales non
traitées.

46
Conclusion

De nombreuses recherches se poursuivent dans le domaine de la biométrie.


L’identification des personnes, la mise à jour dynamique des modèles de reconnaissance,les
contrôles d'accèsprésentent une nécessité extrême dans nos joursd’où l’importance de
développer des applications dans ce domaine. La reconnaissance de visages a émergé
comme un secteur actif de recherches durant ses dernières années et de nombreuses
méthodes ont été proposées dont plusieurs ont été appliqué avec succès. Le choix d'une
méthode doit être basé sur les conditions spécifiques de chaque application. Parmi toutes
ces méthodes, nous avons opté pour une méthode basée sur l'algorithme LBP qui reste l’une
des approches les plus fiables pour la reconnaissance de visage.

La méthode LBP est non seulement simple relativement et avec une complexité de
calcul acceptable, mais aussi a une invariance par rotation, gris invariance d'échelle et
d'autres avantages importants. Durant notre étude, nous avons obtenu des résultats
significatifs. Ces résultats ont été obtenus en utilisant une base de données riche et avec une
variante de donnée nécessaire pour tester et évaluer une tel approche. Le succès que nous
avons eu durant cette expérience nous donne la possibilité de suggérer aux futures
étudiants le développement des applications de reconnaissance de visage et principalement
celles basées sur l’algorithme LBP et peut être les marier avec une autre méthode
d’identification pour obtenir une application de biométrie multimodale qui marque à nos
jours une importance dans le domaine de recherche.
Les références

[1] W .Hizem. , ‘' Capteur Intelligent pour la Reconnaissance de Visage ‘’,


Télécommunications et l’Université Pierre et Marie Curie - Paris 6,2009.

[2] S. GUERFI ABABSA ,’’ Authentification d’individus par reconnaissance de


caractéristiques biométriques liées aux visages 2D/3D ‘’, Université Evry Val d'Essonne,
2008.

[3] M .Fedias,’’ Combinaisons de données d’espaces couleurs et de méthodes de


vérification d’identité pour l’authentification de visages ‘’ , Mohamed Khider – Biskra.

[4] PHUNG Van Doanh, ‘’ RECONNAISSANCE DE VISAGES EN UTILISANT LE DESCRIPTEUR

POEM (Patterns of Oriented Edge Magnitudes) ‘’, Institute de la Francophonie pour


l'informatique, 2010.

[5] Mlle. Cécile Fiche,’’ Repousser les limites de l’identification faciale en contexte de
vidéo surveillance ‘’, Université de Grenoble, 2012.

[6] Ma. Van Wambeke,’’ Reconnaissance et suivi de visages et implémentation en


robotique temps-réel ‘’, Université Catholique de Louvain, 2009-2010.

[7] S. Ke-Chen and Y. Yun-Hui ,’’ Research and Perspective on Local Binary Pattern ‘’, Acta

Automatica Sinica, 2013.

[8] Samaria, F.S., Harter, A.C.: Parameterisation of a stochastic model for human face
identification. In: IEEE Workshop on Applications of Computer Vision. (1994).

Vous aimerez peut-être aussi