Rapprt Pfe Facial Detection
Rapprt Pfe Facial Detection
No Réf :……………
Centre Universitaire
Abdelhafid Boussouf Mila
reconnaissance faciale
KHAWLA
Dédicace
ABDALLAH
LISTE DES TABLEAUX
2.1 Comparaison entre les méthodes les plus utilisées dans la reconnaissance
de visage ACP, LDA, CNN, LBP, AAM et CS-LBP . . . . . . . . . . . . . 46
v
TABLE DES FIGURES
vi
v TABLE DES FIGURES
GviiH
v TABLE DES FIGURES
GviiiH
LISTE DES ABRÉVIATIONS
ix
v TABLE DES FIGURES
GxH
Résumé
.
Récemment, on observe un intérêt croissant autour de la biométrie. La reconnaissance faciale
en tant qu’une technologie biométriques de base, elle a pris une partie importante dans le
domaine de la recherche. Malgré les nombreuses approches et méthodes qui ont été proposées
pour résoudre le problème de reconnaissance du visage humain, il demeure un problème
extrêmement difficile, ceci est dû au fait que le visage de personnes différentes ont
généralement la même forme et varie du fait des conditions d’éclairage, de la variation de pose,
et des expressions faciales.
Afin d’essayer de pallier ces problèmes, nous avons proposé un système d’identification
automatique de visages qui se base sur trois méthodes de reconnaissance faciales, en utilisant
la méthode LBP (Local Binary Pattern), CS-LBP (Center-Symmetric LBP) et LTP (Local
Ternary Patterns) et la méthode KNN (k nearest neighbors) afin d'élaboré un processus de
reconnaissance de visages.
Pour validé ce travail nous avons testé ces techniques sur des images, prisent à-partir de deux
bases de données GIT (Géorgienne) et FEI (brésilienne), et les résultats obtenus ont montré que
LTP donne nettement des meilleurs résultats par rapport à LBP et CS-LBP.
ملخص
حيث أن تقنية التعرف على الوجوه بإعتبارها من اهم تقنيات البيومترية حيث أنها,مؤخرا تم اإلهتمام بشكل كبير بالتقنيات البومترية
إتخدت مكانة وقيمة عالية في البحث العلمي وبالرغم من التطور العالي في التقنيات واألساليب المتبعة في التعرف على الوجوه إال أنه
لم يتم ح ل المشكل بشكل كلي حيث أنه بسبب تغيرات اإلضاءة والوضعية التي تلتق فيها الصورة والتعابير المختلفة لنفس اإلنسان أدى
إلى تغيير نمط الصورة بشكل كافي ليخطئ النظام في التعرف عليها حاولنا في مشروعنا هذا حل بعض هذه المشاكل وهذا عن طريق
: تقنيات مختلفة4 إنشاء نظام أتوماتيكي يعتمد على إستعمال
وLTP ( Local Ternary Pattern ) وCSLBP ( center Symmetric local LBP ) وLBP ( Local Bnary Pattern )
من إكمال عملية التعرف على الوجوه من أجل تأكيد عملنا قمنا بتجريب هذه التقنيات على مجموعةKNN(Knearest neighbors)
LBP بالمقارنة معLTP والنتائج التي تحصلنا عليها أثبتت قوة وفعالية, FEI,GIT مختلفة من الصور من قاعدتين للصور مختلفتين
. CSLBPو
TABLE DES MATIÈRES
xii
v TABLE DES MATIÈRES
1.6.5 Classification . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 16
1.6.6 Apprentissage . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 17
1.6.7 Décision . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 17
1.7 Avantages et inconvénients de la reconnaissance faciale . . . . . . . . . . . 17
1.8 Les domaines d’application . . . . . . . . . . . . . . . . . . . . . . . . . . . 18
1.8.1 Contrôle d’accès physiques aux locaux . . . . . . . . . . . . . . . . 18
1.8.2 Contrôle d’accès logiques aux systèmes d’informations . . . . . . . . 18
1.8.3 Equipements de communication . . . . . . . . . . . . . . . . . . . . 18
1.8.4 Machines & Equipements divers . . . . . . . . . . . . . . . . . . . . 19
1.8.5 Etat / Administration . . . . . . . . . . . . . . . . . . . . . . . . . 19
1.9 Les tendances de biométrie . . . . . . . . . . . . . . . . . . . . . . . . . . . 20
1.9.1 Le marché . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 20
1.10 Conclusion . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 22
GxiiiH
v TABLE DES MATIÈRES
4 Implémentation et tests 62
4.1 Introduction . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 62
4.2 Langage de programmation utilisé . . . . . . . . . . . . . . . . . . . . . . . 63
4.2.1 Caractéristique de MATLAB (R2014a) . . . . . . . . . . . . . . . . 63
4.3 Les bases d’images utilisées . . . . . . . . . . . . . . . . . . . . . . . . . . 64
4.4 Description des méthodes principales . . . . . . . . . . . . . . . . . . . . . 66
4.4.1 Phase de prétraitement . . . . . . . . . . . . . . . . . . . . . . . . 66
4.4.2 Phase d’indexation . . . . . . . . . . . . . . . . . . . . . . . . . . . 66
4.4.3 Phase de reconnaissance . . . . . . . . . . . . . . . . . . . . . . . . 71
4.5 Les interfaces de l’application . . . . . . . . . . . . . . . . . . . . . . . . . 73
GxivH
v TABLE DES MATIÈRES
GxvH
INTRODUCTION GÉNÉRALE
xvi
v CHAPITRE 0. INTRODUCTION GÉNÉRALE
mineuses, l’angle de la prise de vue, la distance de la caméra par rapport au sujet, sont
des paramètres maîtrisables par le système. Dans un environnement non contrôlé, une
série de prétraitements sont souvent indispensables avant d’effectuer la reconnaissance
proprement dite. Il faut tout d’abord détecter la présence ou l’absence de visage dans
l’image. Le visage doit ensuite être segmenté. Enfin, si nous travaillons sur un flux vidéo,
le système doit suivre le visage d’une image à l’autre.
Notre sujet concerne donc l’exploitation d’informations capturées par des appareils
adéquats afin de reconnaître des personnes par leurs visages. Notre étude a des applications
et des implications financières et technologiques. Plusieurs questions se posent à ce niveau :
Que définit-on par les deux mots reconnaissance de visage en biométrie ? Quelles sont les
méthodes utilisées ? Quelles sont les avantages et les inconvénients de la modalité visage en
reconnaissance biométrique ? Que représente les méthodes utilisées dans notre approche
(LBP, CS-LBP, LTP) et quel est leurs principes et comment associe-t-on ces méthodes
dans le but de la reconnaissance de visage ? Les réponses à ces questions sont abordées
dans les diverses chapitres de notre mémoire.
Nous présentons un système de reconnaissance de visage, nous préconisons d’im-
plémenter des technique pour l’extraction de caractéristiques pour l’analyse du visage.
Pour cela nous adoptons les méthodes bien connues de la reconnaissance de visage Pour
l‘indexation des images avant le prétraitement. Après ça nous testons le comportement
de notre système grâce à la technique d’apprentissage supervisé en utilisant l‘algorithme
KNN.
Ce travail vise a démontré les différences entre les trois méthodes (LBP, CSLBP,
LTP) dans une comparaison entre ces méthodes, en se basant sur les critères de temps ,
d’exactitude(accuracy) des résultats, simplicité d’algorithme, tous ça dans le but d’essayer
à améliorer le processus de reconnaissance faciale.
Notre approche « FaceRecognition » est caractérisée par trois phases fondamentales :
• Phase de prétraitement dans laquelle l’image est découpée, décimée, convertie en
niveau de gris.
• phase d’indexation cette dernière a été utilisée pour extraire les descripteurs d’image
traitée, en appliquant les méthodes d’extraction de caractéristiques de notre choix
GxviiH
v CHAPITRE 0. INTRODUCTION GÉNÉRALE
LBP, CS-LBP, LTP afin de sauvegarder ces descripteurs dans une base de données
locale pour une utilisation ultérieure.
• L’objectif de la phase de reconnaissance est de tester la pertinence de notre sys-
tème de reconnaissance de visage. Afin d’atteindre notre objectif de reconnaissance,
nous avons passé par une phase de classification qu’il a fait par l‘algorithme KNN.
Finalement, l’identification de la personne proclamée est assurée.
Nous avons choisi d’articuler notre étude autour de quatre chapitres principaux :
• Le premier chapitre est consacré à la présentation générale de la reconnaissance
biométrique. Ensuite, nous mettons en lumière les difficultés et les avantages ren-
contrées par les systèmes de reconnaissance de visage. Enfin, les tendances de la
biométrie.
• Dans le deuxième chapitre, nous évoquerons l’état de l‘art des techniques de re-
connaissance de visages. Nous allons détailler des différentes méthodes de recon-
naissance de visage les plus populaires et sur ceux les plus adaptés à notre contexte
d’étude.
• Notre modèle ainsi étudié et conçu est détaillé dans le troisième chapitre. Il se pré-
sente en trois phases principales : phase de prétraitement, phase d’indexation (des-
cription des méthodes utilisées LBP, CS-LBP, LTP ) et la phase de reconnaissance
(description de la méthode supervisée utilisée KNN). Ainsi que, l’apprentissage
supervisé et ses méthodes.
• L’implémentation réalisée et les résultats obtenus se trouvent dans le quatrième
chapitre.
• Finalement, la conclusion générale résumera les résultats obtenus par les différentes
approches.
GxviiiH
CHAPITRE 1
LA RECONNAISSANCE FACIALE EN
GÉNÉRALE
1.1 Introduction
La reconnaissance facial malgré est un domaine nouveau dans la recherche scientifique,
et que son utilisation reste tellement rare mais, c’était déjà entamé depuis des 30 d’années,
le but de cette approche c’est de rendre l’ordinateur capable de reconnaitre les personnes
d’une manière proche à celle de l’être humain, le fonctionnement de cette technologie base
principalement sur un simple ordinateur et une caméra pour le capture d’image de face.
Cette technique malgré que elle a beaucoup d’avantages mais vue que elle nécessite
des image assez clair ,qui impose à son enrôlement dans l’utilisation quotidienne de la
vie humain un peu loin ,et que les recherches ,essaye toujours d’accélérer son avancement
avec de nouveaux approche mathématiques qui sert à rendre cette technique plus fiable
pour quelle sera utilisée dans plusieurs domaines de sécurités et d’authentification, Dans
ce chapitre, nous allons d’abord présenter le cadre général de la reconnaissance biomé-
trie, ses techniques, ensuit nous abordons les plus importants principes des systèmes de
reconnaissance faciale.
1
v CHAPITRE 1. LA RECONNAISSANCE FACIALE EN GÉNÉRALE
G2H
v CHAPITRE 1. LA RECONNAISSANCE FACIALE EN GÉNÉRALE
1.3.1 Définitions
Dans la littérature il existe plusieurs définitions de la biométrie, donc elle peut être
définie comme suit :
• « La reconnaissance automatique d’une personne à partir de son comportement
ou d’une caractéristique physique » [5].
• « La biométrie recouvre l’ensemble des procédés tendant à identifier un individu
à partir de la mesure de l’une ou de plusieurs de ses caractéristiques physiques,
physiologiques ou comportementales » [6].
• Selon Roethen baugh [7] « La biométrie s’applique à des particularités ou des ca-
ractères humains uniques en leur genre et mesurables, permettant de reconnaître ou
de vérifier automatiquement l’identité ». Mais Aucune modalité biométrique n’est
en elle-même fiable à 100 %. Il existe des problèmes, liés aux dispositifs de capture
des données, à l’utilisateur lui-même ou à la condition lors de la capture, dans
lesquelles une modalité quelconque peut s’avérer défaillante. Parmi les principales
modalités biométriques physiologiques et comportementales :
– Biométriques physiologiques : Ce type est basé sur l’identification de traits
physiques particuliers qui, pour toute personne, sont uniques et permanents.
Cette catégorie regroupe la reconnaissance des empreintes digitales, de la forme
de la main, de la forme du visage, de la rétine, de l’ADN et de l’iris de l’œil.
– Biométriques comportementales : Ce type se base sur l’analyse de certains
comportements d’une personne comme le tracé de sa signature, sa démarche et
sa façon de taper sur un clavier.
• La biométrie offre une solution naturelle et fiable pour certains aspects de la gestion
d’identité en utilisant des systèmes biométriques entièrement automatisés ou semi-
automatisés de reconnaissance des individus [8].
G3H
v CHAPITRE 1. LA RECONNAISSANCE FACIALE EN GÉNÉRALE
Un système biométrique est essentiellement un système qui acquiert des données bio-
métriques d’un individu, extrait d’un ensemble de caractéristiques à partir de ces données
puis le compare à un ensemble de données stocké au préalable dans une base de données
pour pouvoir enfin exécuter une action ou prendre une décisionion à partir du résultat de
cette comparaison [5].
1.3.3 Motivation
Plusieurs raisons peuvent motiver l’usage des systèmes biométriques, due les faiblesses
qui ont été décelées dans les systèmes actuels de contrôle d’accès sont les suivantes [9] :
• Mots de passe faibles : Les utilisateurs d’ordinateur sont notoirement suscep-
tibles d’employer des pauvres mots de passe facilement devinés, ayant pour résultat
des cambriolages où les intrus peuvent deviner les qualifications d’un autre utilisa-
teur et gagner l’accès non autorisé à un système informatique. Ceci peut mener à
une violation de la sécurité du personnel ou à un vol de secrets d’affaires par un
étranger.
• Qualifications partagées : Dans de petits et grands organismes, nous entendons
parler souvent des cas comme ceci : un utilisateur d’ordinateur partage son mot
de passe avec un collègue qui a besoin de l’accès, quoique, dans la plupart des
organismes (et dans beaucoup de lois et de règlements liés à la sécurité), ceci est
interdit par la politique. Les personnes de nature sont disposées à aider un collègue
dans le besoin même si cela signifie violer la politique pour réaliser un plus grand
but.
• Cartes d’accès principales perdues : Beaucoup de fois dans nos carrières nous
avions trouvé des cartes principales perdues dans des parkings et d’autres endroits
publics. Souvent ils ont le nom de l’organisation sur eux, ainsi c’est comme si on
trouvait une clef avec une adresse là-dessus, permettant à la personne qui l’a trouvée
une libre incursion dans une certaine société.
G4H
v CHAPITRE 1. LA RECONNAISSANCE FACIALE EN GÉNÉRALE
Parmi les raisons qui peuvent être considéré comme motivant pour l’utilisation de la
biométrie sont [9] :
• Une haute sécurité : en l’associant à d’autres technologies comme le cryptage.
• Confort : en remplaçant juste le mot de passe, exemple pour l’ouverture d’un
système d’exploitation, la biométrie permet de respecter les règles de base de la
sécurité (ne pas inscrire son mot de passe à côté du PC, ne pas désactiver l’écran
pour éviter des saisies de mots de passe fréquentes). Et quand ces règles sont res-
pectées, la biométrie évite aux administrateurs de réseaux d’avoir à répondre aux
nombreux appels pour perte de mots de passe (que l’on donne parfois au téléphone,
donc sans sécurité).
• Sécurité/ Psychologie : Dans certains cas, particulièrement pour le commerce
électronique, l’usager n’a pas confiance. Il est important pour les acteurs de ce
marché de convaincre le consommateur de faire des transactions. Un moyen d’au-
thentification connu comme les empreintes digitales pourrait faire changer le com-
portement des consommateurs.
Une empreinte digitale est constituée d’un ensemble de lignes localement parallèles
formant un motif unique pour chaque individu. On distingue les stries et les sillons. Les
stries contiennent en leur centre un ensemble de pores régulièrement espacés. Chaque
empreinte possède un ensemble de points singuliers globaux et locaux. Les centres corres-
pondent à des lieux de convergence des stries tandis que les deltas correspondent à des
lieux de divergence. L’acquisition des données est faite par un capteur électronique de
type optique, thermique, capacitif ou à ultrasons (voir la Figure 1.1 ) [10].
G5H
v CHAPITRE 1. LA RECONNAISSANCE FACIALE EN GÉNÉRALE
L’iris
L’iris est une technique extrêmement fiable, car il contient une infinité de points carac-
téristiques (ensemble fractal), la fraude étant néanmoins possible en utilisant des lentilles.
L’acquisition de l’iris est effectuée au moyen d’une caméra pour pallier aux mouvements
inévitables de la pupille. Elle est très sensible (précision, reflet. . . ) et relativement désa-
gréable pour l’utilisateur car l’œil doit rester grand ouvert et est éclairé par une source
lumineuse pour assurer un contraste correct (voir la Figure 1.2) [11], [12].
G6H
v CHAPITRE 1. LA RECONNAISSANCE FACIALE EN GÉNÉRALE
La rétine
Cette technique se base sur le fait que les vaisseaux sanguins d’une rétine sont uniques
pour chaque personne. L’utilisateur doit placer son œil face à un orifice de capture situé
sur le dispositif d’acquisition. Un faisceau lumineux traverse l’œil jusqu’aux vaisseaux
sanguins capillaires de la rétine. Le système localise et capture ainsi environ 400 points
de référence. Cette technique requiert une collaboration étroite de la part de l’utilisateur,
car il doit placer son œil extrêmement près de la caméra (voir la Figure 1.3) [13].
Le visage
Plusieurs parties du visage (joues, yeux, nez, bouche. . . ) sont extraites d’une photo
ou d’une vidéo et analysées géométriquement (distance entre différents points, positions,
formes. . . ). Le problème de cette méthode vient des possibles perturbations pouvant trans-
former le visage (maquillage, faible luminosité, présence d’une barbe ou d’une lunette,
expression faciale inhabituelle, changement avec l’âge, etc.) (voir la Figure 1.4) [14].
G7H
v CHAPITRE 1. LA RECONNAISSANCE FACIALE EN GÉNÉRALE
La voix
G8H
v CHAPITRE 1. LA RECONNAISSANCE FACIALE EN GÉNÉRALE
G9H
v CHAPITRE 1. LA RECONNAISSANCE FACIALE EN GÉNÉRALE
G10H
v CHAPITRE 1. LA RECONNAISSANCE FACIALE EN GÉNÉRALE
G11H
v CHAPITRE 1. LA RECONNAISSANCE FACIALE EN GÉNÉRALE
individuel, dénommé "Template ou signature". Les Template sont alors comparées avec
toutes les images existantes au niveau de la base de données, en ressortant un score de
similitude [14].
La reconnaissance faciale possède plusieurs avantages sur les autres technologies bio-
métriques : elle est naturelle, non intrusive et facile à utiliser. Parmi les six attributs bio-
métriques considérés par Hietmeyer [21], les caractéristiques faciales marquent un score
de compatibilité le plus élevé dans un système MRTD (“Machine Readable Travel Docu-
ments”), ce score étant basé sur plusieurs facteurs d’évaluation tels que l’enrôlement, le
renouvellement des données, les requis matériels et la perception des utilisateurs (voir la
Figure 1.8).
G12H
v CHAPITRE 1. LA RECONNAISSANCE FACIALE EN GÉNÉRALE
G13H
v CHAPITRE 1. LA RECONNAISSANCE FACIALE EN GÉNÉRALE
Dans ce qui suit nous allons détailler chaque étape du système de reconnaissance
faciale, et nous présenterons les principales difficultés rencontrées :
1.6.1 Acquisition
Un système d’acquisition équipé d’un capteur est utilisé pour acquérir une caractéris-
tique spécifique de l’utilisateur, par exemple : un microphone dans le cas de la voix. C’est
l’opération qui permet d’extraire du monde réel une représentation bidimensionnelle pour
des objets en 3D, cette opération peut être statique (Appareil photo, Scanner, etc.) ou
dynamique (Caméra, Web Cam), dans ce cas on aura une séquence vidéo .A ce niveau on
aura une image brute (voir la Figure 1.10).
G14H
v CHAPITRE 1. LA RECONNAISSANCE FACIALE EN GÉNÉRALE
G15H
v CHAPITRE 1. LA RECONNAISSANCE FACIALE EN GÉNÉRALE
1.6.3 Le prétraitement
Où les données biométriques sont traitées pour enlever le bruit lié à l’environnement
ou au dispositif de capture [24]. Il faut éliminer le bruit par des techniques de traitement
et de restauration d’images et procéder à une détection de visages, cette opération est très
complexe, surtout dans le cas où l’image contient plusieurs visages ou le cas où l’arrière-
plan n’est pas neutre [18].
Les performances globales de tout système automatique de reconnaissance dépendent
amplement des performances de la détection de visages .On peut diviser les approches
de détection en quatre catégories : les méthodes basées sur la connaissance où on code
la connaissance humaine du visage, les méthodes de correspondance de masques, les mé-
thodes à caractéristiques invariables où on utilise la couleur, les textures et les contours,
et finalement les méthodes les plus répandues et qui sont ceux basées sur l’apprentissage
ou les statistiques comme PCA et Graph matching .
1.6.4 Extraction
Appelée aussi indexation, représentation, modélisation. Ayant une image ou une voix
en entrée, une étape de segmentation permet d’extraire la caractéristique dont le processus
d’authentification a besoin. Par exemple : extraire le visage du fond d’une image dans le
cas de l’identification de visage [24]. Pour extraire l’information utile contenue dans le
signal capturé [20].Le choix de ces informations utiles revient à établir un modèle pour le
visage, elles doivent être discriminantes et non redondantes [18].
1.6.5 Classification
Cette étape consiste à modéliser les paramètres extraits d’un visage ou d’un ensemble
de visages d’un individu en se basant sur leurs caractéristiques communes. Un modèle est
un ensemble d’informations utiles, discriminantes et non redondantes qui caractérise un
ou plusieurs individus ayant des similarités.
G16H
v CHAPITRE 1. LA RECONNAISSANCE FACIALE EN GÉNÉRALE
1.6.6 Apprentissage
C’est l’étape où on fait apprendre les individus au système, elle consiste à mémoriser
les paramètres, après extraction et classification, dans une base de données bien ordonnées
pour faciliter la phase de reconnaissance et la prise d’une décision, elle est en quelque sorte
la mémoire du système [14].
1.6.7 Décision
Dans le cas de l’identification, il s’agit d’examiner les modèles retenus par un agent
humain et donc décider. En ce qui concerne l’authentification, la stratégie de décision
nous permet de choisir entre les deux alternatives suivantes : l’identité de l’utilisateur
correspond à l’identité proclamée ou recherchée ou elle ne correspond pas.
C’est dans ce module que le système donne sa réponse soit dans une identification
par la personne de la base la plus proche, soit par une vérification (oui ou non) [20]. Pour
estimer la différence entre deux images, il faut introduire une mesure de similarité. Il est
important de noter que le système de vérification automatique de visage se base en sa
totalité sur la méthode de localisation [24].
Avantages Inconvénients
–
• Bien accepté par le public. • Technologie sensible à l’environnement
• Aucune action de l’usager (peu in- (éclairage, position, expression du vi-
trusive). sage. . . )
• Pas de contact physique. • Difficultés de différencier de vrai gémeaux.
• Technique peu coûteuse. • Sensible aux changements.(barbe, mous-
tache, lunette, piercing ,chirurgie. . . ).
G17H
v CHAPITRE 1. LA RECONNAISSANCE FACIALE EN GÉNÉRALE
G18H
v CHAPITRE 1. LA RECONNAISSANCE FACIALE EN GÉNÉRALE
• Fichier judiciaire.
– conte Le Fichier national automatisé des empreintes digitales (FNAED) comporte
2,7 millions données (août 2007 en France).
– Le fichier national automatisé des empreintes génétiques (FNAEG) contient
545.092 données (août 2007).nu...
• Titres d’identité (carte nationale d’identité, passeport, permis de conduire, titre
de séjour).
• Services sociaux (sécurisation des règlements).
• Services municipaux (sécurisation des accès aux écoles, contrôle de l’utilisation des
services périscolaires).
• Système de vote électronique.
G19H
v CHAPITRE 1. LA RECONNAISSANCE FACIALE EN GÉNÉRALE
1.9.1 Le marché
Dans son rapport intitulé « Sensors for Biometry and Recognition 2016 », l’Institut
d’études Yole Développement estime que les technologies d’empreintes digitales domi-
nantes évolueront progressivement vers des solutions multimodales. La conclusion la plus
importante souligne que le secteur des applications smartphone constitue le moteur ma-
jeur du développement de la biométrie à près de 66% du marché total de la biométrie.
La biométrie pour le consommateur bénéficiera sans doute d’une croissance de l’ordre de
10% de 2016 à 2021, selon les analystes de Yole.
Selon Yole, 525 millions d’unités de capteurs auraient été vendues en 2015 et ce chiffre
devrait atteindre 1.500 millions d’unités d’ici à 2021. A côté de la détection des empreintes
digitales pour le déverrouillage et le paiement mobile, il faut compter avec les technologies
de reconnaissance visuelle pour la sécurité basées sur les images combinées de l’œil et du
visage. En outre, les assistants vocaux développés par Amazon et Google mettent en jeu
des modules de reconnaissance vocale enregistrée [25].
Le marché de la biométrie est en plein boom : selon l’agence Markets, le marché
mondial de la biométrie représentera 8,5 milliards d’euros d’ici 2015. Cette expansion se
fait particulièrement sentir dans les pays émergents où les états civils, quand ils existent,
sont souvent parcellaires [25] :
G20H
v CHAPITRE 1. LA RECONNAISSANCE FACIALE EN GÉNÉRALE
G21H
v CHAPITRE 1. LA RECONNAISSANCE FACIALE EN GÉNÉRALE
1.10 Conclusion
À travers ce chapitre, nous avons présenté une brève survole sur les méthodes les plus
utilisées dans le domaine de reconnaissance de visages. En effet, nous avons vu que chaque
méthode possède ces avantages et ces inconvénients, ce qui a entraîné l’apparition de l’ap-
proche de combinaison de méthodes et de biométries pour profiter des complémentarités
qui existent entre elles.
G22H
CHAPITRE 2
ÉTAT DE L’ART DE LA
RECONNAISSANCE DE VISAGE
2.1 Introduction
L’extraction des caractéristiques faciales est une étape indispensable dans les systèmes
de reconnaissance de visages. De nombreuses méthodes de reconnaissance de visage ont
été proposées au cours de ces dernières années.
Dans ce chapitre nous allons donner une classification des méthodes de reconnaissance
de visages selon le type des données en entrée du système est adoptée, on distingue trois
grandes classes des méthodes (locale, globale et hybride). Ensuite, nous allons déterminer
le principe de fonctionnement des méthodes les plus représentatives, ainsi une comparaison
entre eux dans la fin de chapitre.
23
v CHAPITRE 2. ÉTAT DE L’ART DE LA RECONNAISSANCE DE VISAGE
Elles sont qu’elles prennent en compte la particularité du visage en tant que forme
naturelle à reconnaître et un nombre réduit de paramètres (de 9 à 14 distances au maxi-
mum à considérer) [20], en exploitant les résultats de la recherche en neuropsychologie et
psychologie cognitive sur le système visuel humain [18].
G24H
v CHAPITRE 2. ÉTAT DE L’ART DE LA RECONNAISSANCE DE VISAGE
c’est quand il s’agit de prendre en considération plusieurs vues du visage, ainsi que le
manque de précision dans la phase « extraction » des points qui constitue leur inconvénient
majeur [20].
BIC (Les Approches Bayésiennes), AAM (Modèle Actif d’Apparence), LBP (Local
Binary Pattern), SVM (Machines à Vecteur de Support).
Les méthodes globales sont basées sur des techniques d’analyse statistique bien connues.
Il n’est pas nécessaire de repérer certains points caractéristiques du visage (Comme les
centres des yeux, le centre de la bouche, etc.) à part pour normaliser les images [24].
Le principe des approches globales est d’utiliser toute la surface du visage comme
source d’information sans tenir compte des caractéristiques locales comme les yeux, la
bouche,. . . etc. Les algorithmes globaux s’appuient sur des propriétés statistiques bien
connues et utilisent l’algèbre linéaire [20]. ou d’utiliser le visage complet comme source
d’information, et ça sans segmentation de ses parties. En effet une image en niveau de
gris de taille 112 x 92 est représentée par un vecteur de taille 10304, les couleurs ne sont
généralement pas utiliser dans ses méthodes ce qui simplifie un grand nombre d’opérations
[24].
elles sont relativement rapides à mettre en œuvre et que les calculs de base sont d’une
complexité moyenne [14].
G25H
v CHAPITRE 2. ÉTAT DE L’ART DE LA RECONNAISSANCE DE VISAGE
elles sont très sensibles aux variations d’éclairement, de pose et d’expression faciale.
Ceci se comprend aisément puisque la moindre variation des conditions de l’environne-
ment entraîne des changements inéluctables dans les valeurs des pixels qui sont traités
directement [14].
L’inconvénient majeur des méthodes globales est l’insuffisance de l’information ex-
traite représentant le visage, car ces méthodes ne prennent pas en considération les varia-
tions locales en essayant de concentrer le maximum d’énergie [20].
Nous pouvons distinguer deux types de techniques parmi les méthodes globales, les
techniques linéaires (PCA (Analyse en Composante Principale), LDA (Analyse Discrimi-
nante Linéaire), ICA (Analyse en Composante Indépendantes), les techniques non linéaires
basées sur la notion mathématique de noyau (kernel) comme le K-PCA (Analyse en Com-
posante Principale de kernel), le K-LDA (Analyse Discriminante Linéaire de kernel) et
LLE (Local Linear Embedding).
Elle se présente comme une association des avantages entre les méthodes globales et
locales. Elles permettent d’augmenter la stabilité de la performance de reconnaissance lors
de changements de pose, d’éclairement et d’expressions faciales [24].
Elles se basent sur le fait que le système de perception humain emploi les caractéris-
tiques locales et la région entière du visage pour l’identification [18].
Parmi les techniques permissent de cette approche sont : LFA (Analyse de Caracté-
ristique Locale), EGM (Elastic Graph Matching), EBGM (Elastic Buch Graph Matching)
et LG-PCA (Log Gabor PCA).
G26H
v CHAPITRE 2. ÉTAT DE L’ART DE LA RECONNAISSANCE DE VISAGE
G27H
v CHAPITRE 2. ÉTAT DE L’ART DE LA RECONNAISSANCE DE VISAGE
reconstruite à peu près comme une moyenne pondérée somme d’une petite collection
d’images que définis base du visage et une image moyenne de la face. Turk et Pentland
ont proposé une méthode visages propres pour la reconnaissance faciale en 1991 [24] .
La méthode PCA est une méthode globale linéaire [24] qui est aussi connu sous
le nom d’Eigen faces, puisque elle utilise des vecteurs propres et des valeurs propres
(respectivement Eigenvectors et Eigenvalues en anglais). Cet algorithme s’appuie sur des
propriétés statistiques bien connues et utilise l’algèbre linéaire. Il est à la base de nombreux
algorithmes globaux actuels.
a1,1
..
.
a1,1 . . . a1,m
an,1
.. .. ..
..
Γ=
. . .
=⇒ Γ =
.
an,1 . . . an,m
a1,m
..
.
an,m
Passage d’une image vers un vecteur dans un espace vectoriel de grande dimension.
Les coefficients ai,j représentent les valeurs des pixels en niveau de gris, codés de 0 à
255 [22].
G28H
v CHAPITRE 2. ÉTAT DE L’ART DE LA RECONNAISSANCE DE VISAGE
• Après avoir rassemblé les M images dans une unique matrice, on obtient une ma-
trice d’images Γ, où chaque colonne représente une image Γi [14] :
a1,1 b1,1 ... z1,1
.. .. ..
. . ... .
an,1 bn,1 ... zn,1
.. .. ..
Γ=
. . ... .
a1,m b1,m . . . z1,m
.. .. ..
. . .
...
an,m bn,m . . . zn,m
• On calcule ensuite l’image moyenne Ψ de toutes les images collectées. Cette image
peut être vue comme le centre de gravité du jeu d’images (voir la Figure 2.2) [14] :
1 XM
Ψ= Γi (2.1)
M i=1
• l’image moyenne est alors soustraite de chaque image avec la formule suivante [26] :
Φi = Γi − Ψ, . . . M (2.2)
G29H
v CHAPITRE 2. ÉTAT DE L’ART DE LA RECONNAISSANCE DE VISAGE
M
C= Θi ΘTi = AAT , A = [Θ1 Θ2 . . . ΘM ] (2.3)
X
i=1
La prochaine étape consiste à calculer les vecteurs propres et les valeurs de cette
matrice de covariance C de taille (N × N ), c’est-à-dire de l’ordre de la résolution d’une
image.
Le problème est que cela peut parfois être très difficile et très long. En effet, si N > M
(si la résolution est supérieure au nombre d’images), il y aura seulement M − 1 vecteurs
propres qui contiendront de l’information (les vecteurs propres restants auront des valeurs
propres associées nulles). Par exemple, pour 100 images de résolution 320×240, on pourrait
résoudre une matrice L de 100 × 100 au lieu d’une matrice de 76800 × 76800 pour ensuite
prendre les combinaisons linéaires appropriées des images. Le gain de temps de calcul
serait considérable. Typiquement, on passerait d’une complexité de l’ordre du nombre de
pixels dans une image à une complexité de l’ordre du nombre d’images [22].
Les étapes du processus qui on permet d’accélérer les calculs sont décrits Ci-dessous
[14] :
• on considère les vecteurs propres ei de C = AAT , associés aux valeurs propres λi
On a :
Cei = λi ei (2.4)
• Les vecteurs propres vi de l = AT A, associés aux valeurs propres ui sont tels que :
lvi = ui vi (2.5)
Soit :
AT Avi = ui vi (2.6)
G30H
v CHAPITRE 2. ÉTAT DE L’ART DE LA RECONNAISSANCE DE VISAGE
• De 2.4 et 2.8, on voit que Avi et ui sont respectivement les vecteurs propres et les
valeurs propres de C :
ei = Avi
(2.9)
λi = u i
On peut, donc trouver les valeurs propres de cette énorme matrice C en trouvant les
valeurs propres d’une matrice L beaucoup plus petite. Pour trouver les vecteurs propres
de C, il suffit juste de pré-multiplier les vecteurs propres de L par la matrice A.
Les vecteurs propres trouvés sont ensuite ordonnés selon leurs valeurs propres corres-
pondantes, de manière décroissante. Plus une valeur propre est grande, plus la variance
capturée par le vecteur propre est importante. Cela implique que la majeure partie des
informations est contenue dans les premiers vecteurs propres.
Une part de la grande efficacité de l’algorithme ACP vient de l’étape suivante qui
consiste à ne sélectionner que les k meilleurs vecteurs propres (ceux avec les k plus grandes
valeurs propres). On définit alors un espace vectoriel engendré par ces k vecteurs propres,
que l’on appelle l’espace des visages Ev (“Face Space”) [14].
Les images originales peuvent être reconstituées par combinaison linéaire de ces vec-
teurs propres, on les appelle eigenfaces (voir la Figure 2.3).
G31H
v CHAPITRE 2. ÉTAT DE L’ART DE LA RECONNAISSANCE DE VISAGE
En résumé, l’algorithme ACP est une méthode globale utilisant en premier lieu les
niveaux de gris des pixels d’une image. Sa simplicité à mettre en œuvre contraste avec
une forte sensibilité aux changements d’éclairement, de pose et d’expression faciale [27].
Le principe selon lequel on peut construire un sous-espace vectoriel en ne retenant que
les «meilleurs »vecteurs propres, tout en conservant beaucoup d’information utile, fait de
l’ACP un algorithme efficace et couramment utilisé en réduction de dimensionnalité [22].
G32H
v CHAPITRE 2. ÉTAT DE L’ART DE LA RECONNAISSANCE DE VISAGE
G33H
v CHAPITRE 2. ÉTAT DE L’ART DE LA RECONNAISSANCE DE VISAGE
Figure 2.4 – les projections ACP et LDA d’un ensemble de données [14].
• Tout comme dans le PCA, on rassemble les images de la base d’apprentissage dans
une grande matrice d’images Γ où chaque colonne représente une image Γi , puis on
calcule L’image moyenne Ψ [14].
Ensuite, pour chaque classe Ci , on calcule l’image moyenne ΨCi :
1 qXi Γk
ΨCi = (2.10)
qi k=1
Θi = Γi − ΨCi (2.11)
G34H
v CHAPITRE 2. ÉTAT DE L’ART DE LA RECONNAISSANCE DE VISAGE
c X
sw = (Γk − ΨCi )(Γk − ΨCi )T (2.12)
X
i=1 Γk∈Ci
c
sb = qi (ΨCi − Ψ)(ΨCi − Ψ)T (2.13)
X
i=1
M
st = (Γi − Ψ)(Γi − Ψ)T (2.14)
X
i=1
Une fois ces matrices calculées, on doit trouver une projection optimale w quiMini-
mise la dispersion intra-classe, relative à la matrice sw , tout en maximisant la dispersion
Interclasse, relative à la matrice [28].
G35H
v CHAPITRE 2. ÉTAT DE L’ART DE LA RECONNAISSANCE DE VISAGE
G36H
v CHAPITRE 2. ÉTAT DE L’ART DE LA RECONNAISSANCE DE VISAGE
Le Modèle Binaire Local en anglais LBP (Local Binary Pattern, Ojala et al, 1996)
[31], LBP sont des descripteurs locaux de textures souvent utilisés en analyse de visages
[Rodriguez et Marcel, 2006 ; Zhao et Pietikäinen, 2007] [29].
Dans le but de caractériser la texture d’une image.
Le calcul de la valeur LBP consiste pour chaque pixel à seuiller ses huit voisins directs
avec un seuil dont la valeur est le niveau de gris du pixel courant. Tous les voisins prendront
alors une valeur 1 si leur valeur est supérieure ou égale au pixel courant et 0 si leur valeur
est inférieure (voir la Figure 3.1).
Le code LBP du pixel courant est alors produit en concaténant ces 8 valeurs pour
former un code binaire. On obtient donc, comme pour une image à niveaux de gris, une
image des valeurs LBP contenant des pixels dont l’intensité se situe entre 0 et 255 [31].
G37H
v CHAPITRE 2. ÉTAT DE L’ART DE LA RECONNAISSANCE DE VISAGE
Figure 2.7 – Figure 2.8. (a) : Trois voisinages pour des R et P différents, (b) : Textures
particulières détectées par LBP [14].
G38H
v CHAPITRE 2. ÉTAT DE L’ART DE LA RECONNAISSANCE DE VISAGE
G39H
v CHAPITRE 2. ÉTAT DE L’ART DE LA RECONNAISSANCE DE VISAGE
différences est enregistré. Quand les données d’apprentissage sont suffisantes, Une
régression multiple est appliquée pour modéliser la relation entre les départements
du modèle et les vecteurs de différence.
L’AAM encode donc des informations sur la maniéré dont les paramètres doivent
être ajustés pour atteindre le meilleure alignement. étant donné une image d’un
visage à reconnaître, le modèle est d’abord placé sur le visage et le calcul du vecteur
de différences est réalisé. Ensuite, l’ajustement est effectué en utilisant le modèle de
régression obtenu dans la phase d’apprentissage : celui-ci prédit le mouvement qui
donne la meilleure correspondance. Le processus est répété jusqu’à la convergence.
les La Figure 2.8 montre deux exemples d’ajustement d’un AAM sur un visage
après différents nombres d’itération.
Figure 2.8 – Deux exemples d’ajustement d’un AAM à une image [32].
G40H
v CHAPITRE 2. ÉTAT DE L’ART DE LA RECONNAISSANCE DE VISAGE
Une autre méthode locale est le modèle binaire local symétrique central en anglais
CS-LBP (Center-Symmetric Local Binary Pattern, Heik-kila ,2009) [33]pour la description
des régions d’intérêt.
Son principe est basé sur le calcul de la différence des valeurs des pixels (deux à
deux) symétrique par rapport au pixel centrale ; c’est-à-dire les valeurs de pixel ne sont
pas comparées au pixel central mais plutôt au pixel opposé symétriquement par rapport
au pixel central [34].La figure 2.9 illustre la procédure de ce calcule .
G41H
v CHAPITRE 2. ÉTAT DE L’ART DE LA RECONNAISSANCE DE VISAGE
Ces dernières années, plusieurs recherches se sont intéressées à son utilisation dans
le domaine de la reconnaissance des visages dans le spectre visible. Plus récemment, un
nouveau descripteur similaire au LBP a été proposé. Ce descripteur appelé les motifs
locaux ternaires LTP en anglais (Local Ternary Patterns, Tan et Triggs, 2007), vise à
réduire l’influence du bruit dans des régions uniformes de l’image à travers un encodage
local basé sur l’utilisation d’un seuil.
Il s’agit de la généralisation des local binary patterns au système ternaire. Elle a
été proposée comme solution au problème de sensibilité qu’éprouve le LBP face au bruit
aléatoire et celui de quantification [14].
Le descripteur LTP étend le LBP à un code de 3 niveaux dans lequel les pixels locaux
ayant leurs niveaux de gris dans un intervalle défini par les seuils -t et +t par rapport au
pixel central sont marquées par la valeur 0. Les pixels au-dessus du seuil +t par rapport
au pixel central sont affectées d’une marque de valeur 1 et ceux en-dessous du seuil -t par
rapport au pixel central sont marqués par la valeur -1 [36].
• Le calcul des descripteurs LTP :
L’équation ci-dessous montre comment calculer le descripteur LTP dans un voisi-
nage [36] :
1 si pi ≥ p0 + t
p0i = 0 si | pi − p0 |< t (2.15)
0 si pi ≤ p0 − t
t est un seuil défini par l’utilisateur. L’utilisation d’un seuil permet de rendre le
descripteur résultant moins sensible au bruit, mais il n’est plus strictement invariant
aux transformations des niveaux de gris.
La Figure 2.10 montre le résultat de l’application du LTP sur une image en utilisant
un seuil t = 5.
G42H
v CHAPITRE 2. ÉTAT DE L’ART DE LA RECONNAISSANCE DE VISAGE
Figure 2.10 – Exemple de calcul du descripteur LTP sur un voisinage 3 × 3 (a) niveau
de gris dans une zone 3 × 3 ; (b) masque ternaire obtenu [36]
Figure 2.11 – Résultat de fractionnement de LTP en deux canaux LBP (LTPU et LTPL)
[36].
Cette approche donne lieu à deux mesures (voir la Figure 2.12). Chaque mesure
est calculée en utilisant la même approche que celle pour les LBP. La valeur du
descripteur LTPU est obtenue en multipliant le masque binaire résultant par les
poids correspondants au voisinage utilisé et ensuite en sommant les valeurs obtenues
G43H
v CHAPITRE 2. ÉTAT DE L’ART DE LA RECONNAISSANCE DE VISAGE
Figure 2.12 – Calcul des valeurs de LTPU et LTPL par multiplication avec le masque
des poids et la somme des valeurs obtenues dans le voisinage [36].
G44H
v CHAPITRE 2. ÉTAT DE L’ART DE LA RECONNAISSANCE DE VISAGE
G45H
v CHAPITRE 2. ÉTAT DE L’ART DE LA RECONNAISSANCE DE VISAGE
Table 2.1 – Comparaison entre les méthodes les plus utilisées dans la reconnaissance de
visage ACP, LDA, CNN, LBP, AAM et CS-LBP .
G46H
v CHAPITRE 2. ÉTAT DE L’ART DE LA RECONNAISSANCE DE VISAGE
2.5 Conclusion
À travers ce chapitre, nous avons présenté une brève survole sur les méthodes les plus
utilisées dans le domaine de reconnaissance de visages. En effet, nous avons vu que chaque
méthode possède ces avantages et ces inconvénients, ce qui a entraîné l’apparition de l’ap-
proche de combinaison de méthodes et de biométries pour profiter des complémentarités
qui existent entre elles.
G47H
CHAPITRE 3
DESCRIPTION GÉNÉRALE DU
SYSTÈME FACIAL
3.1 Introduction
Comme nous l’avons évoqué au chapitre précédent, il existe de nombreuses méthodes
d’extractions des caractéristiques dans le domaine de reconnaissance de visage. En effet,
la bonne précision d’un tel système de reconnaissance faciale base sur la robustesse et
l’efficacité des méthodes d’extraction des descripteurs a utilisées.
Le but de ce chapitre est de présenter tous d’abord l’architecture de notre système.
Ensuite, les méthodes que nous avons utilisées pour extraire les descripteurs des images,
afin de faire la reconnaissance de visage, nous allons expliquer le principe de la méthode
KNN qui nous permet de classifier ces descripteurs. Enfin les organigrammes détaillés de
système proposés.
48
v CHAPITRE 3. DESCRIPTION GÉNÉRALE DU SYSTÈME FACIAL
C’est l’étape où nous changeons les dimensions de la matrice d’image importé soit
d’un dispositif de capture (une caméra par exemple) soit à partir d’un dossier d’image
facial (une base de données). Ensuite, nous convertissons cette image en image de niveau
de gris (généralement codé sur 8 bit).
C’est l’étape où nous prenons l’image déjà préparés et faisons un calcul des descrip-
teurs selon une des trois méthodes qu’on a utilisé (LBP, CS-LBP et LTP). Enfin, nous
faisons simplement une sauvegarde de ces descripteurs dans une base de données locale
pour une utilisation ultérieure.
G49H
v CHAPITRE 3. DESCRIPTION GÉNÉRALE DU SYSTÈME FACIAL
Ce dernier utilise deux paramètres pour trouver la classe de la requête le nombre des
voisins K et la fonction de similarité, il compare le nouvel exemple avec les exemples déjà
classés et il affecte la requête à la classe majoritaire. Pour chaque requête il conserve la
classe originale, la classe trouvée et la valeur de K dans un fichier.
G50H
v CHAPITRE 3. DESCRIPTION GÉNÉRALE DU SYSTÈME FACIAL
LBP de base : est un descripteur utilisé pour reconnaître des textures ou pour la
détection d‘objet dans les images. Il consiste à attribuer à chaque pixel P de l’image I(i,
j) à analyser, une valeur caractérisant le motif local autour de ce pixel. Ces valeurs sont
calculées en comparant le niveau de gris du pixel central P aux valeurs des niveaux de gris
des pixels voisins pour construire un code binaire, ensuite on convertie ce code binaire
pour qu‘il soit la valeur de pixel P de l‘image LBP, finalement on calcule l‘histogramme
de l‘image LBP (Voir la méthode détaillée dans chapitre 02).
G51H
v CHAPITRE 3. DESCRIPTION GÉNÉRALE DU SYSTÈME FACIAL
Dans le cadre supervisé, les données zi = (xi , yi )Rm × Rn sont formées d’une entrée
xi Rm et d’une cible, ou étiquette, yi Rn . Le but est alors d’apprendre une fonction :
f (xi )Rn capable de prédire la cible. La nature de la cible définit le genre de problème à
résoudre. Dans le cas où la cible est discrète, on parle alors d’un problème de classification.
Le cas le plus simple est la classification binaire, où il n’y a que deux classes à séparer.
Dans ce cas, on peut représenter les deux classes par 0 et 1 [30].
G52H
v CHAPITRE 3. DESCRIPTION GÉNÉRALE DU SYSTÈME FACIAL
G53H
v CHAPITRE 3. DESCRIPTION GÉNÉRALE DU SYSTÈME FACIAL
Figure 3.3). Ces éléments sont appelés vecteurs de support car c’est uniquement
sur ces éléments de l’ensemble d’apprentissage qu’est optimisée la séparatrice [50].
Hyperplan optimal : est un Hyperplan qui classe correctement les données
(lorsque c’est possible) et qui se trouve le plus loin possible de tous les exemples,
on peut dire aussi que cet hyperplan maximise la marge.
Vecteurs de support : ce sont Les points les plus proches, qui seuls sont utilisés
pour la détermination de l’hyperplan.
La marge : est la distance entre l’hyperplan et les exemples. La marge est calculée
à partir du produit scalaire entre les vecteurs situés la frontière de chaque classe et
le vecteur unitaire normal de l’hyperplan séparateur.
G54H
v CHAPITRE 3. DESCRIPTION GÉNÉRALE DU SYSTÈME FACIAL
ω.k(x) + b = 0 (3.1)
ω.k(xi ) + b
h(xi ) = (3.2)
kωk
Pour maximiser la marge, il faut donc minimiser ‖w‖ tout en maximisant ω.k(xi )+b
pour les xi définis comme vecteurs de support. Ces vecteurs de supports sont les xi
pour i = 1 : m de la base d’apprentissage tels que ω.k(xi ) + b = ±1.
La résolution de ce problème d’optimisation est faite par l’utilisation des multipli-
cateurs de Lagrange où le Lagrangien est donné par :
1 M
l(ω, b, α) = k ω k2 − αi (yi (ω.k(xi ) + b − 1)) (3.3)
X
2 i=1
G55H
v CHAPITRE 3. DESCRIPTION GÉNÉRALE DU SYSTÈME FACIAL
1 M M
l(ω, b, α) = k ω k2 +C αi (yi (ω.k(xi ) + b − 1)) (3.5)
X X
ξi −
2 i=1 i=1
Où C est une constante strictement positive qui permet de régler le compromis entre
le nombre d’erreurs de classification et la largeur de la marge. Cette constante est
en général déterminée empiriquement par validation croisée sur l’ensemble d’ap-
prentissage.
La régression linéaire (LR) est un modèle qui est utilisé comme méthode de référence
pour poser la normalisation [52].
• Principe de la méthode LR :
Le modèle de régression le plus répandu et le plus important dans la pratique
est le modèle linéaire (dépendance linéaire entre Y et les variables explicatives).
Rappelons que dans le cas de la régression linéaire simple, c’est-à-dire avec une
unique variable explicative X (p=1), le modèle recherché est de la forme [48] :
Y = α + βX + ε (3.6)
Le problème est d’estimer α,β ainsi que la variance du résidu ε. Cette estimation se
fait sur l’échantillon d’apprentissage en utilisant la méthode des moindres carrés.
La régression linéaire multiple généralise la régression linéaire simple, et sa pratique
reste assez délicate. L’objectif d’un modèle de régression linéaire multiple est de
trouver l’hyperplan qui ajuste au mieux le nuage de points constitué par les valeurs
des exemples pour toutes les variables (X1 , . . . , Xp et Y). Par conséquent le modèle
va chercher les coefficients de l’équation tels que le carré des écarts des points à
l’hyperplan soit minimal, c’est toujours le critère des moindres carrés qui est utilisé.
Les méthodes de régression sont très utilisées en matière de prédiction, mais leur
G56H
v CHAPITRE 3. DESCRIPTION GÉNÉRALE DU SYSTÈME FACIAL
particularité est que toutes les variables sont quantitatives continues. Une exten-
sion à des variables explicatives qualitatives est possible, mais la variable expliquée
Y reste quant à elle toujours quantitative. Dans le cadre d’un problème de Recon-
naissance de Formes, le nombre de classes est fini, ce qui correspond à une variable
expliquée Y qualitative, cette situation non prise en compte par la régression est
traitée par l’analyse discriminante [45].
L’algorithme des k plus proches voisins K-PPV en anglais (KNN, k nearest neigh-
bours) permet de classifier un échantillon inconnu en comparant simplement la distance
euclidienne (ou autre paradigme) entre cet échantillon et les échantillons connus dans
l’espace de description [53].
• Principe de la méthode KNN :
C’est une approche très simple et directe. Elle ne nécessite pas d’apprentissage mais
simplement le stockage des données d’apprentissage.
Son principe est le suivant :
Une donnée de classe inconnue est comparée à toutes les données stockées. On
choisit pour la nouvelle donnée la classe majoritaire parmi ses K plus proches
voisins (Elle peut donc être lourde pour des grandes bases de données) au sens
d’une distance choisie [54].
Calcule de distance :
Afin de trouver les K plus proches d’une donnée à classer, on peut choisir la distance
euclidienne. Soient deux données représentées par deux vecteurs xi et xj , la distance
entre ces deux données est donnée par [54] :
v
u d
d(xi , xj ) = (x − xjk )2 (3.7)
uX
t
ik
k=1
G57H
v CHAPITRE 3. DESCRIPTION GÉNÉRALE DU SYSTÈME FACIAL
3. Retenir les k observations x(1), . . . , x(k) pour lesquelles ces distances sont les
plus petites.
La Figure 3.4 présente un exemple visuel de l’algorithme des k-plus proches voisins.
Figure 3.4 – Illustration de la classification par la méthode des k-plus proches voisins [51].
G58H
v CHAPITRE 3. DESCRIPTION GÉNÉRALE DU SYSTÈME FACIAL
G59H
v CHAPITRE 3. DESCRIPTION GÉNÉRALE DU SYSTÈME FACIAL
G60H
v CHAPITRE 3. DESCRIPTION GÉNÉRALE DU SYSTÈME FACIAL
3.6 Conclusion
Ce chapitre a été consacré à la présentation des méthodes de reconnaissance faciale
utilisée dans notre système qui basée sur l’utilisation des descripteurs (LBP, CS-LBP et
LTP) et le classifier avec KNN gras à obtenir des meilleurs résultats.
Dans le chapitre suivant, nous testerons le système dans son environnement afin
d’évaluer ses performances pour en déduire les paramètres optimaux qui garantissent
une meilleure efficacité du système.
G61H
CHAPITRE 4
IMPLÉMENTATION ET TESTS
4.1 Introduction
Plusieurs bases de données contenant des informations qui permettent l’évaluation des
systèmes de reconnaissance de visages sont disponibles sur le marché. Toutefois, ces bases
de données sont généralement adaptées pour évaluer l’efficacité des méthodes décrites
dans le chapitre 3, nous avons opté pour une validation sur des bases de données standard
« GIT » et « FEI ».
Dans ce chapitre nous allons présenter notre application sous MATLAB et les résultats
obtenus avant le test de système dans son environnement afin d’évaluer une meilleure
efficacité.
62
v CHAPITRE 4. IMPLÉMENTATION ET TESTS
G63H
v CHAPITRE 4. IMPLÉMENTATION ET TESTS
FEI
FEI est une base de données brésilienne de visage qui contient un ensemble d’images
de visage prises entre juin 2005 et mars 2006 au laboratoire d’intelligence artificielle de
FEI dans São Bernardo font Campo, São Paulo, Brésil.
Elle contient des images de visage de 200 personnes, avec 14 images pour chacune
d’entre elles, un total de 2800 images. Toutes les images sont en couleur et prises sur un
fond blanc homogène en position frontale avec divers angles de pose de chaque personne,
s’étendant du profil aux vues frontales. La variation d’éclairage est de 10% et la résolution
de l’image est de 640x480 Pixel.
Tous les visages sont principalement représentés par les étudiants et le personnel de
FEI, entre 19 et 40 ans avec apparence, coiffure et ornement distinctifs. Le nombre de
sujets masculins et féminins est exactement le même et égal à 100. La figure 4.1 montre
quelques exemples de variations d’image à partir la base de données de visage FEI [58].
G64H
v CHAPITRE 4. IMPLÉMENTATION ET TESTS
GIT
GIT est une base de visage contient des images de 50 personnes prises en deux ou
trois sessions entre 06/01/99 et 15/11/99 au centre de traitement du signal et de l’image
au Georgia Institute of Technology.
Toutes les personnes dans la base de données sont représentées par 15 images JPEG
couleur avec un fond encombré pris lors de la résolution 640x480 pixels.
La taille moyenne des visages dans ces images est de 150x150 pixels. Les images
montrent frontale Et / ou des visages inclinés avec différentes expressions faciales, condi-
tions d’éclairage et échelle. Chaque image est étiquetée manuellement pour déterminer
la position du visage dans l’[Link] figure 4.2 montre quelques exemples de différents
objets et classes de l’ensemble de données GIT [59].
Figure 4.2 – Exemple de différents objets et classes de l’ensemble de données GIT [59].
G65H
v CHAPITRE 4. IMPLÉMENTATION ET TESTS
Dans la phase d’indexation, nous avons implémenter trois fonctions principales LBP
et CS-LBP et LTP, le pseudo code de ces trois méthodes est décrit au-dessous :
L’algorithme de LBP
G66H
v CHAPITRE 4. IMPLÉMENTATION ET TESTS
G67H
v CHAPITRE 4. IMPLÉMENTATION ET TESTS
L’algorithme de CS-LBP
G68H
v CHAPITRE 4. IMPLÉMENTATION ET TESTS
L’algorithme de LTP
La fonction de LTP :
G69H
v CHAPITRE 4. IMPLÉMENTATION ET TESTS
G70H
v CHAPITRE 4. IMPLÉMENTATION ET TESTS
L’algorithme de KNN
G71H
v CHAPITRE 4. IMPLÉMENTATION ET TESTS
G72H
v CHAPITRE 4. IMPLÉMENTATION ET TESTS
C’est une interface simple telle qu’elle apparait lors du lancement de l’application
depuis MATLAB. C’est la fenêtre à partir de laquelle on choisir un de deux boutons, le
bouton ADMINISTRATOR permettant de passer à la fenêtre admin, et un bouton USER
pour passer à la fenêtre user, la figure 4.3 montre cette fenêtre :
G73H
v CHAPITRE 4. IMPLÉMENTATION ET TESTS
Après avoir s’authentifier, la fenêtre admin s’ouvrera, la figure 4.5 montre cette fe-
nêtre :
• permet de charger l’image depuis la camera ou, à partir une base facial(FEI,GIT
par exemple).
• faire indexer les images importées, avec les 3 méthodes LBP ,CS-LBP,LTP.
• afficher l’ensemble des images déjà indexer selon chaque classe.
G74H
v CHAPITRE 4. IMPLÉMENTATION ET TESTS
Cette interface affichée après le choix de bouton FROM CAMERA pour importer des
images, la figure 4.5 montre cette interface :
G75H
v CHAPITRE 4. IMPLÉMENTATION ET TESTS
Si nous allons choisir le bouton user à partir de l’interface principal, la fenêtre user
4.7 va être affichée qui permet à :
• charger une image pour le test d’identification.
• trouver les k images proches a l’image importé en utilisant une des trois méthodes,
LBP , CS-LBP et LTP.
G76H
v CHAPITRE 4. IMPLÉMENTATION ET TESTS
Voici l’exemple de test de notre application 4.8 qui montre un résultat positive en
utilisant la méthode LBP, nous voyons que l’image retrouvé à la droite est identique à la
même personne chercher dans la figure à gauche, avec une distance très proche à 1 0.89.
G77H
v CHAPITRE 4. IMPLÉMENTATION ET TESTS
Mais ici 4.9 c’est le cas d’échéance de test en utilisant la même méthode lbp ,car nous
voyons que l’image entré a gauche est totalement différente a celle retrouvé dans la figure
droite par le système ,et la distance est un peu loin du 1 .
G78H
v CHAPITRE 4. IMPLÉMENTATION ET TESTS
Le rôle de cette phase est de faire une comparaison entre les méthodes d‘indexation
utilisées dans ce projet en termes de pertinence des résultats. Nous avons suivi un protocole
de test basé sur la mesure de taux de reconnaissance :
Accuracy = nbrimReconnues/nbrimTEST
Tel que :
nbrimReconnues = nombre d’image de teste reconnues.
nbrimTEST = nombre totale d’image de teste.
Le tableau représente comment nous allons scindée la base FEI à partir de 1400
image :
G79H
v CHAPITRE 4. IMPLÉMENTATION ET TESTS
Selon le test des image de la base FEI, nous remarquons de la Figure4.10 que le taux
de reconnaissance obtenu par LBP est meilleur que celle de CS-LBP dans tous les cas de
test et LTP meilleur que celle de LBP dans les trois premier test 50, 100 et 150 , donc
nous allons déduire que LTP est plus efficace avec la base FEI .
Le tableau représente comment nous allons scindée la base GIT à partir de 700 image :
Le tableau 4.4illustre les valeurs des différents test d’accuracy du système de recon-
naissance de visages à partir différentes méthodes :
G80H
v CHAPITRE 4. IMPLÉMENTATION ET TESTS
Nous observons dans Figure 4.11 que les descripteurs LBP, CS-LBP et LTP sont les
plus pertinents pour tous les nombres de requêtes, ils restent toujours stables, et le taux
de reconnaissance en utilisant la méthode est meilleur dans tous les cas de test 50, 100,
150 et 200 de la base GIT.
G81H
v CHAPITRE 4. IMPLÉMENTATION ET TESTS
Le tableau 4.3 illustre les valeurs des différents test d’Erreur du système de recon-
naissance de visages à partir différentes méthodes :
Nous remarquons à partir de Figure 4.12 que le taux d’erreur augmente avec l’aug-
mentation de nombre des images de test, et malgré tous cela, la méthode LTP présente
un taux d’erreur petit par rapport à celui de LBP et CS-LBP, ce qui montre que LTP est
plus robuste aux erreurs avec la base FEI.
Le tableau 4.4illustre les valeurs des différents test d’Erreur du système de reconnais-
sance de visages à partir différentes méthodes :
G82H
v CHAPITRE 4. IMPLÉMENTATION ET TESTS
La Figure 4.13 montre clairement en utilisant la base GIT, que la méthode LTP donne
un taux d’erreur plus petit par rapport à la méthode LBP et CS-LBP, il arrive à 0.075
avec 500 images de test, tout cela indique que la méthode LTP reste robuste même si
nous augmentons dans le nombre des images de tests.
Nous allons prendre 50 images comme image de test à partir des bases, ou k est le
nombre des images les plus proches aux images de tests « requêtes» :
G83H
v CHAPITRE 4. IMPLÉMENTATION ET TESTS
K 1 2 3 4 6 8 10
LBP 33 41 35 32 33 37 24
CS-LBP 29 42 37 29 31 34 20
LTP 40 40 36 35 30 29 26
Nous remarquons dans Figure 4.14 en utilisant la base FEI, que la méthode LTP
est la plus pertinente, elle a un taux de reconnaissance stable quelque soit le nombre de
requêtes K, puis on trouve LBP et CS-LBP.
K 1 2 3 4 6 8 10
LBP 40 45 44 41 33 41 38
CS-LBP 41 46 45 38 31 38 33
LTP 44 46 45 46 41 42 40
G84H
v CHAPITRE 4. IMPLÉMENTATION ET TESTS
Avec la base GIT , tous les méthodes sont presque, pareils ,nous voyons pas de grande
différences entre les 3 méthodes utilisées .
4.7 Conclusion
Nous pouvons dire que notre implémentation est fonctionnelle et les résultats obtenus
sont satisfaisantes.
Dans ce chapitre, nous avons présenté une application de reconnaissance faciale basée
sur les algorithmes LBP, CS-LBP, LTP on a présenté aussi les différents résultats obtenus
pour chaque algorithme. Notre système de reconnaissance de visages « face recognition
», est appliquée sur deux bases de donné de visages GIF et FEI. Pour conclure, Nous
pouvons noter que LTP est la plus efficace que LBP et CS-LBP dans certain cas de tests
que nous avons fait.
G85H
CONCLUSION GÉNÉRALE
86
v CHAPITRE 4. IMPLÉMENTATION ET TESTS
pour le cas des images pris par camera avec des mauvaises conditions de capture, puisque
ça crée généralement le bruit et LTP fonctionne bien dans ce type de situations, par contre
les deux autres méthodes sont un peu similaire, dans leurs résultats sauf que pour CS-LBP
est plus rapide en temps de son calcule par rapport à celui de LBP. Aussi, nous avons
arrivé que la base GIT donne des résultats assez bonne, due qu’elle utilise des images prise
avec des arrière-plans plus semble qui donne un codage plus uniforme, par contre la base
FEI, puisque elle utilise une arrière-plan complètement blanc, ça crée un petit enjeux de
lumière, puisque la même image pourras être codé différemment à cause de changement
d’illumination d’une grande partie d’image même avec un petite niveau mais ça prévient
le programme a bien fonctionné.
En effet, ce projet nous a permis de découvrir plus profondément plusieurs aspects du
développement d’une application complexe. Il nous a fallu d’abord nous renseigner sur le
côté algorithmique de la reconnaissance de visage, et plus généralement de la vision par
ordinateur (computer vision), qui est un domaine vaste à la croisée des chemins entre les
mathématiques, le traitement du signal et l’intelligence artificielle.
En perspectives, dans un premier temps une extension de ce travail peut être envisagé
par l’étude et la réalisation d’un système de détection et de localisation du visage avec des
performances assez hautes, une autre consiste à appliquer ce système sur d’autres bases de
visages présentant de fortes variations dans l’éclairage et de la pose ainsi que d’envisager
la possibilité d’employer une approche basée sur les éléments locale du visage. Ensuite, un
des grands challenges serait de pouvoir mieux maîtriser les variations d’environnement,
qui perturbent encore trop les systèmes de reconnaissance, Les dernières avancées de la
technologie de capture 3D des images de visage ont permis de mettre en place des systèmes
de reconnaissance assez robustes par rapport à la 2D.
G87H
BIBLIOGRAPHIE
[2] L. Sirovich and M. Kirby, « A Low -Dimensional Procedure for the Characterization
of Human Faces», Journal of the Optical Society of America A, Volume : 4, Issue :
3, Page(s) : 559-524, 1987.
[4] National Science and Technology Concil (NSTC), Comittee on Technology, «Face-
Recongnition», 7 Aout 2006.
88
v BIBLIOGRAPHIE
[12] Nicolas Morizet, Thomas EA, Florence Rossant, Frédéric Amiel et Amara Amara ,
«Revue des algorithmes PCA, LDA et EBGM utilisés en reconnaissance 2D du visage
pour la biométrie», Institut Supérieur d’Electronique de Paris (ISEP), département
d’Electronique, 2006.
[13] R. O. Duda, P. E. Hart, « Pattern Classification and Scene Analysis », John Wiley
and Sons, New York, 1973.
[14] Bettahar Abdessettar et Saber Fathi, « Extraction des caractéristiques pour l’analyse
biométrique d’un visage », Mémoire Master Académique, Domaine : Mathématique
et Informatique, Filière : Informatique ,Spécialité : Informatique Fondamentale, Uni-
versité Kasdi Merbah Ouargla ,15 / 06 / 2014.
[15] T. W. S. Chow, G. Fei, « Three phase induction machines asymmetrical faults iden-
tification using bispectrum » IEEE Transactions on Energy Conversion, Vol. 10,
Volume : 10, Issue : 4, Page(s) : 688-693, December 1995.
G89H
v BIBLIOGRAPHIE
[21] R. Hietmeyer. «Biometric identification promises fast and secure processing of airline
passengers», The International Civil Aviation Organization Journal, Volume : 17,
Issue : 9, Page(s) : 10–11, 2000.
[22] DIB Soumeya, « identification des induvidus par les techniques multimodales : ap-
plication sur les images du visage », Pour l’obtention du diplôme de magister en
informatique, FACULTE DES MATHEMATIQUES ET D’INFORMATIQUE DE-
PARTEMENT D’INFORMATIQUE, UNIVERSITE DES SCIENCES ET DE LA
THECHNOLOGIE D ‘ORAN MOHAMED BOUDIAF,2014 / 2015.
[24] DJEDI Sara, « Etude comparative de PCA et KPCA associées au SVM en biométrie
», Mémoire de Fin d’Etudes En vue de l’obtention du diplôme : MASTER, Départe-
ment de Génie Electrique, Filière : Electronique Option : Télécommunication, 2012.
[27] V. PERLIBAKAS, «Face recognition using Principal Component Analysis and Log-
Gabor Filters», March 2005.
G90H
v BIBLIOGRAPHIE
[29] Kévin Bailly, « Méthodes d’apprentissage pour l’estimation de la pose de la tête dans
des images monoculaires », Interface homme-machine [[Link]], Université Pierre et
Marie Curie - Paris VI,2010.
[35] Alhayat Ali Mekonnen, Frédéric Lerasle, Ariane Herbulot, Cyril Briand, « Détection
de personnes par apprentissage de descripteurs hétérogènes sous des considérations
CPU », Reconnaissance de Formes et Intelligence Artificielle (RFIA), Rouen, France,
2014.
[36] Moulay Abdellatif Akhloufi, « Reconnaissance Des Visages Par Imagerie Multi spec-
trale Du visible à l’infrarouge lointain, Thèse présentée à la Faculté des études supé-
rieures et postdoctorales de l’Université Laval, 2013.
G91H
v BIBLIOGRAPHIE
[42] Marko Heikkil¨ a1, Matti Pietik¨ ainen1, and Cordelia Schmid2, «Description of
Interest Regions with Center-Symmetric Local Binary Patterns », Machine Vision
Group, Infotech Oulu and Department of Electrical and Information Engineering,
University of Oulu.
[43] Naresh Kumar Garg, « Binarization Techniques used for Grey Scale Images, De-
partment of Computer Science & Engineering, International Journal of Computer
Applications, page : (0975 – 8887), Volume : 71˘N o.1, June 2013.
G92H
v BIBLIOGRAPHIE
[48] C. Cortes and V. Vapnik, «Support vector networks», Machine Learning, Volume :
20, Page(s) : 273–297, 1995.
[49] L. Breiman, «Random forests », Machine learning, Volume : 45, Page(s) : 5–32, 2001.
[54] Faicel Chamroukhi, « Classification supervisée : Les K-plus proches voisins », Licence
2 Sciences Pour l’Ingénieur, Université du Sud Toulon – Var, 2012-2013.
G93H
v BIBLIOGRAPHIE
G94H