0% ont trouvé ce document utile (0 vote)
123 vues112 pages

Rapprt Pfe Facial Detection

Ce mémoire présente un système biométrique de reconnaissance faciale en utilisant trois méthodes : LBP, CS-LBP et LTP, combinées avec la méthode KNN. La reconnaissance faciale est un domaine de recherche en pleine expansion, mais elle reste complexe en raison des variations d'éclairage, de pose et d'expressions faciales. L'objectif est d'améliorer l'identification automatique des visages malgré ces défis.

Transféré par

zinebznouba502
Copyright
© © All Rights Reserved
Nous prenons très au sérieux les droits relatifs au contenu. Si vous pensez qu’il s’agit de votre contenu, signalez une atteinte au droit d’auteur ici.
Formats disponibles
Téléchargez aux formats PDF, TXT ou lisez en ligne sur Scribd
0% ont trouvé ce document utile (0 vote)
123 vues112 pages

Rapprt Pfe Facial Detection

Ce mémoire présente un système biométrique de reconnaissance faciale en utilisant trois méthodes : LBP, CS-LBP et LTP, combinées avec la méthode KNN. La reconnaissance faciale est un domaine de recherche en pleine expansion, mais elle reste complexe en raison des variations d'éclairage, de pose et d'expressions faciales. L'objectif est d'améliorer l'identification automatique des visages malgré ces défis.

Transféré par

zinebznouba502
Copyright
© © All Rights Reserved
Nous prenons très au sérieux les droits relatifs au contenu. Si vous pensez qu’il s’agit de votre contenu, signalez une atteinte au droit d’auteur ici.
Formats disponibles
Téléchargez aux formats PDF, TXT ou lisez en ligne sur Scribd

‫الجمهوريـة الجزائـريـة الديمقراطيـة الشعبيـة‬

République Algérienne Démocratique et Populaire


‫وزارة التعليــم العالـي والبحـث العلمـي‬
Ministère de l’Enseignement Supérieur et de la Recherche Scientifique

No Réf :……………

Centre Universitaire
Abdelhafid Boussouf Mila

Institut des Sciences et Technologie Département de Mathématiques et Informatique

Mémoire préparé en vue de l’obtention du diplôme de


Master
En : Informatique

Spécialité : Sciences et Technologies de l’Information et de la Communication


(STIC)

La mise en place d'un système biométrique de

reconnaissance faciale

Préparé par : BELLOUAD Khawla


BOUHANNACHE Abdallah Mila

Soutenue devant le jury


Melle. KHELFI Souheila MAB [Link] Elhafidid Boussouf Président
Melle. MEZZOUDJ Saliha MAB [Link] Elhafidid Boussouf Rapporteur
Melle. BOUMESSATA Meriem MAA [Link] Elhafidid Boussouf Examinateur

Année Universitaire : 2016/2017


Remerciement
En premier lieu nous tenons à remercier
« ALLAH»
notre
dieu qui m’a aidé à accomplir ce travail,
Nous tenons à remercier notre encadreur
«MEZZOUDJ Saliha »
pour son aide durant toute cette
période de travail,
Nous tenons également à remercier notre
jury
«BOUMESSATA Meriem»
Et «KHELFI Souheila»
pour son soutien et les renseignements
fournis pour nous.
Dédicace

Au Début et avant tout, je veux remercier le DIEU


qui à permet le courage à faire et finir ce modeste
travail.
A mes très chers parents, à mon père « LARBI » que
DIEU lui pardonna et lui apporte dans sa paix
éternelle et a mère « BADIAA » qui m'a soutenu
durant tous mes années d'étude, qui mérité mon
amour éternel pour ses conseils précieuse et sa
patience.
A mes très chères sœurs « Hadjer », « Oumayma »,
« Chayma », « assema »et « sarra »
A mes amis
A toute ma famille
Et à notre enseignante « Mme [Link] »
et ma collègue dans ce travail « bouhannache
abdallah »
A tous ceux que j’aime, et tous ceux qui m’aiment.
A la fin, je remercie tous ceux qui ont aidé de près
ou
de Loin à réaliser notre travail.

KHAWLA
Dédicace

Je dédie ce modeste travail:


À mes très chers parents pour leur soutient durant
toute ma vie d’études et sans Lesquels
je n’aurais jamais devenu ce que je suis,
et à ma chère belle-mère.
À mes frères: zineb , meriem ,khaled.
À tous mes amis, mes cousin et cousines.
À tous les professeurs et enseignants que j’ai eu
durant tout mon cursus scolaire et qui m’ont permis
de réussir Dans mes études.
Et à notre enseignante Mme [Link]
pour son meilleur travail d’orientation
et de gestion de notre projet,
et ma collègue dans ce travail Mlle khawla belouad
À tous personnes ayant contribué à ce travail
De près ou de loin

ABDALLAH
LISTE DES TABLEAUX

1.1 Avantages et inconvénients de la reconnaissance faciale. . . . . . . . . . . . 17

2.1 Comparaison entre les méthodes les plus utilisées dans la reconnaissance
de visage ACP, LDA, CNN, LBP, AAM et CS-LBP . . . . . . . . . . . . . 46

4.1 Accuracy obtenus pour différentes méthodes de la base FEI. . . . . . . . . 79


4.2 Accuracy obtenus pour différentes méthodes de la base GIT. . . . . . . . . 80
4.3 Erreur obtenus pour différentes méthodes de la base FEI. . . . . . . . . . . 82
4.4 Erreur obtenus pour différentes méthodes de la base GIT. . . . . . . . . . . 83
4.5 Image obtenus pour différentes K de la base FEI. . . . . . . . . . . . . . . 84
4.6 Image obtenus pour différentes K de la base GIT. . . . . . . . . . . . . . . 84

v
TABLE DES FIGURES

1.1 L’empreinte digitale [16]. . . . . . . . . . . . . . . . . . . . . . . . . . . . . 6


1.2 Photo d’iris [16] . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 6
1.3 Photo de rétine [16]. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 7
1.4 Capture de l’image d’un visage [16]. . . . . . . . . . . . . . . . . . . . . . . 8
1.5 Spectre d’un signal voix [16]. . . . . . . . . . . . . . . . . . . . . . . . . . . 8
1.6 Capture d’une signature [16]. . . . . . . . . . . . . . . . . . . . . . . . . . 9
1.7 Structure d’un système biométrique [22]. . . . . . . . . . . . . . . . . . . . 11
1.8 Scores de compatibilité pour différentes technologies biométriques dans un
système MRTD [22]. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 12
1.9 Système de reconnaissance de visage [24]. . . . . . . . . . . . . . . . . . . . 14
1.10 Exemple d’acquisition d’une image [24]. . . . . . . . . . . . . . . . . . . . . 15
1.11 Détection de visage [24]. . . . . . . . . . . . . . . . . . . . . . . . . . . . . 15

2.1 Une classification des algorithmes principaux utilisés en reconnaissance fa-


ciale [14]. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 27
2.2 Image moyenne [26]. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 29
2.3 Image moyenne et les 15 eigenfaces [22]. . . . . . . . . . . . . . . . . . . . 32
2.4 les projections ACP et LDA d’un ensemble de données [14]. . . . . . . . . . 34
2.5 Architecture de notre réseau de neurones à convolution [29]. . . . . . . . . 37

vi
v TABLE DES FIGURES

2.6 Opérateur LBP [14]. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 38


2.7 Figure 2.8. (a) : Trois voisinages pour des R et P différents, (b) : Textures
particulières détectées par LBP [14]. . . . . . . . . . . . . . . . . . . . . . 38
2.8 Deux exemples d’ajustement d’un AAM à une image [32]. . . . . . . . . . 40
2.9 LBP et CS-LBP descripteur pour 8 pixels voisins [34]. . . . . . . . . . . . . 41
2.10 Exemple de calcul du descripteur LTP sur un voisinage 3 × 3 (a) niveau de
gris dans une zone 3 × 3 ; (b) masque ternaire obtenu [36] . . . . . . . . . 43
2.11 Résultat de fractionnement de LTP en deux canaux LBP (LTPU et LTPL)
[36]. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 43
2.12 Calcul des valeurs de LTPU et LTPL par multiplication avec le masque des
poids et la somme des valeurs obtenues dans le voisinage [36]. . . . . . . . 44

3.1 Architecture du système de reconnaissance faciale. . . . . . . . . . . . . . . 50


3.2 L’apprentissage supervisé [45]. . . . . . . . . . . . . . . . . . . . . . . . . 52
3.3 Principe de la technique SVM (hyperplan optimal, vecteurs de supports,
marge maximale) [56]. La transformation d’un problème de séparation non
linéaire des données de l’espace d’entrée (a) vers un problème de sépara-
tion linéaire dans un espace de redescription (b), La détermination d’un
hyperplan de séparation optimale qui maximise la marge dans l’espace de
re-description (b) [51]. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 54
3.4 Illustration de la classification par la méthode des k-plus proches voisins
[51]. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 58
3.5 Organigramme de prétraitements. . . . . . . . . . . . . . . . . . . . . . . 59
3.6 Organigramme de la phase d’indexation. . . . . . . . . . . . . . . . . . . . 60
3.7 Organigramme de la phase d’identification. . . . . . . . . . . . . . . . . . 61

4.1 Quelques exemples des variations d’image de FEI [58]. . . . . . . . . . . . 64


4.2 Exemple de différents objets et classes de l’ensemble de données GIT [59]. 65
4.3 Interface principale. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 73
4.4 Interface login. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 74
4.5 Interface admin . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 75

GviiH
v TABLE DES FIGURES

4.6 Interface camera. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 76


4.7 Interface user . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 77
4.8 exemple de test. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 78
4.9 exemple de test. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 78
4.10 Accuracy obtenus pour différentes méthodes à partir de FEI. . . . . . . . . 80
4.11 Accuracy obtenus pour différentes méthodes à partir de GIT. . . . . . . . . 81
4.12 Erreur obtenus pour différentes méthodes à partir de FEI. . . . . . . . . . 82
4.13 Erreur obtenus pour différentes méthodes à partir de GIT. . . . . . . . . . 83
4.14 Test de k voisin à partir de FEI. . . . . . . . . . . . . . . . . . . . . . . . . 84
4.15 Test de k voisin à partir de GIT. . . . . . . . . . . . . . . . . . . . . . . . 85

GviiiH
LISTE DES ABRÉVIATIONS

PCA : Analyse en Composante Principale (Principal Component Analysis)


MRTD : Machine Readable Travel Documents
ADN : Acide Désoxyribo Nucléique
BIC : Les Approches Bayésiennes
AAM :Active Appearance Model (Modèle Actif d’Apparence)
LBP :Modèle Binaire Local (Local Binary Pattern)
SVM : Machine à vecteurs de support (Support Vector Machines)
ICA : Analyse en Composante Indépendantes(Independent Component Analysis)
K-PCA : Analyse en Composante Principale de kernel(kernel PCA)
K-LDA : Analyse Discriminante Linéaire de kernel(kernel LDA)
LFA : Analyse de Caractéristique Locale
EGM : Elastic Graph Matching
EBGM : Elastic Buch Graph Matching
FLD : les discriminants linéaires de Fisher(Fisher Linear Discriminate)
EFM : Enhanced FLD Model
CP : Composante Principale
LG-PCA : Log Gabor PCA
LLE : Local Linear Embedding
CNN :Réseau de Neurones à Convolution(Convolutional Neural Network)

ix
v TABLE DES FIGURES

CS-LBP : modèle binaire local symétrique central(Center-Symmetric LBP)


LTP : motifs locaux ternaires(Local Ternary Patterns)
KNN : k plus proches voisins(k nearest neighbours)
CS : symétrique central(Center-Symmetric)
LTPU : modèle supérieur de motifs locaux ternaires
LTPL : modèle inférieur de motifs locaux ternaires
RDF : Reconnaissance Des Formes
LR : Régression linéaire

GxH
Résumé

.
Récemment, on observe un intérêt croissant autour de la biométrie. La reconnaissance faciale
en tant qu’une technologie biométriques de base, elle a pris une partie importante dans le
domaine de la recherche. Malgré les nombreuses approches et méthodes qui ont été proposées
pour résoudre le problème de reconnaissance du visage humain, il demeure un problème
extrêmement difficile, ceci est dû au fait que le visage de personnes différentes ont
généralement la même forme et varie du fait des conditions d’éclairage, de la variation de pose,
et des expressions faciales.
Afin d’essayer de pallier ces problèmes, nous avons proposé un système d’identification
automatique de visages qui se base sur trois méthodes de reconnaissance faciales, en utilisant
la méthode LBP (Local Binary Pattern), CS-LBP (Center-Symmetric LBP) et LTP (Local
Ternary Patterns) et la méthode KNN (k nearest neighbors) afin d'élaboré un processus de
reconnaissance de visages.
Pour validé ce travail nous avons testé ces techniques sur des images, prisent à-partir de deux
bases de données GIT (Géorgienne) et FEI (brésilienne), et les résultats obtenus ont montré que
LTP donne nettement des meilleurs résultats par rapport à LBP et CS-LBP.

‫ملخص‬
‫حيث أن تقنية التعرف على الوجوه بإعتبارها من اهم تقنيات البيومترية حيث أنها‬,‫مؤخرا تم اإلهتمام بشكل كبير بالتقنيات البومترية‬
‫إتخدت مكانة وقيمة عالية في البحث العلمي وبالرغم من التطور العالي في التقنيات واألساليب المتبعة في التعرف على الوجوه إال أنه‬
‫لم يتم ح ل المشكل بشكل كلي حيث أنه بسبب تغيرات اإلضاءة والوضعية التي تلتق فيها الصورة والتعابير المختلفة لنفس اإلنسان أدى‬
‫إلى تغيير نمط الصورة بشكل كافي ليخطئ النظام في التعرف عليها حاولنا في مشروعنا هذا حل بعض هذه المشاكل وهذا عن طريق‬
: ‫ تقنيات مختلفة‬4 ‫إنشاء نظام أتوماتيكي يعتمد على إستعمال‬

‫ و‬LTP ( Local Ternary Pattern ) ‫ و‬CSLBP ( center Symmetric local LBP ) ‫ و‬LBP ( Local Bnary Pattern )

‫ من إكمال عملية التعرف على الوجوه من أجل تأكيد عملنا قمنا بتجريب هذه التقنيات على مجموعة‬KNN(Knearest neighbors)
LBP ‫ بالمقارنة مع‬LTP ‫والنتائج التي تحصلنا عليها أثبتت قوة وفعالية‬, FEI,GIT ‫مختلفة من الصور من قاعدتين للصور مختلفتين‬
. CSLBP‫و‬
TABLE DES MATIÈRES

Introduction Générale xvi

1 La reconnaissance faciale en générale 1


1.1 Introduction . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 1
1.2 Historique de la reconnaissance faciale . . . . . . . . . . . . . . . . . . . . 2
1.3 La reconnaissance biométrique . . . . . . . . . . . . . . . . . . . . . . . . 3
1.3.1 Définitions . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 3
1.3.2 Les systèmes biométriques . . . . . . . . . . . . . . . . . . . . . . . 4
1.3.3 Motivation . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 4
1.3.4 Les différentes techniques biométriques . . . . . . . . . . . . . . . . 5
1.4 Les modes de reconnaissance . . . . . . . . . . . . . . . . . . . . . . . . . 9
1.4.1 Le mode de vérification ou d’authentification . . . . . . . . . . . . . 9
1.4.2 Le mode d’identification . . . . . . . . . . . . . . . . . . . . . . . . 10
1.5 La reconnaissance faciale . . . . . . . . . . . . . . . . . . . . . . . . . . . . 11
1.6 Le processus de la reconnaissance faciale . . . . . . . . . . . . . . . . . . . 13
1.6.1 Acquisition . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 14
1.6.2 Détection de visage . . . . . . . . . . . . . . . . . . . . . . . . . . . 15
1.6.3 Le prétraitement . . . . . . . . . . . . . . . . . . . . . . . . . . . . 16
1.6.4 Extraction . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 16

xii
v TABLE DES MATIÈRES

1.6.5 Classification . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 16
1.6.6 Apprentissage . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 17
1.6.7 Décision . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 17
1.7 Avantages et inconvénients de la reconnaissance faciale . . . . . . . . . . . 17
1.8 Les domaines d’application . . . . . . . . . . . . . . . . . . . . . . . . . . . 18
1.8.1 Contrôle d’accès physiques aux locaux . . . . . . . . . . . . . . . . 18
1.8.2 Contrôle d’accès logiques aux systèmes d’informations . . . . . . . . 18
1.8.3 Equipements de communication . . . . . . . . . . . . . . . . . . . . 18
1.8.4 Machines & Equipements divers . . . . . . . . . . . . . . . . . . . . 19
1.8.5 Etat / Administration . . . . . . . . . . . . . . . . . . . . . . . . . 19
1.9 Les tendances de biométrie . . . . . . . . . . . . . . . . . . . . . . . . . . . 20
1.9.1 Le marché . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 20
1.10 Conclusion . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 22

2 État de l’art de la reconnaissance de visage 23


2.1 Introduction . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 23
2.2 Les classes des méthodes de la reconnaissance de visages . . . . . . . . . . 24
2.2.1 Les méthodes locales . . . . . . . . . . . . . . . . . . . . . . . . . . 24
2.2.2 Les méthodes globales . . . . . . . . . . . . . . . . . . . . . . . . . 25
2.2.3 Les méthodes hybrides . . . . . . . . . . . . . . . . . . . . . . . . . 26
2.3 Les techniques de la reconnaissance de visages . . . . . . . . . . . . . . . . 27
2.3.1 Analyse en Composantes Principales (PCA) . . . . . . . . . . . . . 27
2.3.2 L’analyse Discriminante Linéaire (LDA) . . . . . . . . . . . . . . . 32
2.3.3 Réseau de Neurones à Convolution (CNN) . . . . . . . . . . . . . . 35
2.3.4 Local Binary Pattern (LBP) . . . . . . . . . . . . . . . . . . . . . . 37
2.3.5 Méthode par le modèle d’apparence (AAM) . . . . . . . . . . . . . 39
2.3.6 Center-Symmetric Local Binary Pattern (CS-LBP) . . . . . . . . . 41
2.3.7 La méthode LTP . . . . . . . . . . . . . . . . . . . . . . . . . . . . 42
2.4 Comparaison entre les méthodes . . . . . . . . . . . . . . . . . . . . . . . . 45
2.5 Conclusion . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 47

GxiiiH
v TABLE DES MATIÈRES

3 Description générale du système facial 48


3.1 Introduction . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 48
3.2 Architecture du système de reconnaissance faciale . . . . . . . . . . . . . . 49
3.2.1 phase de prétraitement . . . . . . . . . . . . . . . . . . . . . . . . 49
3.2.2 phase d’indexation . . . . . . . . . . . . . . . . . . . . . . . . . . 49
3.2.3 phase de reconnaissance . . . . . . . . . . . . . . . . . . . . . . . . 49
3.3 Les méthodes d’indexation utilisées . . . . . . . . . . . . . . . . . . . . . . 50
3.3.1 La méthode LBP . . . . . . . . . . . . . . . . . . . . . . . . . . . . 51
3.3.2 La méthode CS-LBP . . . . . . . . . . . . . . . . . . . . . . . . . . 51
3.3.3 La méthode LTP . . . . . . . . . . . . . . . . . . . . . . . . . . . . 51
3.4 La phase de classification « apprentissage supervisé » . . . . . . . . . . . . 52
3.4.1 Qu’est ce que l ‘apprentissage supervisée ? . . . . . . . . . . . . . . 52
3.4.2 Le principe de l’apprentissage supervisé . . . . . . . . . . . . . . . 52
3.4.3 Les méthodes d’apprentissage supervisé . . . . . . . . . . . . . . . 53
3.5 Organigramme détaillé de système proposé . . . . . . . . . . . . . . . . . 59
3.5.1 Organigramme du prétraitement . . . . . . . . . . . . . . . . . . . 59
3.5.2 Organigramme de la phase d’indexation . . . . . . . . . . . . . . . 60
3.5.3 Organigramme de la phase d’identification . . . . . . . . . . . . . . 61
3.6 Conclusion . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 61

4 Implémentation et tests 62
4.1 Introduction . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 62
4.2 Langage de programmation utilisé . . . . . . . . . . . . . . . . . . . . . . . 63
4.2.1 Caractéristique de MATLAB (R2014a) . . . . . . . . . . . . . . . . 63
4.3 Les bases d’images utilisées . . . . . . . . . . . . . . . . . . . . . . . . . . 64
4.4 Description des méthodes principales . . . . . . . . . . . . . . . . . . . . . 66
4.4.1 Phase de prétraitement . . . . . . . . . . . . . . . . . . . . . . . . 66
4.4.2 Phase d’indexation . . . . . . . . . . . . . . . . . . . . . . . . . . . 66
4.4.3 Phase de reconnaissance . . . . . . . . . . . . . . . . . . . . . . . . 71
4.5 Les interfaces de l’application . . . . . . . . . . . . . . . . . . . . . . . . . 73

GxivH
v TABLE DES MATIÈRES

4.5.1 Interface principale . . . . . . . . . . . . . . . . . . . . . . . . . . . 73


4.5.2 Interface login . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 74
4.5.3 Interface admin . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 74
4.5.4 Interface camera . . . . . . . . . . . . . . . . . . . . . . . . . . . . 75
4.5.5 Interface user . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 76
4.6 Tests et évaluation . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 79
4.6.1 Test de taux de reconnaissance (accuracy) . . . . . . . . . . . . . . 79
4.6.2 Test de taux d’erreur (erreur) . . . . . . . . . . . . . . . . . . . . . 81
4.6.3 Test de k voisin . . . . . . . . . . . . . . . . . . . . . . . . . . . . 83
4.7 Conclusion . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 85

GxvH
INTRODUCTION GÉNÉRALE

Le progrès technologique en informatique a permis l’informatisation quasi-totale de


tous les domaines. Cette révolution technologique implique un nouvel enjeu : la sécuri-
sation des bases de données, dans ce sens la biométrie en est un exemple pratique. En
effet, la biométrie est de plus en plus présente dans la vie quotidienne : au travail, opéra-
tions bancaires, l’accès à certains endroits militaires ou industriels. Il y a donc un intérêt
grandissant pour les systèmes d’identification et d’authentification.
Au cours de dernières années, la biométrie est devenue l’une des tâches les plus im-
portantes qui intéressent plusieurs chercheurs en informatique. Dans les applications de
contrôle d’accès, la biométrie constitue une solution efficace, simple et surtout pas chère,
qui assure de bonnes performances. La biométrie est « la reconnaissance automatique
d’une personne en utilisant des traits distinctifs ». Elle regroupe aussi « toutes les ca-
ractéristiques physiques ou traits personnels automatiquement mesurables, robustes et
distinctives qui peuvent être utilisées pour identifier un individu ou pour vérifier l’iden-
tité prétendue d’un individu ». En effet, les technologies biométriques de reconnaissance
apportent une sécurité beaucoup plus efficace aux utilisateurs, elles sont applicables à un
large champ d’applications (contrôle d’accès, paiement sur Internet, login sur ordinateur,
etc).
Le but de la reconnaissance du visage est de développer des systèmes informatiques
capables d’égaler les être humains. La difficulté de la reconnaissance du visage par or-
dinateur varie énormément suivant les conditions d’acquisition. Dans un environnement
contrôlé, des paramètres tels que l’arrière-plan, la direction et l’intensité des sources lu-

xvi
v CHAPITRE 0. INTRODUCTION GÉNÉRALE

mineuses, l’angle de la prise de vue, la distance de la caméra par rapport au sujet, sont
des paramètres maîtrisables par le système. Dans un environnement non contrôlé, une
série de prétraitements sont souvent indispensables avant d’effectuer la reconnaissance
proprement dite. Il faut tout d’abord détecter la présence ou l’absence de visage dans
l’image. Le visage doit ensuite être segmenté. Enfin, si nous travaillons sur un flux vidéo,
le système doit suivre le visage d’une image à l’autre.
Notre sujet concerne donc l’exploitation d’informations capturées par des appareils
adéquats afin de reconnaître des personnes par leurs visages. Notre étude a des applications
et des implications financières et technologiques. Plusieurs questions se posent à ce niveau :
Que définit-on par les deux mots reconnaissance de visage en biométrie ? Quelles sont les
méthodes utilisées ? Quelles sont les avantages et les inconvénients de la modalité visage en
reconnaissance biométrique ? Que représente les méthodes utilisées dans notre approche
(LBP, CS-LBP, LTP) et quel est leurs principes et comment associe-t-on ces méthodes
dans le but de la reconnaissance de visage ? Les réponses à ces questions sont abordées
dans les diverses chapitres de notre mémoire.
Nous présentons un système de reconnaissance de visage, nous préconisons d’im-
plémenter des technique pour l’extraction de caractéristiques pour l’analyse du visage.
Pour cela nous adoptons les méthodes bien connues de la reconnaissance de visage Pour
l‘indexation des images avant le prétraitement. Après ça nous testons le comportement
de notre système grâce à la technique d’apprentissage supervisé en utilisant l‘algorithme
KNN.
Ce travail vise a démontré les différences entre les trois méthodes (LBP, CSLBP,
LTP) dans une comparaison entre ces méthodes, en se basant sur les critères de temps ,
d’exactitude(accuracy) des résultats, simplicité d’algorithme, tous ça dans le but d’essayer
à améliorer le processus de reconnaissance faciale.
Notre approche « FaceRecognition » est caractérisée par trois phases fondamentales :
• Phase de prétraitement dans laquelle l’image est découpée, décimée, convertie en
niveau de gris.
• phase d’indexation cette dernière a été utilisée pour extraire les descripteurs d’image
traitée, en appliquant les méthodes d’extraction de caractéristiques de notre choix

GxviiH
v CHAPITRE 0. INTRODUCTION GÉNÉRALE

LBP, CS-LBP, LTP afin de sauvegarder ces descripteurs dans une base de données
locale pour une utilisation ultérieure.
• L’objectif de la phase de reconnaissance est de tester la pertinence de notre sys-
tème de reconnaissance de visage. Afin d’atteindre notre objectif de reconnaissance,
nous avons passé par une phase de classification qu’il a fait par l‘algorithme KNN.
Finalement, l’identification de la personne proclamée est assurée.
Nous avons choisi d’articuler notre étude autour de quatre chapitres principaux :
• Le premier chapitre est consacré à la présentation générale de la reconnaissance
biométrique. Ensuite, nous mettons en lumière les difficultés et les avantages ren-
contrées par les systèmes de reconnaissance de visage. Enfin, les tendances de la
biométrie.
• Dans le deuxième chapitre, nous évoquerons l’état de l‘art des techniques de re-
connaissance de visages. Nous allons détailler des différentes méthodes de recon-
naissance de visage les plus populaires et sur ceux les plus adaptés à notre contexte
d’étude.
• Notre modèle ainsi étudié et conçu est détaillé dans le troisième chapitre. Il se pré-
sente en trois phases principales : phase de prétraitement, phase d’indexation (des-
cription des méthodes utilisées LBP, CS-LBP, LTP ) et la phase de reconnaissance
(description de la méthode supervisée utilisée KNN). Ainsi que, l’apprentissage
supervisé et ses méthodes.
• L’implémentation réalisée et les résultats obtenus se trouvent dans le quatrième
chapitre.
• Finalement, la conclusion générale résumera les résultats obtenus par les différentes
approches.

GxviiiH
CHAPITRE 1

LA RECONNAISSANCE FACIALE EN
GÉNÉRALE

1.1 Introduction
La reconnaissance facial malgré est un domaine nouveau dans la recherche scientifique,
et que son utilisation reste tellement rare mais, c’était déjà entamé depuis des 30 d’années,
le but de cette approche c’est de rendre l’ordinateur capable de reconnaitre les personnes
d’une manière proche à celle de l’être humain, le fonctionnement de cette technologie base
principalement sur un simple ordinateur et une caméra pour le capture d’image de face.
Cette technique malgré que elle a beaucoup d’avantages mais vue que elle nécessite
des image assez clair ,qui impose à son enrôlement dans l’utilisation quotidienne de la
vie humain un peu loin ,et que les recherches ,essaye toujours d’accélérer son avancement
avec de nouveaux approche mathématiques qui sert à rendre cette technique plus fiable
pour quelle sera utilisée dans plusieurs domaines de sécurités et d’authentification, Dans
ce chapitre, nous allons d’abord présenter le cadre général de la reconnaissance biomé-
trie, ses techniques, ensuit nous abordons les plus importants principes des systèmes de
reconnaissance faciale.

1
v CHAPITRE 1. LA RECONNAISSANCE FACIALE EN GÉNÉRALE

1.2 Historique de la reconnaissance faciale


La reconnaissance faciale automatique est un concept relativement nouveau. Le pre-
mier système semi-automatisé de la reconnaissance faciale a été développé dans les années
1960, il nécessite à l’administrateur de localiser les yeux, les oreilles, le nez et la bouche sur
la photo et de saisir les distances calculées et les ratios à un point de référence commun,
qui ont ensuite été comparés aux données de référence.
Dans les années 1970, Goldstein, Harmon et Lesk [1] ont utilisé 21 marqueurs spé-
cifiques tels que la couleur des cheveux et l’épaisseur de la lèvre pour automatiser la
reconnaissance. Le problème avec ces deux premières solutions, c’est que les mesures et
les emplacements ont été calculés manuellement.
En 1988, Kirby et Sirovich [2] ont appliqué l’analyse en composantes principales
(ACP), une technique standard de l’algèbre linéaire. Cela a été considéré en quelque sorte
comme une étape importante car elle a montré qu’au moins une centaine de valeurs ont été
nécessaires pour coder convenablement et avec précision une image alignée et normalisée.
En 1991, Turk et Pentland [3] ont découvert que lorsque vous utilisez la technique
Eigen faces (ACP), l’erreur résiduelle peut être utilisée pour détecter un visage dans une
image, une découverte qui a permis la reconnaissance faciale automatique en temps réel.
Bien que l’approche fût quelque peu limitée par des facteurs environnementaux, elle a
néanmoins créé un intérêt significatif pour promouvoir le développement des technologies
de la reconnaissance faciale automatique. Cette technologie a été mise en essai en janvier
2001 lors de la finale du championnat de football américain SUPER BOWL en capturant
des images de surveillance puis comparées à une base de données numérique [4].
Aujourd’hui la reconnaissance faciale est utilisée dans plusieurs domaines, et elle a de
nombreuses applications en biométrie. Dans la section qui suite, nous allons préciser la
relation entre la reconnaissance biométrique et la reconnaissance faciale.

G2H
v CHAPITRE 1. LA RECONNAISSANCE FACIALE EN GÉNÉRALE

1.3 La reconnaissance biométrique

1.3.1 Définitions

Dans la littérature il existe plusieurs définitions de la biométrie, donc elle peut être
définie comme suit :
• « La reconnaissance automatique d’une personne à partir de son comportement
ou d’une caractéristique physique » [5].
• « La biométrie recouvre l’ensemble des procédés tendant à identifier un individu
à partir de la mesure de l’une ou de plusieurs de ses caractéristiques physiques,
physiologiques ou comportementales » [6].
• Selon Roethen baugh [7] « La biométrie s’applique à des particularités ou des ca-
ractères humains uniques en leur genre et mesurables, permettant de reconnaître ou
de vérifier automatiquement l’identité ». Mais Aucune modalité biométrique n’est
en elle-même fiable à 100 %. Il existe des problèmes, liés aux dispositifs de capture
des données, à l’utilisateur lui-même ou à la condition lors de la capture, dans
lesquelles une modalité quelconque peut s’avérer défaillante. Parmi les principales
modalités biométriques physiologiques et comportementales :
– Biométriques physiologiques : Ce type est basé sur l’identification de traits
physiques particuliers qui, pour toute personne, sont uniques et permanents.
Cette catégorie regroupe la reconnaissance des empreintes digitales, de la forme
de la main, de la forme du visage, de la rétine, de l’ADN et de l’iris de l’œil.
– Biométriques comportementales : Ce type se base sur l’analyse de certains
comportements d’une personne comme le tracé de sa signature, sa démarche et
sa façon de taper sur un clavier.
• La biométrie offre une solution naturelle et fiable pour certains aspects de la gestion
d’identité en utilisant des systèmes biométriques entièrement automatisés ou semi-
automatisés de reconnaissance des individus [8].

G3H
v CHAPITRE 1. LA RECONNAISSANCE FACIALE EN GÉNÉRALE

1.3.2 Les systèmes biométriques

Un système biométrique est essentiellement un système qui acquiert des données bio-
métriques d’un individu, extrait d’un ensemble de caractéristiques à partir de ces données
puis le compare à un ensemble de données stocké au préalable dans une base de données
pour pouvoir enfin exécuter une action ou prendre une décisionion à partir du résultat de
cette comparaison [5].

1.3.3 Motivation

Plusieurs raisons peuvent motiver l’usage des systèmes biométriques, due les faiblesses
qui ont été décelées dans les systèmes actuels de contrôle d’accès sont les suivantes [9] :
• Mots de passe faibles : Les utilisateurs d’ordinateur sont notoirement suscep-
tibles d’employer des pauvres mots de passe facilement devinés, ayant pour résultat
des cambriolages où les intrus peuvent deviner les qualifications d’un autre utilisa-
teur et gagner l’accès non autorisé à un système informatique. Ceci peut mener à
une violation de la sécurité du personnel ou à un vol de secrets d’affaires par un
étranger.
• Qualifications partagées : Dans de petits et grands organismes, nous entendons
parler souvent des cas comme ceci : un utilisateur d’ordinateur partage son mot
de passe avec un collègue qui a besoin de l’accès, quoique, dans la plupart des
organismes (et dans beaucoup de lois et de règlements liés à la sécurité), ceci est
interdit par la politique. Les personnes de nature sont disposées à aider un collègue
dans le besoin même si cela signifie violer la politique pour réaliser un plus grand
but.
• Cartes d’accès principales perdues : Beaucoup de fois dans nos carrières nous
avions trouvé des cartes principales perdues dans des parkings et d’autres endroits
publics. Souvent ils ont le nom de l’organisation sur eux, ainsi c’est comme si on
trouvait une clef avec une adresse là-dessus, permettant à la personne qui l’a trouvée
une libre incursion dans une certaine société.

G4H
v CHAPITRE 1. LA RECONNAISSANCE FACIALE EN GÉNÉRALE

Parmi les raisons qui peuvent être considéré comme motivant pour l’utilisation de la
biométrie sont [9] :
• Une haute sécurité : en l’associant à d’autres technologies comme le cryptage.
• Confort : en remplaçant juste le mot de passe, exemple pour l’ouverture d’un
système d’exploitation, la biométrie permet de respecter les règles de base de la
sécurité (ne pas inscrire son mot de passe à côté du PC, ne pas désactiver l’écran
pour éviter des saisies de mots de passe fréquentes). Et quand ces règles sont res-
pectées, la biométrie évite aux administrateurs de réseaux d’avoir à répondre aux
nombreux appels pour perte de mots de passe (que l’on donne parfois au téléphone,
donc sans sécurité).
• Sécurité/ Psychologie : Dans certains cas, particulièrement pour le commerce
électronique, l’usager n’a pas confiance. Il est important pour les acteurs de ce
marché de convaincre le consommateur de faire des transactions. Un moyen d’au-
thentification connu comme les empreintes digitales pourrait faire changer le com-
portement des consommateurs.

1.3.4 Les différentes techniques biométriques

Il existe plusieurs techniques biométriques utilise dans plusieurs applications et sec-


teurs, parmi ces techniques les suivants :

Les empreintes digitales

Une empreinte digitale est constituée d’un ensemble de lignes localement parallèles
formant un motif unique pour chaque individu. On distingue les stries et les sillons. Les
stries contiennent en leur centre un ensemble de pores régulièrement espacés. Chaque
empreinte possède un ensemble de points singuliers globaux et locaux. Les centres corres-
pondent à des lieux de convergence des stries tandis que les deltas correspondent à des
lieux de divergence. L’acquisition des données est faite par un capteur électronique de
type optique, thermique, capacitif ou à ultrasons (voir la Figure 1.1 ) [10].

G5H
v CHAPITRE 1. LA RECONNAISSANCE FACIALE EN GÉNÉRALE

Figure 1.1 – L’empreinte digitale [16].

L’iris

L’iris est une technique extrêmement fiable, car il contient une infinité de points carac-
téristiques (ensemble fractal), la fraude étant néanmoins possible en utilisant des lentilles.
L’acquisition de l’iris est effectuée au moyen d’une caméra pour pallier aux mouvements
inévitables de la pupille. Elle est très sensible (précision, reflet. . . ) et relativement désa-
gréable pour l’utilisateur car l’œil doit rester grand ouvert et est éclairé par une source
lumineuse pour assurer un contraste correct (voir la Figure 1.2) [11], [12].

Figure 1.2 – Photo d’iris [16]

G6H
v CHAPITRE 1. LA RECONNAISSANCE FACIALE EN GÉNÉRALE

La rétine

Cette technique se base sur le fait que les vaisseaux sanguins d’une rétine sont uniques
pour chaque personne. L’utilisateur doit placer son œil face à un orifice de capture situé
sur le dispositif d’acquisition. Un faisceau lumineux traverse l’œil jusqu’aux vaisseaux
sanguins capillaires de la rétine. Le système localise et capture ainsi environ 400 points
de référence. Cette technique requiert une collaboration étroite de la part de l’utilisateur,
car il doit placer son œil extrêmement près de la caméra (voir la Figure 1.3) [13].

Figure 1.3 – Photo de rétine [16].

Le visage

Plusieurs parties du visage (joues, yeux, nez, bouche. . . ) sont extraites d’une photo
ou d’une vidéo et analysées géométriquement (distance entre différents points, positions,
formes. . . ). Le problème de cette méthode vient des possibles perturbations pouvant trans-
former le visage (maquillage, faible luminosité, présence d’une barbe ou d’une lunette,
expression faciale inhabituelle, changement avec l’âge, etc.) (voir la Figure 1.4) [14].

G7H
v CHAPITRE 1. LA RECONNAISSANCE FACIALE EN GÉNÉRALE

Figure 1.4 – Capture de l’image d’un visage [16].

La voix

La voix humaine est une caractéristique biométrique intéressante, puisqu’elle dépend


de la structure anatomique de l’individu ainsi que de l’apprentissage du langage fait
lors de l’enfance. La capture de la voix est relativement facile à effectuer, à l’aide d’un
microphone, mais elle est susceptible à être corrompue par les bruits ambiants (voir la
Figure 1.5).

Figure 1.5 – Spectre d’un signal voix [16].

G8H
v CHAPITRE 1. LA RECONNAISSANCE FACIALE EN GÉNÉRALE

La dynamique du tracé de la signature

Il s’agit d’une analyse comportementale où différents éléments (mesure de la vitesse,


ordre d’écriture, pression exercée, accélération. . . ) sont mesurés lors de la signature. La
falsification est possible en passant par une phase d’apprentissage, la signature peut carier
selon le stress de l’utilisateur (voir la Figure 1.6 ) [15].

Figure 1.6 – Capture d’une signature [16].

1.4 Les modes de reconnaissance


Dans la littérature, les systèmes biométriques fonctionnent selon deux modes, soit en
mode de vérification ou d’identification :

1.4.1 Le mode de vérification ou d’authentification

La reconnaissance automatique de visages est la technique d’authentification biomé-


trique la plus naturelle et la plus prometteuse. Cependant, alors qu’un humain semble
capable de reconnaître une personne à l’aide d’une simple photo, ceci semble hors d’at-
teinte pour un ordinateur. Les nouvelles méthodes s’orientent donc vers une modélisation
3D du visage pour prendre en compte ses propriétés élastiques caractéristiques [17].

G9H
v CHAPITRE 1. LA RECONNAISSANCE FACIALE EN GÉNÉRALE

C’est un procédé permettant de vérifier l’identité d’une personne. Il comprend deux


étapes [18] :
• L’utilisateur fournit un identifiant au système de reconnaissance (par exemple un
numéro d’utilisateur).
• L’utilisateur fournit ensuite un échantillon biométrique qui va être comparé à
l’échantillon biométrique correspondant à l’utilisateur « Id » contenu dans la base
de données biométrique du système. Si la comparaison correspond, l’utilisateur est
authentifié.

1.4.2 Le mode d’identification

C’est un procédé permettant de déterminer l’identité d’une personne. Il ne comprend


qu’une étape. L’utilisateur fournit un échantillon biométrique qui va être comparé à tous
les échantillons biométriques contenus dans la base de données biométriques du système.
Si l’échantillon correspond à celui d’une personne de la base, on renvoie son numéro
d’utilisateur sinon l’identification échoue [19]. Pour évaluer les performances d’un système
d’identification, on calcule le taux de reconnaissance du système. On effectue n fois le
test et on voit, si la réponse du système (la personne la plus proche résultante de la
comparaison entre le test et la base d’apprentissage). Un système biométrique comprend
4 modules (voir la Figure 1.7) dont certains sont communs à la phase d’enregistrement et
à celle d’authentification : l’acquisition, l’extraction des caractéristiques, la comparaison
et la décision [20].

G10H
v CHAPITRE 1. LA RECONNAISSANCE FACIALE EN GÉNÉRALE

Figure 1.7 – Structure d’un système biométrique [22].

1.5 La reconnaissance faciale


Vu la demande grandissante pour la surveillance et le contrôle d’accès des lieux publics
tels que les aéroports, banques et administrations, la reconnaissance du visage a connu
grand intérêt parmi la communauté scientifique.
Si pour un être humain, reconnaître un visage relève d’une action naturelle et facile,
il en va tout autrement pour un système biométrique autonome. Pour un ordinateur,
une telle opération se base au contraire sur une chaîne de traitements, reposant sur des
algorithmes complexes.
Les systèmes de reconnaissance faciale reposent sur des algorithmes d’analyse de
l’image, pouvant identifier les personnes qui y sont associées. Ces programmes créent une
image du visage, en mesurant ses caractéristiques. Ils en produisent ensuite un fichier

G11H
v CHAPITRE 1. LA RECONNAISSANCE FACIALE EN GÉNÉRALE

individuel, dénommé "Template ou signature". Les Template sont alors comparées avec
toutes les images existantes au niveau de la base de données, en ressortant un score de
similitude [14].
La reconnaissance faciale possède plusieurs avantages sur les autres technologies bio-
métriques : elle est naturelle, non intrusive et facile à utiliser. Parmi les six attributs bio-
métriques considérés par Hietmeyer [21], les caractéristiques faciales marquent un score
de compatibilité le plus élevé dans un système MRTD (“Machine Readable Travel Docu-
ments”), ce score étant basé sur plusieurs facteurs d’évaluation tels que l’enrôlement, le
renouvellement des données, les requis matériels et la perception des utilisateurs (voir la
Figure 1.8).

Figure 1.8 – Scores de compatibilité pour différentes technologies biométriques dans un


système MRTD [22].

G12H
v CHAPITRE 1. LA RECONNAISSANCE FACIALE EN GÉNÉRALE

1.6 Le processus de la reconnaissance faciale


Un système de reconnaissance faciale doit, donc, pouvoir identifier des visages présents
dans une image ou une vidéo de manière automatique. Le système peut opérer dans les
deux modes suivants : authentification ou identification ; on peut également noter qu’il
existe un autre type de scénario de reconnaissance faciale mettant en jeu une vérification
sur une liste de surveillance (“watch-list”), où un individu est comparé à une liste restreinte
de suspects [22].
La reconnaissance automatique de visage s’effectue en plusieurs étapes (voir la Fi-
gure 1.9). Certaines techniques de traitements d’images peuvent être communes à plu-
sieurs étapes. Par exemple, l’extraction des paramètres faciales (yeux, nez, bouche) est
utilisée aussi bien pour la détection que pour l’identification de visages. Par ailleurs, les
étapes de détection de visage et d’extraction de caractéristiques peuvent être exécutées
simultanément. Cela dépend notamment de la nature de l’application, de la taille de la
base d‘apprentissage, et des conditions de prise de vue (bruit, occultation, etc.). Enfin,
les techniques de traitement utilisées dans chaque étape sont très critiques pour les ap-
plications biométriques, et doivent, par conséquence, être optimisées pour améliorer les
performances du système global [23].

G13H
v CHAPITRE 1. LA RECONNAISSANCE FACIALE EN GÉNÉRALE

Figure 1.9 – Système de reconnaissance de visage [24].

Dans ce qui suit nous allons détailler chaque étape du système de reconnaissance
faciale, et nous présenterons les principales difficultés rencontrées :

1.6.1 Acquisition

Un système d’acquisition équipé d’un capteur est utilisé pour acquérir une caractéris-
tique spécifique de l’utilisateur, par exemple : un microphone dans le cas de la voix. C’est
l’opération qui permet d’extraire du monde réel une représentation bidimensionnelle pour
des objets en 3D, cette opération peut être statique (Appareil photo, Scanner, etc.) ou
dynamique (Caméra, Web Cam), dans ce cas on aura une séquence vidéo .A ce niveau on
aura une image brute (voir la Figure 1.10).

G14H
v CHAPITRE 1. LA RECONNAISSANCE FACIALE EN GÉNÉRALE

Figure 1.10 – Exemple d’acquisition d’une image [24].

1.6.2 Détection de visage

L’efficacité des systèmes biométriques basés sur l’authentification de visage dépend


essentiellement de la méthode utilisée pour localiser le visage dans l’image. Dans la littéra-
ture scientifique, le problème de localisation de visages est aussi désigné par la terminologie
"détection de visages". Plusieurs travaux de recherches ont été effectués dans ce domaine.
Ils ont donné lieu au développement d’une multitude de techniques allant de la simple
détection du visage, à la localisation précise des régions caractéristiques du visage, tels
que les yeux, le nez, les narines, les sourcils, la bouche, les lèvres, les oreilles, etc (voir la
Figure 1.11).

Figure 1.11 – Détection de visage [24].

G15H
v CHAPITRE 1. LA RECONNAISSANCE FACIALE EN GÉNÉRALE

1.6.3 Le prétraitement

Où les données biométriques sont traitées pour enlever le bruit lié à l’environnement
ou au dispositif de capture [24]. Il faut éliminer le bruit par des techniques de traitement
et de restauration d’images et procéder à une détection de visages, cette opération est très
complexe, surtout dans le cas où l’image contient plusieurs visages ou le cas où l’arrière-
plan n’est pas neutre [18].
Les performances globales de tout système automatique de reconnaissance dépendent
amplement des performances de la détection de visages .On peut diviser les approches
de détection en quatre catégories : les méthodes basées sur la connaissance où on code
la connaissance humaine du visage, les méthodes de correspondance de masques, les mé-
thodes à caractéristiques invariables où on utilise la couleur, les textures et les contours,
et finalement les méthodes les plus répandues et qui sont ceux basées sur l’apprentissage
ou les statistiques comme PCA et Graph matching .

1.6.4 Extraction

Appelée aussi indexation, représentation, modélisation. Ayant une image ou une voix
en entrée, une étape de segmentation permet d’extraire la caractéristique dont le processus
d’authentification a besoin. Par exemple : extraire le visage du fond d’une image dans le
cas de l’identification de visage [24]. Pour extraire l’information utile contenue dans le
signal capturé [20].Le choix de ces informations utiles revient à établir un modèle pour le
visage, elles doivent être discriminantes et non redondantes [18].

1.6.5 Classification

Cette étape consiste à modéliser les paramètres extraits d’un visage ou d’un ensemble
de visages d’un individu en se basant sur leurs caractéristiques communes. Un modèle est
un ensemble d’informations utiles, discriminantes et non redondantes qui caractérise un
ou plusieurs individus ayant des similarités.

G16H
v CHAPITRE 1. LA RECONNAISSANCE FACIALE EN GÉNÉRALE

1.6.6 Apprentissage

C’est l’étape où on fait apprendre les individus au système, elle consiste à mémoriser
les paramètres, après extraction et classification, dans une base de données bien ordonnées
pour faciliter la phase de reconnaissance et la prise d’une décision, elle est en quelque sorte
la mémoire du système [14].

1.6.7 Décision

Dans le cas de l’identification, il s’agit d’examiner les modèles retenus par un agent
humain et donc décider. En ce qui concerne l’authentification, la stratégie de décision
nous permet de choisir entre les deux alternatives suivantes : l’identité de l’utilisateur
correspond à l’identité proclamée ou recherchée ou elle ne correspond pas.
C’est dans ce module que le système donne sa réponse soit dans une identification
par la personne de la base la plus proche, soit par une vérification (oui ou non) [20]. Pour
estimer la différence entre deux images, il faut introduire une mesure de similarité. Il est
important de noter que le système de vérification automatique de visage se base en sa
totalité sur la méthode de localisation [24].

1.7 Avantages et inconvénients de la reconnaissance


faciale
Parmi les avantages et les inconvénients de la reconnaissance faciale [24] :

Avantages Inconvénients

• Bien accepté par le public. • Technologie sensible à l’environnement
• Aucune action de l’usager (peu in- (éclairage, position, expression du vi-
trusive). sage. . . )
• Pas de contact physique. • Difficultés de différencier de vrai gémeaux.
• Technique peu coûteuse. • Sensible aux changements.(barbe, mous-
tache, lunette, piercing ,chirurgie. . . ).

Table 1.1 – Avantages et inconvénients de la reconnaissance faciale.

G17H
v CHAPITRE 1. LA RECONNAISSANCE FACIALE EN GÉNÉRALE

1.8 Les domaines d’application


Le champ d’application de la biométrie couvre potentiellement tous les domaines
de la sécurité où il est nécessaire de connaître l’identité des personnes. Aujourd’hui, les
principales applications sont la production de titres d’identité, le contrôle d’accès à des
sites sensibles, le contrôle des frontières, l’accès aux réseaux, systèmes d’information,
stations de travail et PC, le paiement électronique, la signature électronique et même le
chiffrement de données. Cette liste n’est pas exhaustive, et de nouvelles applications vont
très certainement voir rapidement le jour [25].
Due que la reconnaissance faciale est considérée comme une sous partie de la biométrie
et elle a les mêmes finalités, donc la liste des applications pouvant utiliser la biométrie
sont les mêmes de la reconnaissance faciale, pour cette raison nous allons donner dans la
fin de ce chapitre une liste des domaines d’application de la biométrie en général [25] :

1.8.1 Contrôle d’accès physiques aux locaux

• contenu Salle informatique.


• Site sensible (service de recherche, site nucléaire).

1.8.2 Contrôle d’accès logiques aux systèmes d’informations

• Lancement du système d’exploitation.


• Accès au réseau informatique.
• Commerce électronique, paiement en ligne.
• Transaction (financière pour les banques, données entre entreprises).
• Signature de document (lot de fabrication de médicaments).
• Tous les logiciels utilisant un mot de passe.

1.8.3 Equipements de communication

• Terminaux d’accès à internet.


• Téléphones portables.

G18H
v CHAPITRE 1. LA RECONNAISSANCE FACIALE EN GÉNÉRALE

1.8.4 Machines & Equipements divers

• Coffre fort avec serrure électronique.


• Distributeur automatique de billets.
• Casier sensible (club de tir, police).
• Cantine d’entreprise, cantine scolaire (pour éviter l’utilisation d’un badge par une
personne extérieure et améliorer la gestion).
• Casier de piscine (plus d’objet à porter sur soi).
• Contrôle des adhérents dans un club, carte de fidélité.
• Contrôle des temps de présence.
• Voiture (antidémarrage).

1.8.5 Etat / Administration

• Fichier judiciaire.
– conte Le Fichier national automatisé des empreintes digitales (FNAED) comporte
2,7 millions données (août 2007 en France).
– Le fichier national automatisé des empreintes génétiques (FNAEG) contient
545.092 données (août 2007).nu...
• Titres d’identité (carte nationale d’identité, passeport, permis de conduire, titre
de séjour).
• Services sociaux (sécurisation des règlements).
• Services municipaux (sécurisation des accès aux écoles, contrôle de l’utilisation des
services périscolaires).
• Système de vote électronique.

G19H
v CHAPITRE 1. LA RECONNAISSANCE FACIALE EN GÉNÉRALE

1.9 Les tendances de biométrie

1.9.1 Le marché

La biométrie connaît une popularité sans précédent. La croissance mondiale de la


biométrie depuis quelques années est incontestable, tant le nombre d’intervenants est
grand, même s’il existe peu d’informations publiques concernant ce marché. On peut
toutefois considérer certaines données et certains chiffres sur son évolution au fil des
années, tant à l’échelle mondiale, qu’américaine, européenne ou française.
Le marché de la sécurité informatique est encore atomisé, peu de fournisseurs peuvent
prétendre offrir une gamme complète de produits. Les spécialistes estiment que ce marché
est en pleine croissance et qu’il va également se concentrer [25].

Le marché mondial de la biométrie

Dans son rapport intitulé « Sensors for Biometry and Recognition 2016 », l’Institut
d’études Yole Développement estime que les technologies d’empreintes digitales domi-
nantes évolueront progressivement vers des solutions multimodales. La conclusion la plus
importante souligne que le secteur des applications smartphone constitue le moteur ma-
jeur du développement de la biométrie à près de 66% du marché total de la biométrie.
La biométrie pour le consommateur bénéficiera sans doute d’une croissance de l’ordre de
10% de 2016 à 2021, selon les analystes de Yole.
Selon Yole, 525 millions d’unités de capteurs auraient été vendues en 2015 et ce chiffre
devrait atteindre 1.500 millions d’unités d’ici à 2021. A côté de la détection des empreintes
digitales pour le déverrouillage et le paiement mobile, il faut compter avec les technologies
de reconnaissance visuelle pour la sécurité basées sur les images combinées de l’œil et du
visage. En outre, les assistants vocaux développés par Amazon et Google mettent en jeu
des modules de reconnaissance vocale enregistrée [25].
Le marché de la biométrie est en plein boom : selon l’agence Markets, le marché
mondial de la biométrie représentera 8,5 milliards d’euros d’ici 2015. Cette expansion se
fait particulièrement sentir dans les pays émergents où les états civils, quand ils existent,
sont souvent parcellaires [25] :

G20H
v CHAPITRE 1. LA RECONNAISSANCE FACIALE EN GÉNÉRALE

• Le marché américain : Les Etats-Unis ont compris la manière et la nécessité d’in-


tégrer les produits d’authentification au sein de leur société depuis des années, Le
besoin de sécuriser les transactions financières se fait ressentir. Pour s’en convaincre,
notons que les fraudes aux distributeurs automatiques de billets atteignent 30
• Le marché japonais : La croissance en besoins biométriques, bien que mon-
diale, s’est particulièrement développée au Japon depuis avril 2005 et la mise en
application pour toutes les entreprises de la loi sur la protection des informations
personnelles qui oblige chaque entreprise à assurer elle même la sécurité des infor-
mations qu’elle détient. Mitsubishi Tokyo Financial Group par exemple, la seconde
banque au Japon, reçoit quotidiennement 2 000 demandes pour sa nouvelle carte
de crédit qui identifie les utilisateurs grâces aux veines de la paume de la main.
Sur les 3 000 distributeurs que possède la banque la moitié est déjà équipée des
technologies de reconnaissance compatibles.
• Le marché européen : «Le secteur de la biométrie est en train d’achever son
premier cycle de développement. Il y a eu des progrès jusqu’à présent, sur les fronts
technologiques, applicatifs et législatifs», mais ils se sont révélés «trop peu impor-
tants et trop fragmentés pour envisager un déploiement de systèmes biométriques
de grande envergure», affirme la Commission européenne.
• Le marché français : En France, le marché de la biométrie est aujourd’hui peu
développé du fait d’un très petit nombre d’acteurs français spécialisés. Cependant,
des systèmes ont dores et déjà été installés sur certains sites (installations militaires,
sites nucléaires, banques, établissements et cantines scolaires, ...), ce qui témoigne
des premières prises de conscience au niveau de la demande.

G21H
v CHAPITRE 1. LA RECONNAISSANCE FACIALE EN GÉNÉRALE

1.10 Conclusion
À travers ce chapitre, nous avons présenté une brève survole sur les méthodes les plus
utilisées dans le domaine de reconnaissance de visages. En effet, nous avons vu que chaque
méthode possède ces avantages et ces inconvénients, ce qui a entraîné l’apparition de l’ap-
proche de combinaison de méthodes et de biométries pour profiter des complémentarités
qui existent entre elles.

G22H
CHAPITRE 2

ÉTAT DE L’ART DE LA
RECONNAISSANCE DE VISAGE

2.1 Introduction
L’extraction des caractéristiques faciales est une étape indispensable dans les systèmes
de reconnaissance de visages. De nombreuses méthodes de reconnaissance de visage ont
été proposées au cours de ces dernières années.
Dans ce chapitre nous allons donner une classification des méthodes de reconnaissance
de visages selon le type des données en entrée du système est adoptée, on distingue trois
grandes classes des méthodes (locale, globale et hybride). Ensuite, nous allons déterminer
le principe de fonctionnement des méthodes les plus représentatives, ainsi une comparaison
entre eux dans la fin de chapitre.

23
v CHAPITRE 2. ÉTAT DE L’ART DE LA RECONNAISSANCE DE VISAGE

2.2 Les classes des méthodes de la reconnaissance de


visages
Les méthodes de reconnaissance de visage peuvent être séparées en trois grandes
familles, les méthodes globales (ou holistiques), les méthodes locales et les méthodes hy-
brides (voir la Figure 2.1) :

2.2.1 Les méthodes locales

C’est une méthode géométrique, on l’appelle aussi la méthode à traits, à caractéris-


tique locale, ou analytique. Dans ces méthodes, le visage est représenté par un ensemble de
vecteurs caractéristiques de dimensions faibles, plutôt que par un seul vecteur de grande
dimension.
Les méthodes locales s’intéresse aux points critiques du visage comme le nez, la
bouche, les yeux ; ce qu’il va engendrer plus de détails [24]. Ces méthodes basées sur
des modèles, utilisent des connaissances a priori que l’on possède sur la morphologie du
visage et s’appuient en général sur des points caractéristiques de celui-ci.
Kanade présenta un des premiers algorithmes de ce type en détectant certains points
ou traits caractéristiques d’un visage puis en les comparants avec des paramètres extraits
d’autres visages. Ces méthodes constituent une autre approche pour prendre en compte
la non-linéarité en construisant un espace de caractéristiques local et en utilisant des
filtres d’images appropriés, de manière à ce que les distributions des visages soient moins
affectées par divers changements [14].

Les avantages des méthodes locales

Elles sont qu’elles prennent en compte la particularité du visage en tant que forme
naturelle à reconnaître et un nombre réduit de paramètres (de 9 à 14 distances au maxi-
mum à considérer) [20], en exploitant les résultats de la recherche en neuropsychologie et
psychologie cognitive sur le système visuel humain [18].

G24H
v CHAPITRE 2. ÉTAT DE L’ART DE LA RECONNAISSANCE DE VISAGE

Les inconvénients éprouvés sur les méthodes locales

c’est quand il s’agit de prendre en considération plusieurs vues du visage, ainsi que le
manque de précision dans la phase « extraction » des points qui constitue leur inconvénient
majeur [20].

Les techniques de l’approche locale

BIC (Les Approches Bayésiennes), AAM (Modèle Actif d’Apparence), LBP (Local
Binary Pattern), SVM (Machines à Vecteur de Support).

2.2.2 Les méthodes globales

Les méthodes globales sont basées sur des techniques d’analyse statistique bien connues.
Il n’est pas nécessaire de repérer certains points caractéristiques du visage (Comme les
centres des yeux, le centre de la bouche, etc.) à part pour normaliser les images [24].

Le principe des approches globales

Le principe des approches globales est d’utiliser toute la surface du visage comme
source d’information sans tenir compte des caractéristiques locales comme les yeux, la
bouche,. . . etc. Les algorithmes globaux s’appuient sur des propriétés statistiques bien
connues et utilisent l’algèbre linéaire [20]. ou d’utiliser le visage complet comme source
d’information, et ça sans segmentation de ses parties. En effet une image en niveau de
gris de taille 112 x 92 est représentée par un vecteur de taille 10304, les couleurs ne sont
généralement pas utiliser dans ses méthodes ce qui simplifie un grand nombre d’opérations
[24].

L’avantage principal des méthodes globales

elles sont relativement rapides à mettre en œuvre et que les calculs de base sont d’une
complexité moyenne [14].

G25H
v CHAPITRE 2. ÉTAT DE L’ART DE LA RECONNAISSANCE DE VISAGE

Les inconvénients éprouvés sur les méthodes globales

elles sont très sensibles aux variations d’éclairement, de pose et d’expression faciale.
Ceci se comprend aisément puisque la moindre variation des conditions de l’environne-
ment entraîne des changements inéluctables dans les valeurs des pixels qui sont traités
directement [14].
L’inconvénient majeur des méthodes globales est l’insuffisance de l’information ex-
traite représentant le visage, car ces méthodes ne prennent pas en considération les varia-
tions locales en essayant de concentrer le maximum d’énergie [20].

Les techniques de l’approche globale

Nous pouvons distinguer deux types de techniques parmi les méthodes globales, les
techniques linéaires (PCA (Analyse en Composante Principale), LDA (Analyse Discrimi-
nante Linéaire), ICA (Analyse en Composante Indépendantes), les techniques non linéaires
basées sur la notion mathématique de noyau (kernel) comme le K-PCA (Analyse en Com-
posante Principale de kernel), le K-LDA (Analyse Discriminante Linéaire de kernel) et
LLE (Local Linear Embedding).

2.2.3 Les méthodes hybrides

Elle se présente comme une association des avantages entre les méthodes globales et
locales. Elles permettent d’augmenter la stabilité de la performance de reconnaissance lors
de changements de pose, d’éclairement et d’expressions faciales [24].
Elles se basent sur le fait que le système de perception humain emploi les caractéris-
tiques locales et la région entière du visage pour l’identification [18].

Les techniques de l’approche hybride

Parmi les techniques permissent de cette approche sont : LFA (Analyse de Caracté-
ristique Locale), EGM (Elastic Graph Matching), EBGM (Elastic Buch Graph Matching)
et LG-PCA (Log Gabor PCA).

G26H
v CHAPITRE 2. ÉTAT DE L’ART DE LA RECONNAISSANCE DE VISAGE

Figure 2.1 – Une classification des algorithmes principaux utilisés en reconnaissance


faciale [14].

2.3 Les techniques de la reconnaissance de visages


Plusieurs méthodes ont proposé dans la littérature, afin d’améliorer le taux de recon-
naissance faciale, chacune d’elles à ces avantages et ces inconvénients. Parmi ces méthodes,
nous allants présenté les sept méthodes suivant :

2.3.1 Analyse en Composantes Principales (PCA)

L’analyse en Composantes Principales (ACP) en anglais PCA (Principal Component


Analysis, Pearson, 1901), Sirovich et Kirby appliquée PCA pour la représentation efficace
d’une image de visage pour la première fois. Ils représentaient une image de visage comme
une addition d’un petit nombre de valeurs de poids défini comme un vecteur de base du
visage et du vecteur moyen. Ils ont fait valoir que toute image de visage pourrait être

G27H
v CHAPITRE 2. ÉTAT DE L’ART DE LA RECONNAISSANCE DE VISAGE

reconstruite à peu près comme une moyenne pondérée somme d’une petite collection
d’images que définis base du visage et une image moyenne de la face. Turk et Pentland
ont proposé une méthode visages propres pour la reconnaissance faciale en 1991 [24] .
La méthode PCA est une méthode globale linéaire [24] qui est aussi connu sous
le nom d’Eigen faces, puisque elle utilise des vecteurs propres et des valeurs propres
(respectivement Eigenvectors et Eigenvalues en anglais). Cet algorithme s’appuie sur des
propriétés statistiques bien connues et utilise l’algèbre linéaire. Il est à la base de nombreux
algorithmes globaux actuels.

Le principe de la méthode PCA

L’idée principale de cette méthode consiste à exprimer les M images d’apprentissage


selon une base de vecteurs orthogonaux particuliers, contenant des informations indépen-
dantes d’un vecteur à l’autre. Ces nouvelles données sont donc exprimées d’une manière
plus appropriée à la reconnaissance du visage [14].
En termes mathématiques, cela revient à trouver les vecteurs propres de la matrice
de covariance formée par les différentes images de la base d’apprentissage.
Une image Ii(m,n) est traitée comme un vecteur Γi(m×n,1)) dans un espace vectoriel de
grande dimension (N = m × n), par concaténation des colonnes ) [26].

 
a1,1
..
 
 

 . 

   
 
 a1,1 . . . a1,m 

 an,1 

.. .. ..  
.. 
Γ= 
 . . .

 =⇒ Γ = 
 . 

   
   
an,1 . . . an,m 
 a1,m 
.. 
 
. 


 
 
an,m

Passage d’une image vers un vecteur dans un espace vectoriel de grande dimension.
Les coefficients ai,j représentent les valeurs des pixels en niveau de gris, codés de 0 à
255 [22].

G28H
v CHAPITRE 2. ÉTAT DE L’ART DE LA RECONNAISSANCE DE VISAGE

• Après avoir rassemblé les M images dans une unique matrice, on obtient une ma-
trice d’images Γ, où chaque colonne représente une image Γi [14] :

 
a1,1 b1,1 ... z1,1
.. .. ..
 
 

 . . ... . 

 
 

 an,1 bn,1 ... zn,1 

.. .. .. 
Γ= 
. . ... . 


 
 

 a1,m b1,m . . . z1,m 
.. .. .. 
 
. . . 


 ... 
 
an,m bn,m . . . zn,m

• On calcule ensuite l’image moyenne Ψ de toutes les images collectées. Cette image
peut être vue comme le centre de gravité du jeu d’images (voir la Figure 2.2) [14] :

1 XM
Ψ= Γi (2.1)
M i=1

• On ajuste ensuite les données par rapport à la moyenne.

Figure 2.2 – Image moyenne [26].

• l’image moyenne est alors soustraite de chaque image avec la formule suivante [26] :

Φi = Γi − Ψ, . . . M (2.2)

• On calcule ensuite la matrice de covariance du jeu de données. Cette matrice peut

G29H
v CHAPITRE 2. ÉTAT DE L’ART DE LA RECONNAISSANCE DE VISAGE

être vue comme une matrice de moments d’ordre 2 [26] :

M
C= Θi ΘTi = AAT , A = [Θ1 Θ2 . . . ΘM ] (2.3)
X

i=1

La prochaine étape consiste à calculer les vecteurs propres et les valeurs de cette
matrice de covariance C de taille (N × N ), c’est-à-dire de l’ordre de la résolution d’une
image.
Le problème est que cela peut parfois être très difficile et très long. En effet, si N > M
(si la résolution est supérieure au nombre d’images), il y aura seulement M − 1 vecteurs
propres qui contiendront de l’information (les vecteurs propres restants auront des valeurs
propres associées nulles). Par exemple, pour 100 images de résolution 320×240, on pourrait
résoudre une matrice L de 100 × 100 au lieu d’une matrice de 76800 × 76800 pour ensuite
prendre les combinaisons linéaires appropriées des images. Le gain de temps de calcul
serait considérable. Typiquement, on passerait d’une complexité de l’ordre du nombre de
pixels dans une image à une complexité de l’ordre du nombre d’images [22].
Les étapes du processus qui on permet d’accélérer les calculs sont décrits Ci-dessous
[14] :
• on considère les vecteurs propres ei de C = AAT , associés aux valeurs propres λi
On a :

Cei = λi ei (2.4)

• Les vecteurs propres vi de l = AT A, associés aux valeurs propres ui sont tels que :

lvi = ui vi (2.5)

Soit :

AT Avi = ui vi (2.6)

G30H
v CHAPITRE 2. ÉTAT DE L’ART DE LA RECONNAISSANCE DE VISAGE

• En multipliant à gauche par A des deux côtés de l’égalité, on obtient :

AAT Avi = Aui vi (2.7)

• PuisqueC = AAT , on peut simplifier :

C(Avi ) = ui (Avi ) (2.8)

• De 2.4 et 2.8, on voit que Avi et ui sont respectivement les vecteurs propres et les
valeurs propres de C :



 ei = Avi
(2.9)
λi = u i

On peut, donc trouver les valeurs propres de cette énorme matrice C en trouvant les
valeurs propres d’une matrice L beaucoup plus petite. Pour trouver les vecteurs propres
de C, il suffit juste de pré-multiplier les vecteurs propres de L par la matrice A.
Les vecteurs propres trouvés sont ensuite ordonnés selon leurs valeurs propres corres-
pondantes, de manière décroissante. Plus une valeur propre est grande, plus la variance
capturée par le vecteur propre est importante. Cela implique que la majeure partie des
informations est contenue dans les premiers vecteurs propres.
Une part de la grande efficacité de l’algorithme ACP vient de l’étape suivante qui
consiste à ne sélectionner que les k meilleurs vecteurs propres (ceux avec les k plus grandes
valeurs propres). On définit alors un espace vectoriel engendré par ces k vecteurs propres,
que l’on appelle l’espace des visages Ev (“Face Space”) [14].
Les images originales peuvent être reconstituées par combinaison linéaire de ces vec-
teurs propres, on les appelle eigenfaces (voir la Figure 2.3).

G31H
v CHAPITRE 2. ÉTAT DE L’ART DE LA RECONNAISSANCE DE VISAGE

Figure 2.3 – Image moyenne et les 15 eigenfaces [22].

En résumé, l’algorithme ACP est une méthode globale utilisant en premier lieu les
niveaux de gris des pixels d’une image. Sa simplicité à mettre en œuvre contraste avec
une forte sensibilité aux changements d’éclairement, de pose et d’expression faciale [27].
Le principe selon lequel on peut construire un sous-espace vectoriel en ne retenant que
les «meilleurs »vecteurs propres, tout en conservant beaucoup d’information utile, fait de
l’ACP un algorithme efficace et couramment utilisé en réduction de dimensionnalité [22].

2.3.2 L’analyse Discriminante Linéaire (LDA)

L’Analyse Discriminante Linéaire (ADL) en anglais LDA (Linear Discriminate Ana-


lysis, Fisher, 1936), LDA est une méthode globale linéaire [24].
L’algorithme LDA est né des travaux de Belhumeur et al. De Yale University (USA),
en 1997. Il est aussi connu sous le nom de « Fisherfaces ». Contrairement à l’algorithme
PCA, celui de la méthode LDA effectue une véritable séparation de classes. Pour pouvoir
l’utiliser, il faut donc au préalable organiser la base d’apprentissage d’images en plusieurs
classes : une classe par personne et plusieurs images par classe. La méthode LDA analyse
les vecteurs propres de la matrice de dispersion des données, pour objectif de maximiser
les variations entre les images d’individus différents (inter-classes) tout en minimisant les

G32H
v CHAPITRE 2. ÉTAT DE L’ART DE LA RECONNAISSANCE DE VISAGE

variations entre les images d’un même individu (intra-classes) [28].


Cependant, lorsque le nombre d’individus à traiter est plus faible que la résolution
de l’image, il est difficile d’appliquer la méthode LDA qui peut alors faire apparaître
des matrices de dispersions singulières (non inversibles). Comme l’ACP ne prend pas en
compte la discrimination des classes mais LDA résoudre ce problème, et que les méthodes
basées sur LDA standard telles que Fisherfaces, appliquent en premier lieu l’ACP pour la
réduction de dimension et puis l’analyse discriminante.
Des questions appropriées au sujet de l’ACP sont habituellement liées au nombre
des composantes principales (CP) utilisées et comment elles affectent la performance ?
Concernant l’analyse discriminante on doit comprendre les raisons de sur-ajustage de
précision et comment l’éviter ?
Les réponses à ces deux questions sont étroitement liées. On peut réellement montrer
qu’employer plus de CP peut mener à la diminution de la performance de l’authentifi-
cation. L’explication de ce comportement est que les CP correspondantes aux vecteurs
qui ont des petites valeurs propres correspondent aux composantes de hautes fréquences
codent habituellement le bruit. En résulte, si les vecteurs propres correspondant aux pe-
tites valeurs propres sont employés pour définir le sous-espace réduit de PCA, le procède
FLD s’accompagne aussi bien par le bruit et par conséquence le sur-ajustage de précision
a lieu. Pour cette raison le modèle améliore du FLD (Enhanced FLD Model : EFM) est
employé pour surmonter ces problèmes liés au sur-ajustage de précision [14].
La LDA est une technique qui cherche les directions qui sont efficaces pour la dis-
crimination entre les donné[Link] Figure 2.4 5 représente un exemple de classification de
deux nuages de points. L’axe principal de la méthode LDA est l’axe de projection qui
maximise la séparation entre les deux classes. Il est clair que cette projection est optimale
pour la séparation des deux classes par rapport à la projection sur l’axe principal calculé
par PCA [14].

G33H
v CHAPITRE 2. ÉTAT DE L’ART DE LA RECONNAISSANCE DE VISAGE

Figure 2.4 – les projections ACP et LDA d’un ensemble de données [14].

Le principe de la méthode LDA

• Tout comme dans le PCA, on rassemble les images de la base d’apprentissage dans
une grande matrice d’images Γ où chaque colonne représente une image Γi , puis on
calcule L’image moyenne Ψ [14].
Ensuite, pour chaque classe Ci , on calcule l’image moyenne ΨCi :

1 qXi Γk

ΨCi = (2.10)
qi k=1

Avec Θi , le nombre d’images dans la classe Xi .


Chaque image Γi de chaque classe Xi est ensuite recentrée par rapport à la moyenne.
• On obtient alors une nouvelle image Θi :

Θi = Γi − ΨCi (2.11)

G34H
v CHAPITRE 2. ÉTAT DE L’ART DE LA RECONNAISSANCE DE VISAGE

• Vient ensuite le calcul de nos différentes matrices de dispersion. On notera le


nombre total de classes (i.e. le nombre d’individus), Θi le nombre d’images dans la
classe Xi et M le nombre total d’images :

1. La Matrice de Dispersion Intra-Classe (sw ) :

c X
sw = (Γk − ΨCi )(Γk − ΨCi )T (2.12)
X

i=1 Γk∈Ci

2. La Matrice de Dispersion Inter- Classe(sb ) :

c
sb = qi (ΨCi − Ψ)(ΨCi − Ψ)T (2.13)
X

i=1

3. La Matrice de Dispersion Inter- Classe (st ) :

M
st = (Γi − Ψ)(Γi − Ψ)T (2.14)
X

i=1

Une fois ces matrices calculées, on doit trouver une projection optimale w quiMini-
mise la dispersion intra-classe, relative à la matrice sw , tout en maximisant la dispersion
Interclasse, relative à la matrice [28].

2.3.3 Réseau de Neurones à Convolution (CNN)

Le réseau de neurones à convolution RNC en anglais CNN (Convolutional Neural


Network, Cun et al, 1990) . CNN est une méthode globale . Motivé principalement par
deux raisons : il intègre implicitement une phase d’extraction de caractéristiques et il a
été utilisé avec succès dans de nombreuses applications [Garcia et Delakis en 2004 ; Le
Cun et al en 1998 ; Osadchy et al en 2007] [28].
Les premières architectures profondes fonctionnelles à faire leur apparition ont été les
CNNs qui appliqué sur des données d’entrées matricielles N × N pouvant représenter, par
exemple, une image. Il est toutefois possible d’adapter ce modèle à des entrées vectorielles
ou tensorielles.

G35H
v CHAPITRE 2. ÉTAT DE L’ART DE LA RECONNAISSANCE DE VISAGE

Le principe de la méthode CNN

Dans un CNN, on retrouve deux types de couches en alternance : une couche de


convolution et une couche de sous-échantillonage (pooling). La couche de convolution est
formée d’un certain nombre de filtres ayant un champ de perception limité (e.g. des petits
carrés n × n tel que n < N ). Ces filtres agissent en tant que détecteurs de caractéristiques.
Ils sont définis par des poids qui sont ajustables pendant l’apprentissage. On effectue
une convolution de ces filtres sur l’entrée pour obtenir les activations de la couche. On peut
voir la convolution des filtres comme un partage de poids entre les unités d’un même filtre
appliqué à différents endroits. Les activations sont ensuite envoyées à la couche de sous-
échantillonage. Celle-ci, également formée d’unités ayant un champ de perception limité,
réduit la dimension de la couche précédente grâce à une fonction de sous-échantillonnage
(typiquement la moyenne ou le maximum des activations dans le champ perceptif). La
prochaine couche effectue ensuite une convolution sur les sorties de la couche de sous-
échantillonnage, et ainsi de suite. Après la dernière couche de sous-échantillonnage, on
ajoute une couche de neurones de sortie, nous permettant ainsi d’effectuer l’entraînement
supervisé en rétropropageant le gradient.
L’alternance entre convolution et sous-échantillonnage donne une structure pyrami-
dale au CNN. Ainsi, les couches supérieures représentent des caractéristiques de plus en
plus globales de l’entrée car leur champ perceptif, bien que de faible dimensionnalité,
correspond à une plus grande partie de l’entrée. De plus, le partage de poids permet de
limiter le nombre de paramètres du modèle, ce qui facilite l’apprentissage [30].
La Figure 2.5 décrit l’architecture développée en suivant les recommandations de
Simard et al en [2003] [29].

G36H
v CHAPITRE 2. ÉTAT DE L’ART DE LA RECONNAISSANCE DE VISAGE

Figure 2.5 – Architecture de notre réseau de neurones à convolution [29].

2.3.4 Local Binary Pattern (LBP)

Le Modèle Binaire Local en anglais LBP (Local Binary Pattern, Ojala et al, 1996)
[31], LBP sont des descripteurs locaux de textures souvent utilisés en analyse de visages
[Rodriguez et Marcel, 2006 ; Zhao et Pietikäinen, 2007] [29].
Dans le but de caractériser la texture d’une image.

Le principe de la méthode LBP

Le calcul de la valeur LBP consiste pour chaque pixel à seuiller ses huit voisins directs
avec un seuil dont la valeur est le niveau de gris du pixel courant. Tous les voisins prendront
alors une valeur 1 si leur valeur est supérieure ou égale au pixel courant et 0 si leur valeur
est inférieure (voir la Figure 3.1).
Le code LBP du pixel courant est alors produit en concaténant ces 8 valeurs pour
former un code binaire. On obtient donc, comme pour une image à niveaux de gris, une
image des valeurs LBP contenant des pixels dont l’intensité se situe entre 0 et 255 [31].

G37H
v CHAPITRE 2. ÉTAT DE L’ART DE LA RECONNAISSANCE DE VISAGE

Figure 2.6 – Opérateur LBP [14].

La technique LBP a été étendu ultérieurement en utilisant des voisinages de taille


déférente. Dans ce cas, un cercle de rayon R autour du pixel central et Les valeurs des
P points échantillonnés sur le bord de ce cercle sont prises et comparées avec la valeur
du pixel central. Pour obtenir les valeurs des P points échantillonnés dans le voisinage
pour tout rayon R, une interpolation est nécessaire. On adopte la notation (P, R) pour
définir le voisinage de P points de rayon R d’un pixel. (voir la Figure 2.7(a)), illustre trois
voisinages pour des valeurs de R et P différentes [14].

Figure 2.7 – Figure 2.8. (a) : Trois voisinages pour des R et P différents, (b) : Textures
particulières détectées par LBP [14].

G38H
v CHAPITRE 2. ÉTAT DE L’ART DE LA RECONNAISSANCE DE VISAGE

2.3.5 Méthode par le modèle d’apparence (AAM)

Le Modèle Actif d’Apparence MAA en anglais AAM (Active Appearance Model,


Edwards et al, 1998) [29]. MAA est une méthode local de la reconnaissance de visage [32].

Le principe de la méthode MAA

son principe comprend deux étapes (la construction du modèle et l’ajustement de


celui-ci sur de nouveaux visage) [32] :
• Construction : La modélisation du visage est une étape d’apprentissage qui
consiste à générer un modèle statistique représentant les variations de la forme
et de la texture d’un ensemble d’images de visages constituant la base d’appren-
tissage. Les images sont toutes annotées manuellement par un nombre donné de
points caractéristiques marqués sur chaque visage. Afin de générer le modèle de
forme, les ensembles de points caractéristiques marqués sur chaque visage sont ali-
gnés dans un système de coordonnées commun et sont représentés par des vecteurs.
une ACP est ensuit appliquées sur l’ensemble de ces vecteurs .la construction du
modèle de variation d’apparence est effectuée en déforment d’abord la forme de
chaque visage afin qu’elle soit alignée à la forme moyenne. Le vecteur d’apparence
est ensuite extrait et une ACP est appliquée afin d’obtenir un modèle linaire. les
deux modelés peuvent être utilisés séparément ou conjointement.
• Ajustement : Une fois que le modèle est construit, la deuxième étape consiste
à ajuster les paramètres du modèle selon une image donnée en cherchant l’en-
semble optimal des paramètres qui représentent le mieux d’image en entrée .Ceci
est considère comme un problème d’optimisation où l’on essaie de faire varier les pa-
ramètres du modèle tout en minimisant la distance entre le modèle et l’image. Pour
cela, une étape d’apprentissage est d’abord appliquée afin de permettre au modèle
d’apprendre comment résoudre le problème d’optimisation a priori. Elle consiste
en un apprentissage à partir d’un ensemble d’image annotées où paramètres du
modèle sont connu. Pour chaque exemple dans l’ensemble d’apprentissage, un cer-
tain nombre de départements connus sont appliquée au modèle, et le vecteur de

G39H
v CHAPITRE 2. ÉTAT DE L’ART DE LA RECONNAISSANCE DE VISAGE

différences est enregistré. Quand les données d’apprentissage sont suffisantes, Une
régression multiple est appliquée pour modéliser la relation entre les départements
du modèle et les vecteurs de différence.
L’AAM encode donc des informations sur la maniéré dont les paramètres doivent
être ajustés pour atteindre le meilleure alignement. étant donné une image d’un
visage à reconnaître, le modèle est d’abord placé sur le visage et le calcul du vecteur
de différences est réalisé. Ensuite, l’ajustement est effectué en utilisant le modèle de
régression obtenu dans la phase d’apprentissage : celui-ci prédit le mouvement qui
donne la meilleure correspondance. Le processus est répété jusqu’à la convergence.
les La Figure 2.8 montre deux exemples d’ajustement d’un AAM sur un visage
après différents nombres d’itération.

Figure 2.8 – Deux exemples d’ajustement d’un AAM à une image [32].

L’efficacité de ces méthode est forment liée à la richesse de la base d’apprentissage


utilisée pour construire le modèle. Ce dernier devrait être aussi complet que possible pour
être capable de synthétiser une approximation suffisamment proche de toute image du
visage de personne cible [31].

G40H
v CHAPITRE 2. ÉTAT DE L’ART DE LA RECONNAISSANCE DE VISAGE

2.3.6 Center-Symmetric Local Binary Pattern (CS-LBP)

Une autre méthode locale est le modèle binaire local symétrique central en anglais
CS-LBP (Center-Symmetric Local Binary Pattern, Heik-kila ,2009) [33]pour la description
des régions d’intérêt.

Le principe de la méthode CS-LBP

Son principe est basé sur le calcul de la différence des valeurs des pixels (deux à
deux) symétrique par rapport au pixel centrale ; c’est-à-dire les valeurs de pixel ne sont
pas comparées au pixel central mais plutôt au pixel opposé symétriquement par rapport
au pixel central [34].La figure 2.9 illustre la procédure de ce calcule .

Figure 2.9 – LBP et CS-LBP descripteur pour 8 pixels voisins [34].

Calcule par pixel CS-LBP valeur en prenant et en modulant la différence d’intensité


de pixels centraux symétriques pour tous les pixels voisins. Pour chaque pixel, on privilège
d’une région de pixels de 3 × 3 ce qui conduit à un nombre entier scalaire entre 0 et 16.
Ensuite, un histogramme de bacs 16 est calculé compte tenu d’une zone rectangulaire. Cela
signifie un descripteur de cette famille. Pour toutes les positions et les échelles possibles
de la région rectangulaire, une descripteur distincte (qui est un histogramme) est calculé
et ajouté à l’ensemble CS-LBP [35].

G41H
v CHAPITRE 2. ÉTAT DE L’ART DE LA RECONNAISSANCE DE VISAGE

2.3.7 La méthode LTP

Ces dernières années, plusieurs recherches se sont intéressées à son utilisation dans
le domaine de la reconnaissance des visages dans le spectre visible. Plus récemment, un
nouveau descripteur similaire au LBP a été proposé. Ce descripteur appelé les motifs
locaux ternaires LTP en anglais (Local Ternary Patterns, Tan et Triggs, 2007), vise à
réduire l’influence du bruit dans des régions uniformes de l’image à travers un encodage
local basé sur l’utilisation d’un seuil.
Il s’agit de la généralisation des local binary patterns au système ternaire. Elle a
été proposée comme solution au problème de sensibilité qu’éprouve le LBP face au bruit
aléatoire et celui de quantification [14].

Le principe de la méthode LTP

Le descripteur LTP étend le LBP à un code de 3 niveaux dans lequel les pixels locaux
ayant leurs niveaux de gris dans un intervalle défini par les seuils -t et +t par rapport au
pixel central sont marquées par la valeur 0. Les pixels au-dessus du seuil +t par rapport
au pixel central sont affectées d’une marque de valeur 1 et ceux en-dessous du seuil -t par
rapport au pixel central sont marqués par la valeur -1 [36].
• Le calcul des descripteurs LTP :
L’équation ci-dessous montre comment calculer le descripteur LTP dans un voisi-
nage [36] :

1 si pi ≥ p0 + t






p0i = 0 si | pi − p0 |< t (2.15)



0 si pi ≤ p0 − t


t est un seuil défini par l’utilisateur. L’utilisation d’un seuil permet de rendre le
descripteur résultant moins sensible au bruit, mais il n’est plus strictement invariant
aux transformations des niveaux de gris.
La Figure 2.10 montre le résultat de l’application du LTP sur une image en utilisant
un seuil t = 5.

G42H
v CHAPITRE 2. ÉTAT DE L’ART DE LA RECONNAISSANCE DE VISAGE

Figure 2.10 – Exemple de calcul du descripteur LTP sur un voisinage 3 × 3 (a) niveau
de gris dans une zone 3 × 3 ; (b) masque ternaire obtenu [36]

Afin de se débarrasser de la partie négative du masque ternaire du descripteur LTP


et de rester dans un encodage sur 8 bits, ce dernier est divisé en deux canaux LBP.
Le modèle supérieur (LTPU) est obtenu en remplaçant les valeurs négatives par la
valeur 0. Le modèle inférieur (LTPL) est obtenu en remplaçant la valeur 1 par 0
et puis en changeant les valeurs négatives à 1. La Figure 2.11 montre le résultat
de ce fractionnement et les masques binaires supérieur LTPU et inférieur LTPL
obtenus [36].

Figure 2.11 – Résultat de fractionnement de LTP en deux canaux LBP (LTPU et LTPL)
[36].

Cette approche donne lieu à deux mesures (voir la Figure 2.12). Chaque mesure
est calculée en utilisant la même approche que celle pour les LBP. La valeur du
descripteur LTPU est obtenue en multipliant le masque binaire résultant par les
poids correspondants au voisinage utilisé et ensuite en sommant les valeurs obtenues

G43H
v CHAPITRE 2. ÉTAT DE L’ART DE LA RECONNAISSANCE DE VISAGE

dans ce voisinage. La valeur du descripteur LTPL est obtenue en utilisant la même


procédure. Ce traitement donne deux images dans l’espace des textures faisant
ressortir des caractéristiques différentes.

Figure 2.12 – Calcul des valeurs de LTPU et LTPL par multiplication avec le masque
des poids et la somme des valeurs obtenues dans le voisinage [36].

Comme précédemment, le LTP peut être étendu à un voisinage de dimension plus


grande donnant lieu à un descripteur sur plusieurs échelles [36].Cette méthode à
l’avantage de garder le système simple d’élimination des patterns non-uniformes
[14].

G44H
v CHAPITRE 2. ÉTAT DE L’ART DE LA RECONNAISSANCE DE VISAGE

2.4 Comparaison entre les méthodes


Méthodes Approche Avantage Inconvénient

• Permet de bien représen-


ter les données, supprime • Ne préserve pas la discri-
les redondances [37]. mination des classes [37].
• Méthode simple à mettre • Il est relativement rapide
ACP en œuvre, fournir des ou- à mettre en œuvre mais
Globale
[Pearson, tils simples et lisibles de il est sensible aux pro-
non linaire
1901] représentation des infor- blèmes d’éclairages, de
mations traitées, sans ou- pose et d’expression fa-
blier sa puissance et sa ciale [14].
flexibilité [39].

• Méthode simple [37].


• Hypothèse de gaussia-
• LDA maximise
nité, garde les redon-
l’éparpillement inter-
dances [37].
classes [38].
• Couteuse en temps de
• Réduit l’éparpillement
calcul [38].
intra-classes [38].
LDA[Fisher, Globale • Couteuse en espace mé-
• La méthode de fisher-
1936] non linaire moire [38].
faces résout le problème
• Rend de mauvais résul-
de la robustesse face
tats quand le nombre
aux variations de pose,
d’images d’apprentissage
et d’expressions fa-
est grand [38].
ciales [38].

• Une bonne précision des


• Les descripteurs CNN
résultat retournés pour la
ont été particulièrement
reconnaissance par CNN.
difficiles à implémenter
CNN[ • il intègre implicitement
[39] .
Cun et al, Globale une phase d’extraction de
• Consomme beaucoup de
1990] caractéristiques et il a été
temps pour faire la recon-
utilisé avec succès dans de
naissance.
nombreuses applications.

G45H
v CHAPITRE 2. ÉTAT DE L’ART DE LA RECONNAISSANCE DE VISAGE

• Amélioré les perfor-


mances et la rapidité de
la reconnaissance [40].
• pouvoir modéliser plus
facilement les variations
de pose, d’éclairage et
d’expression. • c’est une méthode qui est
LBP
• Cette technique permet a priori relativement sen-
[Ojala et local
de réduire les vecteurs sible au flou [40].
al, 1996 ]
descripteurs semblables
et compressés, sans tou-
tefois souffrir de perte
d’information pertinente
pour caractériser les
visages [41].

• il est impossible de faire


converger un modèle dé-
• pouvoir modéliser plus formable créé à partir
facilement les variations d’une base d’apprentis-
de pose, d’éclairage et sage contenant beaucoup
AAM d’expression. de variabilité.
[Edwards local • extraire automatique- • Les modèles actifs sont
et al, 1998] ment des paramètres beaucoup moins perfor-
caractérisant le vi- mants dès lors que l’illu-
sage [41]. mination, la pose ou le
type de visage changent
[32].

• Cette méthode est moins


sensible au problème de
changement d’illumina-
tion, ce qui lui rende plus
CS-
attractive pour le suivi
LBP[Heik- local
d’objet mobile [33].
kila ,2009]
• Donne des descripteurs
de taille réduite par rap-
port à LBP.

Table 2.1 – Comparaison entre les méthodes les plus utilisées dans la reconnaissance de
visage ACP, LDA, CNN, LBP, AAM et CS-LBP .

G46H
v CHAPITRE 2. ÉTAT DE L’ART DE LA RECONNAISSANCE DE VISAGE

2.5 Conclusion
À travers ce chapitre, nous avons présenté une brève survole sur les méthodes les plus
utilisées dans le domaine de reconnaissance de visages. En effet, nous avons vu que chaque
méthode possède ces avantages et ces inconvénients, ce qui a entraîné l’apparition de l’ap-
proche de combinaison de méthodes et de biométries pour profiter des complémentarités
qui existent entre elles.

G47H
CHAPITRE 3

DESCRIPTION GÉNÉRALE DU
SYSTÈME FACIAL

3.1 Introduction
Comme nous l’avons évoqué au chapitre précédent, il existe de nombreuses méthodes
d’extractions des caractéristiques dans le domaine de reconnaissance de visage. En effet,
la bonne précision d’un tel système de reconnaissance faciale base sur la robustesse et
l’efficacité des méthodes d’extraction des descripteurs a utilisées.
Le but de ce chapitre est de présenter tous d’abord l’architecture de notre système.
Ensuite, les méthodes que nous avons utilisées pour extraire les descripteurs des images,
afin de faire la reconnaissance de visage, nous allons expliquer le principe de la méthode
KNN qui nous permet de classifier ces descripteurs. Enfin les organigrammes détaillés de
système proposés.

48
v CHAPITRE 3. DESCRIPTION GÉNÉRALE DU SYSTÈME FACIAL

3.2 Architecture du système de reconnaissance fa-


ciale
Le but de ce projet est la réalisation d‘un système de reconnaissance de visage. Pour
faire ce travail nous avons besoin de plusieurs étapes fondamentales, nous commençons
par la préparation de la base d‘images, par prétraitement des images. Pour l‘indexation
des images nous implémentons quelques variantes de la méthode LBP [Ojala et al, 1996],
qui sont CS-LBP [Heik-kila ,2009], LTP [Tan et Triggs, 2007] . Après ça nous testons le
comportement de notre système grâce à la technique d’apprentissage supervisé en utilisant
l‘algorithme KNN. En effet, l’architecture générale de notre système « FaceRecognition »
se compose de trois étapes principales 3.1 :

3.2.1 phase de prétraitement

C’est l’étape où nous changeons les dimensions de la matrice d’image importé soit
d’un dispositif de capture (une caméra par exemple) soit à partir d’un dossier d’image
facial (une base de données). Ensuite, nous convertissons cette image en image de niveau
de gris (généralement codé sur 8 bit).

3.2.2 phase d’indexation

C’est l’étape où nous prenons l’image déjà préparés et faisons un calcul des descrip-
teurs selon une des trois méthodes qu’on a utilisé (LBP, CS-LBP et LTP). Enfin, nous
faisons simplement une sauvegarde de ces descripteurs dans une base de données locale
pour une utilisation ultérieure.

3.2.3 phase de reconnaissance

Pour tester la pertinence de notre système de reconnaissance de visage et l‘efficacité


des méthodes d‘indexations nous avons besoin d‘une phase de classification se fait par
l‘algorithme KNN.

G49H
v CHAPITRE 3. DESCRIPTION GÉNÉRALE DU SYSTÈME FACIAL

Ce dernier utilise deux paramètres pour trouver la classe de la requête le nombre des
voisins K et la fonction de similarité, il compare le nouvel exemple avec les exemples déjà
classés et il affecte la requête à la classe majoritaire. Pour chaque requête il conserve la
classe originale, la classe trouvée et la valeur de K dans un fichier.

Figure 3.1 – Architecture du système de reconnaissance faciale.

3.3 Les méthodes d’indexation utilisées


Pour indexer les images de la base de données des visages, nous utilisons l‘indexation
par le contenu, nous choisissions d‘implémenter quelques variantes de méthode LBP
comme des descripteurs de texture et l‘histogramme CS comme un descripteur de l‘image
LBP obtenu, LTP.

G50H
v CHAPITRE 3. DESCRIPTION GÉNÉRALE DU SYSTÈME FACIAL

3.3.1 La méthode LBP

LBP de base : est un descripteur utilisé pour reconnaître des textures ou pour la
détection d‘objet dans les images. Il consiste à attribuer à chaque pixel P de l’image I(i,
j) à analyser, une valeur caractérisant le motif local autour de ce pixel. Ces valeurs sont
calculées en comparant le niveau de gris du pixel central P aux valeurs des niveaux de gris
des pixels voisins pour construire un code binaire, ensuite on convertie ce code binaire
pour qu‘il soit la valeur de pixel P de l‘image LBP, finalement on calcule l‘histogramme
de l‘image LBP (Voir la méthode détaillée dans chapitre 02).

3.3.2 La méthode CS-LBP

on applique la même méthode LBP classique mais on calcule l‘histogramme CS (Voir


la méthode détaillée dans chapitre 02).
Les nouvelles caractéristiques présentent dans le descripteur CS-LBP ont de nom-
breuses propriétés souhaitables telles que la tolérance aux changements d’éclairage, la
robustesse sur les zones d’image plates et la simplicité de calcul. Ils permettent également
d’appliquer un schéma de pondération plus simple [42].

3.3.3 La méthode LTP

En raison du seuil à exactement la valeur du pixel central en LBP, il tend à être


sensible au bruit, en particulier dans des régions d’image presque uniformes. Étant donné
que de nombreuses régions faciales sont relativement uniformes, il est potentiellement utile
d’améliorer la robustesse des descripteurs sous-jacents dans ces domaines.
LTP étend les codes LBP à 3, les modèles locaux Ternary. Dans lequel les niveaux
de gris dans une zone de largeur ± t autour de pixel centre ic sont quantifiés à zéro, ceux
ci-dessus sont quantifiés à +1 et ceux ci-dessous à -1, et le code LBP binaire est remplacé
par un code LTP ternaire. Ici, t est un seuil spécifié par l’utilisateur (ce qui est fixé à
5 dans notre cas) (donc les codes LTP sont plus résistants au bruit, mais ne sont plus
strictement invariables pour les transformations de niveau de gris).

G51H
v CHAPITRE 3. DESCRIPTION GÉNÉRALE DU SYSTÈME FACIAL

3.4 La phase de classification « apprentissage super-


visé »

3.4.1 Qu’est ce que l ‘apprentissage supervisée ?

L’apprentissage supervisé est une technique d’apprentissage automatique où l’on


cherche à produire automatiquement des règles à partir d’une base de données d’ap-
prentissage contenant des « exemples » (en général des cas déjà traités et validés) [44].
ces exemples sont associés une classe par un professeur ou un expert. Cet ensemble
d’exemples constitue la base d’apprentissage. Les méthodes d’apprentissage supervisé se
donnent alors comme objectif général de construire à partir de la base d’apprentissage,
des classifieurs, ou fonctions de classement. Une telle fonction permet, à partir de la
description d’un objet, de reconnaître un attribut particulier, la classe (voire la Figure
3.2).

Figure 3.2 – L’apprentissage supervisé [45].

3.4.2 Le principe de l’apprentissage supervisé

Dans le cadre supervisé, les données zi = (xi , yi )Rm × Rn sont formées d’une entrée
xi Rm et d’une cible, ou étiquette, yi Rn . Le but est alors d’apprendre une fonction :
f (xi )Rn capable de prédire la cible. La nature de la cible définit le genre de problème à
résoudre. Dans le cas où la cible est discrète, on parle alors d’un problème de classification.
Le cas le plus simple est la classification binaire, où il n’y a que deux classes à séparer.
Dans ce cas, on peut représenter les deux classes par 0 et 1 [30].

G52H
v CHAPITRE 3. DESCRIPTION GÉNÉRALE DU SYSTÈME FACIAL

3.4.3 Les méthodes d’apprentissage supervisé

Les méthodes d’apprentissage supervisé tentent de trouver un classifieur, un modèle


de prédiction ou une fonction mathématique, qui permettre d’expliquer le lien entre des
données d’entrée et les classes existantes. De nombreuses méthodes de classifieurs existent
dans la littérature [46], [47], [48], [49].Nous citons trois méthodes très populaires dans la
communauté de la théorie de l’apprentissage : k-plus proches voisins (KNN), Machine à
vecteurs de support (SVM) et la régression linéaire(RL). Les détails de ces méthodes sont
exposés dans la suite :

La méthode de Machine à vecteurs de support (SVM)

Machine à vecteurs de support SVM en anglais (Support Vector Machines, V. Vapnik,


1995), c’est une technique d’apprentissage supervisé, Elle permet d’aborder des problèmes
très divers comme le classement, la régression, la fusion,..etc. Depuis son introduction dans
le domaine de la Reconnaissance de Formes (RdF), plusieurs travaux ont pu montrer
l’efficacité de cette technique principalement en traitement d’image [50].
• Le principe de la méthode SVM :
L’idée essentielle consiste à projeter les données de l’espace d’entrée (appartenant à
des classes différentes) non linéairement séparables, dans un espace de plus grande
dimension appelé espace de caractéristiques, de façon à ce que les données de-
viennent linéairement séparables. Dans cet espace, la technique de construction de
l’hyperplan optimal est utilisée pour calculer la fonction de classement séparant
les classes telles que les vecteurs appartenant aux différentes classes se trouvent de
différents côtés de l’hyperplan.
Le but du SVM est donc de trouver une séparatrice qui minimise l’erreur de clas-
sification sur l’ensemble d’apprentissage mais qui sera également performante en
généralisation sur des données non utilisées en apprentissage. Pour cela le concept
utilisé est celui de marge (d’où le nom de séparateurs à vaste marge).
La marge est la distance quadratique moyenne entre la séparatrice et les éléments
d’apprentissage les plus proches de celle-ci appelés vecteurs de support (voir la

G53H
v CHAPITRE 3. DESCRIPTION GÉNÉRALE DU SYSTÈME FACIAL

Figure 3.3). Ces éléments sont appelés vecteurs de support car c’est uniquement
sur ces éléments de l’ensemble d’apprentissage qu’est optimisée la séparatrice [50].
Hyperplan optimal : est un Hyperplan qui classe correctement les données
(lorsque c’est possible) et qui se trouve le plus loin possible de tous les exemples,
on peut dire aussi que cet hyperplan maximise la marge.
Vecteurs de support : ce sont Les points les plus proches, qui seuls sont utilisés
pour la détermination de l’hyperplan.
La marge : est la distance entre l’hyperplan et les exemples. La marge est calculée
à partir du produit scalaire entre les vecteurs situés la frontière de chaque classe et
le vecteur unitaire normal de l’hyperplan séparateur.

Figure 3.3 – Principe de la technique SVM (hyperplan optimal, vecteurs de supports,


marge maximale) [56]. La transformation d’un problème de séparation non linéaire des
données de l’espace d’entrée (a) vers un problème de séparation linéaire dans un espace de
redescription (b), La détermination d’un hyperplan de séparation optimale qui maximise
la marge dans l’espace de re-description (b) [51].

Tout classifieur a pour but de classifier un élément x, ici x = (s1 , . . . sN ) est un


vecteur de scores de dimension N, dans l’une des classes possibles. Dans notre
problème il y a deux classes, Client ou Imposteur, dont l’étiquette sera noté y avec
y = −1, 1, −1 correspondant à la classe des imposteurs et 1 à la classe des clients.
Le classifieur a donc pour but de déterminer f telle que y = f (x) [24] :
Le SVM a pour but de trouver la meilleure séparatrice linéaire (en terme de marge
maximale, c’est à dire la meilleure généralisation) dans l’espace transformée par la
fonction de noyau K , c’est à dire de déterminer le vecteur ω et la constante b tels

G54H
v CHAPITRE 3. DESCRIPTION GÉNÉRALE DU SYSTÈME FACIAL

que la séparatrice ait pour équation :

ω.k(x) + b = 0 (3.1)

La distance entre un point de l’espace xi et l’hyperplan d’équation 3.1 est égal à :

ω.k(xi ) + b
h(xi ) = (3.2)
kωk

Pour maximiser la marge, il faut donc minimiser ‖w‖ tout en maximisant ω.k(xi )+b
pour les xi définis comme vecteurs de support. Ces vecteurs de supports sont les xi
pour i = 1 : m de la base d’apprentissage tels que ω.k(xi ) + b = ±1.
La résolution de ce problème d’optimisation est faite par l’utilisation des multipli-
cateurs de Lagrange où le Lagrangien est donné par :

1 M
l(ω, b, α) = k ω k2 − αi (yi (ω.k(xi ) + b − 1)) (3.3)
X
2 i=1

Avec les coefficients αi appelés multiplicateurs de Lagrange. Pour résoudre ce pro-


blème d’optimisation, il faut minimiser le Lagrangien par rapport à ω et b et le
maximiser par rapport à α.
Dans la pratique, il est souvent impossible de trouver une séparatrice linéaire (même
dans l’espace transformé par la fonction noyau) car il y a toujours des erreurs de
classification. Il a donc été introduit par Vapnik la technique de marge souple.
Ce principe de marge souple tolère les mauvais classements par l’introduction de
variables ressorts qui permettent de relâcher les contraintes sur les éléments d’ap-
prentissage qui ne doivent plus être à une distance supérieure ou égale à 1 de la
marge (l’égalité correspondant aux vecteurs de support),mais à une distance supé-
rieure ou égale à 1 − ξi , c’est à dire [50] :

yi (ω, k(xi )) + b ≥ ξi (3.4)

G55H
v CHAPITRE 3. DESCRIPTION GÉNÉRALE DU SYSTÈME FACIAL

Avec ξi ≥ 0 pour i = 1 : M, M étant le nombre d’éléments de la base d’apprentis-


sage. Le problème d’optimisation est donc modifié et le Lagrangien devient :

1 M M
l(ω, b, α) = k ω k2 +C αi (yi (ω.k(xi ) + b − 1)) (3.5)
X X
ξi −
2 i=1 i=1

Où C est une constante strictement positive qui permet de régler le compromis entre
le nombre d’erreurs de classification et la largeur de la marge. Cette constante est
en général déterminée empiriquement par validation croisée sur l’ensemble d’ap-
prentissage.

Régression linéaire (LR)

La régression linéaire (LR) est un modèle qui est utilisé comme méthode de référence
pour poser la normalisation [52].
• Principe de la méthode LR :
Le modèle de régression le plus répandu et le plus important dans la pratique
est le modèle linéaire (dépendance linéaire entre Y et les variables explicatives).
Rappelons que dans le cas de la régression linéaire simple, c’est-à-dire avec une
unique variable explicative X (p=1), le modèle recherché est de la forme [48] :

Y = α + βX + ε (3.6)

Le problème est d’estimer α,β ainsi que la variance du résidu ε. Cette estimation se
fait sur l’échantillon d’apprentissage en utilisant la méthode des moindres carrés.
La régression linéaire multiple généralise la régression linéaire simple, et sa pratique
reste assez délicate. L’objectif d’un modèle de régression linéaire multiple est de
trouver l’hyperplan qui ajuste au mieux le nuage de points constitué par les valeurs
des exemples pour toutes les variables (X1 , . . . , Xp et Y). Par conséquent le modèle
va chercher les coefficients de l’équation tels que le carré des écarts des points à
l’hyperplan soit minimal, c’est toujours le critère des moindres carrés qui est utilisé.
Les méthodes de régression sont très utilisées en matière de prédiction, mais leur

G56H
v CHAPITRE 3. DESCRIPTION GÉNÉRALE DU SYSTÈME FACIAL

particularité est que toutes les variables sont quantitatives continues. Une exten-
sion à des variables explicatives qualitatives est possible, mais la variable expliquée
Y reste quant à elle toujours quantitative. Dans le cadre d’un problème de Recon-
naissance de Formes, le nombre de classes est fini, ce qui correspond à une variable
expliquée Y qualitative, cette situation non prise en compte par la régression est
traitée par l’analyse discriminante [45].

La méthode k plus proches voisins (KNN) (utilisée)

L’algorithme des k plus proches voisins K-PPV en anglais (KNN, k nearest neigh-
bours) permet de classifier un échantillon inconnu en comparant simplement la distance
euclidienne (ou autre paradigme) entre cet échantillon et les échantillons connus dans
l’espace de description [53].
• Principe de la méthode KNN :
C’est une approche très simple et directe. Elle ne nécessite pas d’apprentissage mais
simplement le stockage des données d’apprentissage.
Son principe est le suivant :
Une donnée de classe inconnue est comparée à toutes les données stockées. On
choisit pour la nouvelle donnée la classe majoritaire parmi ses K plus proches
voisins (Elle peut donc être lourde pour des grandes bases de données) au sens
d’une distance choisie [54].
Calcule de distance :
Afin de trouver les K plus proches d’une donnée à classer, on peut choisir la distance
euclidienne. Soient deux données représentées par deux vecteurs xi et xj , la distance
entre ces deux données est donnée par [54] :
v
u d
d(xi , xj ) = (x − xjk )2 (3.7)
uX
t
ik
k=1

Algorithme des k plus proches voisins (KNN) :


Voici l’algorithme de KNN [55] :

1. Choix d’un entier k : 1 ≥ k ≥ n.

G57H
v CHAPITRE 3. DESCRIPTION GÉNÉRALE DU SYSTÈME FACIAL

2. Calculer les distances : d(xi , xj ).

3. Retenir les k observations x(1), . . . , x(k) pour lesquelles ces distances sont les
plus petites.

4. Compter les nombres de fois k1 ; · · · ; km que ces k observations apparaissent


dans chacune des classes.

La Figure 3.4 présente un exemple visuel de l’algorithme des k-plus proches voisins.

Figure 3.4 – Illustration de la classification par la méthode des k-plus proches voisins [51].

Considérant une base de données de 18 éléments de deux classes : cercles et carrés,


un nouvel élément étoile est attribué à la classe des cercles si on considère la valeur
de k = 3, parce que ses trois plus proche voisins sont constitués de deux cercles
et d’un carré. Par contre, si on considère ses k = 7 voisins„ le nouvel élément est
attribué à la classe des carrés car ses 7 premiers voisins sont constitués de 4 carrés
pour 3 cercles [51].

G58H
v CHAPITRE 3. DESCRIPTION GÉNÉRALE DU SYSTÈME FACIAL

3.5 Organigramme détaillé de système proposé


Notre organigramme se divise en trois parties : la première est le prétraitement suivi
de la phase d’indexation et se termine par la phase d’identification :

3.5.1 Organigramme du prétraitement

Figure 3.5 – Organigramme de prétraitements.

G59H
v CHAPITRE 3. DESCRIPTION GÉNÉRALE DU SYSTÈME FACIAL

3.5.2 Organigramme de la phase d’indexation

Figure 3.6 – Organigramme de la phase d’indexation.

G60H
v CHAPITRE 3. DESCRIPTION GÉNÉRALE DU SYSTÈME FACIAL

3.5.3 Organigramme de la phase d’identification

Figure 3.7 – Organigramme de la phase d’identification.

3.6 Conclusion
Ce chapitre a été consacré à la présentation des méthodes de reconnaissance faciale
utilisée dans notre système qui basée sur l’utilisation des descripteurs (LBP, CS-LBP et
LTP) et le classifier avec KNN gras à obtenir des meilleurs résultats.
Dans le chapitre suivant, nous testerons le système dans son environnement afin
d’évaluer ses performances pour en déduire les paramètres optimaux qui garantissent
une meilleure efficacité du système.

G61H
CHAPITRE 4

IMPLÉMENTATION ET TESTS

4.1 Introduction
Plusieurs bases de données contenant des informations qui permettent l’évaluation des
systèmes de reconnaissance de visages sont disponibles sur le marché. Toutefois, ces bases
de données sont généralement adaptées pour évaluer l’efficacité des méthodes décrites
dans le chapitre 3, nous avons opté pour une validation sur des bases de données standard
« GIT » et « FEI ».
Dans ce chapitre nous allons présenter notre application sous MATLAB et les résultats
obtenus avant le test de système dans son environnement afin d’évaluer une meilleure
efficacité.

62
v CHAPITRE 4. IMPLÉMENTATION ET TESTS

4.2 Langage de programmation utilisé


Nous avons eu recours lors de l’élaboration de notre système à MATLAB (R2014a)
que nous présenterons ci-dessous, Matlab est un environnement de calcul scientifique et
de visualisation de données qui existe depuis plus de dix ans [56]. Il est développé par la
société « The MathWorks Inc. », son nom vient de MATrix LABoratory [57].

4.2.1 Caractéristique de MATLAB (R2014a)

Parmi les caractéristiques de MATLAB [57] :


• Son langage de haut niveau, doté notamment de structures de contrôles, fonc-
tions d’entrée-sortie et de visualisation 2D et 3D, outils de construction d’interface
utilisateur graphique (GUI).
• Les capacités de MATLAB peuvent en outre être enrichies par des fonctions plus
spécialisées regroupées au sein de dizaines de toolboxes (boîtes à outils qui sont des
collections de M-files) couvrant des domaines nombreux et variés tels que :
– Analyse de données, analyse numérique,
– statistiques,
– traitement d’image, cartographie,
– traitement de signaux et du son en particulier,
– acquisition de données et contrôle de processus (gestion ports série/parallèle,
cartes d’acquisition, réseau TCP ou UDP), instrumentation,
– logique floue,
– Finance.
– ...etc.

G63H
v CHAPITRE 4. IMPLÉMENTATION ET TESTS

4.3 Les bases d’images utilisées


Plusieurs bases de données contenant des informations qui permettent l’évaluation des
Systèmes de reconnaissance de visages sont disponibles. Toutefois, ces bases de données
sont généralement adaptées aux besoins de quelques algorithmes spécifiques de reconnais-
sance, chacune d’elle a été construite avec des conditions d’acquisition d’images de visages
diverse (changements d’illumination, de pose, d’expressions faciales), ainsi que le nombre
de sessions pour chaque individu. Nous allons utiliser deux bases faciales pour la phase
test de notre application :

FEI

FEI est une base de données brésilienne de visage qui contient un ensemble d’images
de visage prises entre juin 2005 et mars 2006 au laboratoire d’intelligence artificielle de
FEI dans São Bernardo font Campo, São Paulo, Brésil.
Elle contient des images de visage de 200 personnes, avec 14 images pour chacune
d’entre elles, un total de 2800 images. Toutes les images sont en couleur et prises sur un
fond blanc homogène en position frontale avec divers angles de pose de chaque personne,
s’étendant du profil aux vues frontales. La variation d’éclairage est de 10% et la résolution
de l’image est de 640x480 Pixel.
Tous les visages sont principalement représentés par les étudiants et le personnel de
FEI, entre 19 et 40 ans avec apparence, coiffure et ornement distinctifs. Le nombre de
sujets masculins et féminins est exactement le même et égal à 100. La figure 4.1 montre
quelques exemples de variations d’image à partir la base de données de visage FEI [58].

Figure 4.1 – Quelques exemples des variations d’image de FEI [58].

G64H
v CHAPITRE 4. IMPLÉMENTATION ET TESTS

GIT

GIT est une base de visage contient des images de 50 personnes prises en deux ou
trois sessions entre 06/01/99 et 15/11/99 au centre de traitement du signal et de l’image
au Georgia Institute of Technology.
Toutes les personnes dans la base de données sont représentées par 15 images JPEG
couleur avec un fond encombré pris lors de la résolution 640x480 pixels.
La taille moyenne des visages dans ces images est de 150x150 pixels. Les images
montrent frontale Et / ou des visages inclinés avec différentes expressions faciales, condi-
tions d’éclairage et échelle. Chaque image est étiquetée manuellement pour déterminer
la position du visage dans l’[Link] figure 4.2 montre quelques exemples de différents
objets et classes de l’ensemble de données GIT [59].

Figure 4.2 – Exemple de différents objets et classes de l’ensemble de données GIT [59].

G65H
v CHAPITRE 4. IMPLÉMENTATION ET TESTS

4.4 Description des méthodes principales


Dans ce qui suit, nous essayons de donner les algorithmes en Matlab des méthodes
les plus importants de notre application :

4.4.1 Phase de prétraitement

Ce module contient les procédures de transformation l’image couleur en niveaux de


gris et le redimensionnement d’image. On peut utiliser directement la fonction rgb2gray
disponible en Matlab pour convertir l’image niveau de gris :
img=rgb2gray(img),où img : c’est l’image en couleur ;

4.4.2 Phase d’indexation

Dans la phase d’indexation, nous avons implémenter trois fonctions principales LBP
et CS-LBP et LTP, le pseudo code de ces trois méthodes est décrit au-dessous :

L’algorithme de LBP

La fonction histo crée un vecteur de caractéristique de taille [1×256] et retourne


comme résultat l’histogramme de LBP :

G66H
v CHAPITRE 4. IMPLÉMENTATION ET TESTS

G67H
v CHAPITRE 4. IMPLÉMENTATION ET TESTS

L’algorithme de CS-LBP

La fonction h prenne l’image I comme entrée et retourne comme résultat l’histo-


gramme de caractéristiques CS-LBP :

G68H
v CHAPITRE 4. IMPLÉMENTATION ET TESTS

L’algorithme de LTP

La fonction de LTP :

G69H
v CHAPITRE 4. IMPLÉMENTATION ET TESTS

G70H
v CHAPITRE 4. IMPLÉMENTATION ET TESTS

4.4.3 Phase de reconnaissance

L’algorithme de KNN

La fonction au dessous « kNearestNeighbors” décrit la méthode d’apprentissage sup-


pervisé k - nearest neighbors (KNN), afin de trouver les K plus proches vecteurs à une
requête donnée parmi un ensemble de vecteurs numériques, cette fonction basée sur la
distance euclidienne (voir Chapitre 03 équation 3.7) :

G71H
v CHAPITRE 4. IMPLÉMENTATION ET TESTS

G72H
v CHAPITRE 4. IMPLÉMENTATION ET TESTS

4.5 Les interfaces de l’application


On présente dans cette section les différents aspects du notre système de reconnais-
sance :

4.5.1 Interface principale

C’est une interface simple telle qu’elle apparait lors du lancement de l’application
depuis MATLAB. C’est la fenêtre à partir de laquelle on choisir un de deux boutons, le
bouton ADMINISTRATOR permettant de passer à la fenêtre admin, et un bouton USER
pour passer à la fenêtre user, la figure 4.3 montre cette fenêtre :

Figure 4.3 – Interface principale.

G73H
v CHAPITRE 4. IMPLÉMENTATION ET TESTS

4.5.2 Interface login

Si nous allons choisir le bouton ADMINISTRATOR la fenêtre d’authentification login


est affichée et l’administrateur est obligé de metre son nom et mode de passe pour accéder
à l’interface avec les privélèges admin la Figure 4.4 montre la fenétre login :

Figure 4.4 – Interface login.

4.5.3 Interface admin

Après avoir s’authentifier, la fenêtre admin s’ouvrera, la figure 4.5 montre cette fe-
nêtre :
• permet de charger l’image depuis la camera ou, à partir une base facial(FEI,GIT
par exemple).
• faire indexer les images importées, avec les 3 méthodes LBP ,CS-LBP,LTP.
• afficher l’ensemble des images déjà indexer selon chaque classe.

G74H
v CHAPITRE 4. IMPLÉMENTATION ET TESTS

Figure 4.5 – Interface admin

4.5.4 Interface camera

Cette interface affichée après le choix de bouton FROM CAMERA pour importer des
images, la figure 4.5 montre cette interface :

G75H
v CHAPITRE 4. IMPLÉMENTATION ET TESTS

Figure 4.6 – Interface camera.

4.5.5 Interface user

Si nous allons choisir le bouton user à partir de l’interface principal, la fenêtre user
4.7 va être affichée qui permet à :
• charger une image pour le test d’identification.
• trouver les k images proches a l’image importé en utilisant une des trois méthodes,
LBP , CS-LBP et LTP.

G76H
v CHAPITRE 4. IMPLÉMENTATION ET TESTS

Figure 4.7 – Interface user

Voici l’exemple de test de notre application 4.8 qui montre un résultat positive en
utilisant la méthode LBP, nous voyons que l’image retrouvé à la droite est identique à la
même personne chercher dans la figure à gauche, avec une distance très proche à 1 0.89.

G77H
v CHAPITRE 4. IMPLÉMENTATION ET TESTS

Figure 4.8 – exemple de test.

Mais ici 4.9 c’est le cas d’échéance de test en utilisant la même méthode lbp ,car nous
voyons que l’image entré a gauche est totalement différente a celle retrouvé dans la figure
droite par le système ,et la distance est un peu loin du 1 .

Figure 4.9 – exemple de test.

G78H
v CHAPITRE 4. IMPLÉMENTATION ET TESTS

4.6 Tests et évaluation


Afin de développer une application de reconnaissance de visage, il est nécessaire de
disposer des bases de données pour tester les techniques et déterminer leurs performances.
Nous avons choisir deux bases « FEI » et « GIT », dans les séries de tests que nous avons
effectué les base a été scindée de la façon suivante : (images d’indexation et images test).

4.6.1 Test de taux de reconnaissance (accuracy)

Le rôle de cette phase est de faire une comparaison entre les méthodes d‘indexation
utilisées dans ce projet en termes de pertinence des résultats. Nous avons suivi un protocole
de test basé sur la mesure de taux de reconnaissance :
Accuracy = nbrimReconnues/nbrimTEST
Tel que :
nbrimReconnues = nombre d’image de teste reconnues.
nbrimTEST = nombre totale d’image de teste.

Test pour la base FEI

Le tableau représente comment nous allons scindée la base FEI à partir de 1400
image :

nbrimTEST 50 100 150 200


nbrimIndexation 1350 1300 1250 1200

nbrimIndexation = le nombre totale des images de la base −nbrimTEST


Le tableau 4.1illustre les valeurs des différents test d’accuracy du système de recon-
naissance de visages à partir de déférentes méthodes :

nbrimTEST 50 100 150 200


Accuracy LBP 0,66 0,58 0,586 0,655
Accuracy CS-LBP 0,58 0,41 0,386 0,53
Accuracy LTP 0.8 0.71 0.753 0.6

Table 4.1 – Accuracy obtenus pour différentes méthodes de la base FEI.

G79H
v CHAPITRE 4. IMPLÉMENTATION ET TESTS

Figure 4.10 – Accuracy obtenus pour différentes méthodes à partir de FEI.

Selon le test des image de la base FEI, nous remarquons de la Figure4.10 que le taux
de reconnaissance obtenu par LBP est meilleur que celle de CS-LBP dans tous les cas de
test et LTP meilleur que celle de LBP dans les trois premier test 50, 100 et 150 , donc
nous allons déduire que LTP est plus efficace avec la base FEI .

Test pour la base GIT

Le tableau représente comment nous allons scindée la base GIT à partir de 700 image :

nbrimTEST 50 100 150 200


nbrimIndexation 650 600 550 500

Le tableau 4.4illustre les valeurs des différents test d’accuracy du système de recon-
naissance de visages à partir différentes méthodes :

nbrimTEST 50 100 150 200


Accuracy LBP 0,8 0,85 0,913 0,87
Accuracy CS-LBP 0,82 0,87 0,893 0,89
Accuracy LTP 0.88 0.88 0.953 0.925

Table 4.2 – Accuracy obtenus pour différentes méthodes de la base GIT.

G80H
v CHAPITRE 4. IMPLÉMENTATION ET TESTS

Figure 4.11 – Accuracy obtenus pour différentes méthodes à partir de GIT.

Nous observons dans Figure 4.11 que les descripteurs LBP, CS-LBP et LTP sont les
plus pertinents pour tous les nombres de requêtes, ils restent toujours stables, et le taux
de reconnaissance en utilisant la méthode est meilleur dans tous les cas de test 50, 100,
150 et 200 de la base GIT.

4.6.2 Test de taux d’erreur (erreur)

Dans le but d’évaluer le taux d’erreur de différents algorithmes présenté, en suivant


un protocole de test basé sur la mesure de taux de reconnaissance :
Erreur = nbrimNonReconnues/nbrimTEST
Tel que :
nbrimNonReconnues = nombre d’image de teste non reconnues=nbrimTEST - nbrim-
Reconnues.
nbrimTEST = nombre totale d’image de teste.

G81H
v CHAPITRE 4. IMPLÉMENTATION ET TESTS

Test pour la base FEI

Le tableau 4.3 illustre les valeurs des différents test d’Erreur du système de recon-
naissance de visages à partir différentes méthodes :

nbrimTEST 50 100 150 200


Erreur LBP 0,34 0,42 0,413 0,345
Erreur CS-LBP 0,42 0,59 0,613 0,47
Erreur LTP 0.2 0.29 0.246 0.4

Table 4.3 – Erreur obtenus pour différentes méthodes de la base FEI.

Figure 4.12 – Erreur obtenus pour différentes méthodes à partir de FEI.

Nous remarquons à partir de Figure 4.12 que le taux d’erreur augmente avec l’aug-
mentation de nombre des images de test, et malgré tous cela, la méthode LTP présente
un taux d’erreur petit par rapport à celui de LBP et CS-LBP, ce qui montre que LTP est
plus robuste aux erreurs avec la base FEI.

Test pour la base GIT

Le tableau 4.4illustre les valeurs des différents test d’Erreur du système de reconnais-
sance de visages à partir différentes méthodes :

G82H
v CHAPITRE 4. IMPLÉMENTATION ET TESTS

nbrimTEST 50 100 150 200


Erreur LBP 0,2 0,15 0,086 0,13
Erreur CS-LBP 0,18 0,13 0,106 0,11
Erreur LTP 0.12 0.12 0.046 0.075

Table 4.4 – Erreur obtenus pour différentes méthodes de la base GIT.

Figure 4.13 – Erreur obtenus pour différentes méthodes à partir de GIT.

La Figure 4.13 montre clairement en utilisant la base GIT, que la méthode LTP donne
un taux d’erreur plus petit par rapport à la méthode LBP et CS-LBP, il arrive à 0.075
avec 500 images de test, tout cela indique que la méthode LTP reste robuste même si
nous augmentons dans le nombre des images de tests.

4.6.3 Test de k voisin

Nous allons prendre 50 images comme image de test à partir des bases, ou k est le
nombre des images les plus proches aux images de tests « requêtes» :

Test pour la base FEI

Le tableau 4.5 illustre les valeurs de K voisin du système de reconnaissance de visages


à partir de la base FEI :

G83H
v CHAPITRE 4. IMPLÉMENTATION ET TESTS

K 1 2 3 4 6 8 10
LBP 33 41 35 32 33 37 24
CS-LBP 29 42 37 29 31 34 20
LTP 40 40 36 35 30 29 26

Table 4.5 – Image obtenus pour différentes K de la base FEI.

Figure 4.14 – Test de k voisin à partir de FEI.

Nous remarquons dans Figure 4.14 en utilisant la base FEI, que la méthode LTP
est la plus pertinente, elle a un taux de reconnaissance stable quelque soit le nombre de
requêtes K, puis on trouve LBP et CS-LBP.

Test pour la base GIT

Le tableau 4.6 illustre les valeurs de K voisin du système de reconnaissance de visages


à partir de la base GIF :

K 1 2 3 4 6 8 10
LBP 40 45 44 41 33 41 38
CS-LBP 41 46 45 38 31 38 33
LTP 44 46 45 46 41 42 40

Table 4.6 – Image obtenus pour différentes K de la base GIT.

G84H
v CHAPITRE 4. IMPLÉMENTATION ET TESTS

Figure 4.15 – Test de k voisin à partir de GIT.

Avec la base GIT , tous les méthodes sont presque, pareils ,nous voyons pas de grande
différences entre les 3 méthodes utilisées .

4.7 Conclusion
Nous pouvons dire que notre implémentation est fonctionnelle et les résultats obtenus
sont satisfaisantes.
Dans ce chapitre, nous avons présenté une application de reconnaissance faciale basée
sur les algorithmes LBP, CS-LBP, LTP on a présenté aussi les différents résultats obtenus
pour chaque algorithme. Notre système de reconnaissance de visages « face recognition
», est appliquée sur deux bases de donné de visages GIF et FEI. Pour conclure, Nous
pouvons noter que LTP est la plus efficace que LBP et CS-LBP dans certain cas de tests
que nous avons fait.

G85H
CONCLUSION GÉNÉRALE

L’identification biométrique consiste à identifier une personne au moyen de l’une de


ses caractéristiques physiques : voix, empreintes digitales, visage, iris. Toutefois, un tel
processus n’est pas infaillible et une personne mal intentionnée peut parvenir à contourner
le processus d’identification.
Afin de pallier un tel inconvénient, on a utilisé plusieurs caractéristiques pour iden-
tifier chaque personne, nous avons utilisé trois méthodes pour indexer les images de ces
personnes, la première méthode utilisé c’est LBP (local binary pattern), elle est forte,
et robuste au changement de lumière, mais son vecteur descripteur est un peu long de
taille 256 , aussi y a la méthode CS-LBP qui est développé au début pour la description
des région d’intérêt, et présente une grande stabilité dans les région plats d’images, le
flou dans l’image ainsi de suite, son vecteur descripteur est de taille 16, cette taille peux
réduire le temps d’exécution, ces deux méthodes produits des résultats proches et par-
fois les même, elles sont aussi sensible contre le bruit dans des régions d’image uniforme,
afin de résoudre ces deux problèmes, nous avons utilisé LTP, cette dernière donne aussi
une meilleur précision. pour faire la reconnaissance des visages, nous avons basé sur la
méthode la plus utilisé dans le domaine de classification, qui s’appelle KNN (k nearest
neighbors) qui sert a trouvé les k plus proches voisins à un point définit, (dans notre cas
des descripteurs de visages).
D’après avoir fait certains test, les résultats, présente que les méthodes LTP est mieux,

86
v CHAPITRE 4. IMPLÉMENTATION ET TESTS

pour le cas des images pris par camera avec des mauvaises conditions de capture, puisque
ça crée généralement le bruit et LTP fonctionne bien dans ce type de situations, par contre
les deux autres méthodes sont un peu similaire, dans leurs résultats sauf que pour CS-LBP
est plus rapide en temps de son calcule par rapport à celui de LBP. Aussi, nous avons
arrivé que la base GIT donne des résultats assez bonne, due qu’elle utilise des images prise
avec des arrière-plans plus semble qui donne un codage plus uniforme, par contre la base
FEI, puisque elle utilise une arrière-plan complètement blanc, ça crée un petit enjeux de
lumière, puisque la même image pourras être codé différemment à cause de changement
d’illumination d’une grande partie d’image même avec un petite niveau mais ça prévient
le programme a bien fonctionné.
En effet, ce projet nous a permis de découvrir plus profondément plusieurs aspects du
développement d’une application complexe. Il nous a fallu d’abord nous renseigner sur le
côté algorithmique de la reconnaissance de visage, et plus généralement de la vision par
ordinateur (computer vision), qui est un domaine vaste à la croisée des chemins entre les
mathématiques, le traitement du signal et l’intelligence artificielle.
En perspectives, dans un premier temps une extension de ce travail peut être envisagé
par l’étude et la réalisation d’un système de détection et de localisation du visage avec des
performances assez hautes, une autre consiste à appliquer ce système sur d’autres bases de
visages présentant de fortes variations dans l’éclairage et de la pose ainsi que d’envisager
la possibilité d’employer une approche basée sur les éléments locale du visage. Ensuite, un
des grands challenges serait de pouvoir mieux maîtriser les variations d’environnement,
qui perturbent encore trop les systèmes de reconnaissance, Les dernières avancées de la
technologie de capture 3D des images de visage ont permis de mettre en place des systèmes
de reconnaissance assez robustes par rapport à la 2D.

G87H
BIBLIOGRAPHIE

[1] A. J. Goldstein, L. D. Harmon and A. B. Lesk, « Identification of Humman Faces»,


Proceedings of the IEEE , Volume : 59, Issue : 5, Page(s) : 748 – 760,May 1971.

[2] L. Sirovich and M. Kirby, « A Low -Dimensional Procedure for the Characterization
of Human Faces», Journal of the Optical Society of America A, Volume : 4, Issue :
3, Page(s) : 559-524, 1987.

[3] M. A. Turk and A. P. Pentland, «Face Recognition Using Eigenfaces», Proceedings


of the IEEE, Page(s) : 586-591, 1991.

[4] National Science and Technology Concil (NSTC), Comittee on Technology, «Face-
Recongnition», 7 Aout 2006.

[5] Anil. [Link], P. Flynn, [Link], « Handbook of biometrics »,Springer, 2007.

[6] Anil. [Link], R. Bolle, And S. Pankanti, «biometrics : Personal Identification In


Networked Society», Kluwer Academic Publishers, 1999.

[7] G. Roethenbaugh. «An Introduction to Biometrics and General History», Biometrics


Explained, Section 1, 1998.

[8] Pierre Royer, «Identification et authentification Bionumériques», Dossier d’architec-


ture, 2003.

[9] BETAOUAF Talib Hicham, « Caractérisation de la rétine pour la reconnaissance


biométrique des personnes », thèse de magistère, université de Tlemcen, 2011.

88
v BIBLIOGRAPHIE

[10] M. Donias, « Caractérisation de Champs d’Orientation par Analyse en Composantes


Principales et Estimation de la Courbure : Application aux Images Sismiques », Thèse
de doctorat, Université Bordeaux I, France, Janvier 1999.

[11] R. A. Fisher, « The use of multiple measurements in taxonomic problems », Annals


of Eugenics, Volume : 7, Issue : 5, Page(s) : 179-188,1936.

[12] Nicolas Morizet, Thomas EA, Florence Rossant, Frédéric Amiel et Amara Amara ,
«Revue des algorithmes PCA, LDA et EBGM utilisés en reconnaissance 2D du visage
pour la biométrie», Institut Supérieur d’Electronique de Paris (ISEP), département
d’Electronique, 2006.

[13] R. O. Duda, P. E. Hart, « Pattern Classification and Scene Analysis », John Wiley
and Sons, New York, 1973.

[14] Bettahar Abdessettar et Saber Fathi, « Extraction des caractéristiques pour l’analyse
biométrique d’un visage », Mémoire Master Académique, Domaine : Mathématique
et Informatique, Filière : Informatique ,Spécialité : Informatique Fondamentale, Uni-
versité Kasdi Merbah Ouargla ,15 / 06 / 2014.

[15] T. W. S. Chow, G. Fei, « Three phase induction machines asymmetrical faults iden-
tification using bispectrum » IEEE Transactions on Energy Conversion, Vol. 10,
Volume : 10, Issue : 4, Page(s) : 688-693, December 1995.

[16] Mohammed Demri, « Multimodal Evolutionary Techniques Biometric Fusion Using»,


Mémoire Présenté pour l’obtention du diplôme de Magister en Informatique, Option :
Intelligence Artificielle et Aide à la Décision , Université Aboubakr Belkaïd Tlemcen
,Faculté des Sciences ,Département d’informatique ,June 2012.

[17] http ://[Link]/ peyre/cours/x2005signal/13 :07,12/04/2012.

[18] Ouamane Abdelmalik et Mehdaoui Abdelghaffar, «identification et authentification


des visages en biométrie», Mémoire de Fin d’Etudes, en vue de la préparation du di-
plôme : INGENIEUR, Département de Génie Electrique, Université Mohamed Keider
Biskra, 2009.

[19] Ouamane AbdElmalik, «Etude de la fusion de modalités pour l’authentification en


biométrie (visage, voix)», Mémoire de Fin d’Etudes, en vue de la préparation du di-

G89H
v BIBLIOGRAPHIE

plôme : MAGISTER, Département de Génie Electrique Université Mohamed Keider


Biskra, 2011.

[20] Adjout Mohamed et Benaissa Abdelhak, «Fusion de la DCT-PCA et la DCT-LDA


appliquée à la reconnaissance de visages», Institut National de formation en Infor-
matique (I.N.I), Oued-smar Alger, 2007.

[21] R. Hietmeyer. «Biometric identification promises fast and secure processing of airline
passengers», The International Civil Aviation Organization Journal, Volume : 17,
Issue : 9, Page(s) : 10–11, 2000.

[22] DIB Soumeya, « identification des induvidus par les techniques multimodales : ap-
plication sur les images du visage », Pour l’obtention du diplôme de magister en
informatique, FACULTE DES MATHEMATIQUES ET D’INFORMATIQUE DE-
PARTEMENT D’INFORMATIQUE, UNIVERSITE DES SCIENCES ET DE LA
THECHNOLOGIE D ‘ORAN MOHAMED BOUDIAF,2014 / 2015.

[23] Souhila Guerfi Ababsa, « Authentification d’individus par reconnaissance de carac-


téristiques biométriques liées aux visages 2D/3D », Docteur de l’Université Evry Val
d’Essonne Spécialité : Sciences de l’Ingénieur, UNIVERSITE D’EVRY VAL D’ES-
SONNE, 2008.

[24] DJEDI Sara, « Etude comparative de PCA et KPCA associées au SVM en biométrie
», Mémoire de Fin d’Etudes En vue de l’obtention du diplôme : MASTER, Départe-
ment de Génie Electrique, Filière : Electronique Option : Télécommunication, 2012.

[25] http ://[Link]/biometrie/le-marche.

[26] Nicolas MORIZET, « Reconnaissance Biométrique par Fusion Multimodale du Vi-


sage et de l’Iris », Thèse de doctorat, l’école Nationale Supérieure des Télécommuni-
cations (Paris), 2009.

[27] V. PERLIBAKAS, «Face recognition using Principal Component Analysis and Log-
Gabor Filters», March 2005.

[28] K. Etemad, R. Chellappa, « Discriminant Analysis for Recognition of Human Face


images», Journal of the Optical Society of America A, Volume : 14, Page(s) : 1724-
1733 ,August 1997.

G90H
v BIBLIOGRAPHIE

[29] Kévin Bailly, « Méthodes d’apprentissage pour l’estimation de la pose de la tête dans
des images monoculaires », Interface homme-machine [[Link]], Université Pierre et
Marie Curie - Paris VI,2010.

[30] Philippe Hamel, « Apprentissage de représentations musicales à l’aide d’architectures


profondes et Multiéchelles », Département d’informatique et de recherche opération-
nelle Faculté des arts et des sciences, Thèse de Doctora en informatique, Université
de Montréal, 2012.

[31] T. Ojala, M. Pietikainen, and T. Maenpaa, «Multiresolution gray-scale and rotation


invariant texture classication with local binary patterns», IEEE Trans. Page(s) : 971-
987, 2002.

[32] Amal Aissaoui, « Reconnaissance Bimodale de visages par Fusion de Caractéristique


Visuelles et de Profondeur», thèse de doctorat ,université des science et technologies
de lille ,informatique,23 juin 2014.

[33] Heikkil’a, [Link]’ainen, [Link], «Description of interest regions with center-


symmetric local binary patterns », In Computer Vision, Graphics and Image Proces-
sing, Page(s) : 58-69, Springer Berlin Heidelberg,2006.

[34] Hanane Rami, « Contribution au développement de descripteurs LBP pour le suivi


d’objet en mouvement », THÈSE DE DOCTORAT, Discipline : Physique, Spécialité :
Electronique, Imagerie et Vision, 30 Avril 2016.

[35] Alhayat Ali Mekonnen, Frédéric Lerasle, Ariane Herbulot, Cyril Briand, « Détection
de personnes par apprentissage de descripteurs hétérogènes sous des considérations
CPU », Reconnaissance de Formes et Intelligence Artificielle (RFIA), Rouen, France,
2014.

[36] Moulay Abdellatif Akhloufi, « Reconnaissance Des Visages Par Imagerie Multi spec-
trale Du visible à l’infrarouge lointain, Thèse présentée à la Faculté des études supé-
rieures et postdoctorales de l’Université Laval, 2013.

[37] http ://[Link]/ tollaris/ARTICLES/THESE/[Link]#SE


CTION02222000000000000000

G91H
v BIBLIOGRAPHIE

[38] http ://[Link]/02/13/6979/m_Reconnaissance-de-visages-par-


[Link]

[39] Francis C. Migneault, professeur-superviseur : Éric Granger, « Évaluation de mé-


thodes de reconnaissance de visages pour l’identification d’individus à partir d’une
image de référence », Département de génie de la production automatisée, Labora-
toire d’imagerie de vision et d’intelligence artificielle École de Technologie Supérieure,
Université du Québec, Montréal, Canada,2016.

[40] Anouar Mellakh, « Reconnaissance des visages en conditions dégradées »,Thèse de


doctorat ,Département Électronique et Physique de l’Institut National des Télécom-
munications ,Université d’Evry-Val d’Essonne,07 Avril 2009 .

[41] Fedias Meriem, Combinaisons de données d’espaces couleurs et de méthodes de vé-


rification d’identité pour l’authentification de visages, Doctorat en sciences en auto-
matique, Université Mohamed Khider – Biskra.

[42] Marko Heikkil¨ a1, Matti Pietik¨ ainen1, and Cordelia Schmid2, «Description of
Interest Regions with Center-Symmetric Local Binary Patterns », Machine Vision
Group, Infotech Oulu and Department of Electrical and Information Engineering,
University of Oulu.

[43] Naresh Kumar Garg, « Binarization Techniques used for Grey Scale Images, De-
partment of Computer Science & Engineering, International Journal of Computer
Applications, page : (0975 – 8887), Volume : 71˘N o.1, June 2013.

[44] http ://[Link]/Apprentissage%20supervisé/fr-fr/

[45] Najeh NAFFAKHI, « Apprentissage supervisé pour la classification des images à


l’aide de l’algèbre P-tree », Diplôme des études approfondies en informatique appli-
quée à la gestion, Université de Tunis Institut Supérieur de Gestion de Tunis, Février
2004.

[46] T. Hastie, R. Tibshirani, and J. Friedman, «The elements of statistical learning »,


Second edition, Springer, 2009.

G92H
v BIBLIOGRAPHIE

[47] K. Beyer, J. Goldstein, R. Ramakrishnan, and U. Shaft, « When is "nearest


neighbor" meaningful ? », International Conference on Database Theory, Page(s) :
217–235,1999.

[48] C. Cortes and V. Vapnik, «Support vector networks», Machine Learning, Volume :
20, Page(s) : 273–297, 1995.

[49] L. Breiman, «Random forests », Machine learning, Volume : 45, Page(s) : 5–32, 2001.

[50] Ouamane Hanane, « Identification de reconnaissance faciale avec des expressions »,


Mémoire de Fin d’Etudes En vue d’obtention de diplôme Master, Université Moha-
med Khider Biskra 07 Juin 2012.

[51] Huu Giao NGUYEN, « Caractérisation et modélisation de la distribution spatiale


de signatures locales dans les images : application à la classification d’image sonar
de fonds marins », Thèse de Doctorat, Sous le sceau de l’Université européenne de
Bretagne, 28 Octobre 2011.

[52] NECIB Soufiane , « FUSION DE FACE 3D, COULEUR ET PROFONDEUR POUR


SRV 3D », Faculté des Sciences et de la Technologie, Université Mohamed Khider
Biskra, juin 2013.

[53] Jonathan Bouchard, « MÉTHODES DE VISION ET D’INTELLIGENCE ARTIFI-


CIELLES POUR LA RECONNAISSANCE DE SPÉCIMENS CORALLIENS », MÉ-
MOIRE PRÉSENTÉ À L’ÉCOLE DE TECHNOLOGIE SUPÉRIEURE, ÉCOLE
DE TECHNOLOGIE SUPÉRIEURE UNIVERSITÉ DU QUÉBEC ,6 AVRIL 2011.

[54] Faicel Chamroukhi, « Classification supervisée : Les K-plus proches voisins », Licence
2 Sciences Pour l’Ingénieur, Université du Sud Toulon – Var, 2012-2013.

[55] PHILIPPE BESSE & BÉATRICE LAURENT, « Apprentissage Statistique modéli-


sation, prévision, data mining », Apprentissage Statistique, nstitut de Mathématiques
de Toulouse.

[56] Mr. GHALI Ahmed, « Amélioration de la reconnaissance par le visage », diplôme de


magister, Domaine : Mathématiques Informatique, Filière : Informatique, Option :
Simulation et Intelligence Artificielle 2014-2015.

[57] http ://[Link]%20et%20Octave%20-%201.%20Notions%20de%[Link]

G93H
v BIBLIOGRAPHIE

[58] http ://[Link]/ cet/[Link]

[59] http ://[Link]/research/face_reco.htm

G94H

Vous aimerez peut-être aussi