0% ont trouvé ce document utile (0 vote)
44 vues75 pages

Python

Ce mémoire présente un projet de détection de visage utilisant des réseaux de neurones convolutifs (CNN), en mettant l'accent sur la localisation des repères faciaux. Malgré les avancées dans ce domaine, la détection de visage demeure un sujet d'étude actif, avec des améliorations continues nécessaires. Le document est structuré en cinq chapitres, abordant la biométrie, le traitement d'image, les méthodes de détection de visage, l'apprentissage en profondeur, et les résultats de l'étude.

Transféré par

Seya9a 2022
Copyright
© © All Rights Reserved
Nous prenons très au sérieux les droits relatifs au contenu. Si vous pensez qu’il s’agit de votre contenu, signalez une atteinte au droit d’auteur ici.
Formats disponibles
Téléchargez aux formats PDF, TXT ou lisez en ligne sur Scribd
0% ont trouvé ce document utile (0 vote)
44 vues75 pages

Python

Ce mémoire présente un projet de détection de visage utilisant des réseaux de neurones convolutifs (CNN), en mettant l'accent sur la localisation des repères faciaux. Malgré les avancées dans ce domaine, la détection de visage demeure un sujet d'étude actif, avec des améliorations continues nécessaires. Le document est structuré en cinq chapitres, abordant la biométrie, le traitement d'image, les méthodes de détection de visage, l'apprentissage en profondeur, et les résultats de l'étude.

Transféré par

Seya9a 2022
Copyright
© © All Rights Reserved
Nous prenons très au sérieux les droits relatifs au contenu. Si vous pensez qu’il s’agit de votre contenu, signalez une atteinte au droit d’auteur ici.
Formats disponibles
Téléchargez aux formats PDF, TXT ou lisez en ligne sur Scribd

Université Kasdi Merbah Ouargla

Faculté Des Nouvelles Technologies L’information Et De La Communication


Département d’Electronique Et De Télécommunication

Mémoire
Master Académique

Domaine : Science et Technologie


Filière : Electronique
Spécialité: Electronique des systèmes Embarqués

Présenté Par :

NAILI Tarek
LOUAZENE Abderraouf
-THEME-

Détection De Visage Par Un


Modèle CNN
Soutenue le : 14 Juin 2022

Jury :

Président : Dr. BENLAMOUDI Azeddine MCA UKM Ouargla

Rapporteur : Dr. CHERGUI Abdelhakim MAB UKM Ouargla

Examinateur : Dr. LATI Abdelhai MCB UKM Ouargla

Année Universitaire : 2021/2022


Remerciements

Nous remercions avant tout Allah le tout puissant pour son aide,

sa bénédiction et pour tout ce qu’il nous a donné

Nous remercions l’encadrant Dr CHERGUI abdelhakim qui a accepté notre charge

de travail, et nous lui exprimons en particulier à ce sujet Notre reconnaissance de

nous faire bénéficier de ses compétences scientifiques, Traits humains et

disponibilité permanente.

Nos remerciements vont également aux membres du jury,

Chacun par son nom, pour avoir accepté de faire partie du jury d’évaluation

de ce modeste travail.

Merci à tous.

I
Dédicace
Je dédie ce modeste travail
Aux deux lumières de mon chemin a mes très chère
parents qui on
largement contribué a mon éducation et a mon
enseignement
A mes frères et mes soeurs et à toute ma famille.
A mes amis pour leurs soutiens et leurs
encouragements et l’équipé Tachma Tarek , Tarek ,
Fouad , kais et Moustafa
À tous les professeurs et enseignants qui m’ont suivi
durant tout
mon cursus scolaire et qui m’ont permis de réussir dans
mes études.
A tous ceux qui m’ont aidé de prés ou de loin.

II
Sommaire
Remerciements ................................................................................................I
Dédicace… .....................................................................................................II
Sommaire… ................................................................................................. III
Liste des figures ......................................................................................... VII
Liste des tableaux ........................................................................................IX
Acronymes .................................................................................................... X
Résumé… ......................................................................................................XI
Introduction général ....................................................................................... 1

Chapitre I La Biométrie

I.1. Introduction ..................................................................................................... 2


I.2. Définition ........................................................................................................ 2
I. 3. Fonction de la biométrie ............................................................................... 2
I.4. L’architecture d’un système biométrique ....................................................... 4
I.5. Différentes modalités ...................................................................................... 5
I.6.Domaines d’application de la biométrie ......................................................... 7
I.7. Avantages et inconvénients de la biométrie ................................................... 8
I.8. Limitations des systèmes biométriques ......................................................... 8
I.9.Conclusion ....................................................................................................... 9

Chapitre II Généralité Sur Le Traitement D’Image

II.1. Introduction .................................................................................................. 10


II.2. Définition de l’image .................................................................................... 10
II.3. Acquisition d'image ...................................................................................... 11
II.4. Caractéristiques d’une Image ...................................................................... 11
II.5. Type des images .......................................................................................... 14
II.6. Amélioration d’images ................................................................................ 15
II.7. Formats de fichiers d’images ...................................................................... 15
II.8. Quelques traitements d’images..................................................................... 17
II.9. Exemples de Domaines d'Applications ........................................................ 19
II.10. Conclusion ................................................................................................. 21

III.1. Introduction ................................................................................................. 22


III
III.2. Principe détection de visage ....................................................................... 23
III.3. Évolution de la détection de visage ............................................................. 23
III.4. Méthode détection de visage ...................................................................... 24
III.5. Les problèmes dans la détection de visage ................................................. 26
III.6. Bases de données......................................................................................... 27
III.7. Conclusion................................................................................................... 29

Chapitre IV L'apprentissage en profondeur

IV.1. Introduction ................................................................................................. 30


IV.2. Définition .................................................................................................... 31
IV.3. Historique l'apprentissage en profondeur ................................................. 31
IV.4. performance de l'apprentissage en profondeur ......................................... 31
IV.5. Domaines D'application .............................................................................. 33
IV.6. Réseaux neuronaux convolutifs (CNN) ...................................................... 33
IV.7. Principe d’architecture d’un Réseaux neuronaux convolutifs (CNN) ........ 34
IV.8. Les blocs de construction ........................................................................... 34
IV.9. Choix des hyperparamétres ........................................................................ 37
IV.10. Les modèles réseaux de neurones convolutifs ......................................... 39
IV.11. L’entraînement d’un nouveau CNN ........................................................ 41
IV.12. Avantage du CNNs ................................................................................... 41
IV.13. Conclusion ................................................................................................ 42

V.1. Introduction .................................................................................................. 43


V.2. Performance de system................................................................................ 43
V.3. Base de données utilisée ............................................................................... 44
V.4. Approche proposée ....................................................................................... 44
V.5. Détecteur SSD ............................................................................................. 45
V.6. Résultats ....................................................................................................... 45
V.7. Analyse et Comparaison............................................................................... 53
V.8. Conclusion .................................................................................................... 54
IV
Conclusion Générale ........................................................................................... 55
Références ........................................................................................................... 56

V
Liste des figures
Figure I. 1: L’architecture d’un système biométrique 4
Figure I. 2 : Système biométrique basé sur l’empreinte 5
Figure I. 3 : Système biométrique basé sur l’Iris 5
Figure I. 4 : Système biométrique basé sur la main 6
Figure I. 5 : Système biométrique basé sur la voix 6
Figure I. 6 : Système biométrique basé sur la signature 6
Figure I. 7 : Système biométrique basé ADN 7
Figure II. 1 : Image numérique 10
Figure II. 2 : Acquisition Image numérique 11
Figure II. 3 : Exemple d’histogramme d’une image couleur 12
Figure II. 4 : L’effet de la résolution sur une image 13
Figure II. 5 : Les voisins d’un pixel 13
Figure II. 6 : Image à binaier 14
Figure II. 7 : Images à niveaux de gris 14
Figure II. 8 : Image par spectre r.v.b 15
Figure II. 9 : Binarisation d’une image. 17
Figure II. 10 : Image et Domaines d'Applications 20
Figure III. 1 : Images typiques pour la Détection du visage 22
Figure III. 2 : Un scénario réel de détection de visages. 23
Figure III. 3: Plusieurs pose pour le visage 26
Figure III.4: les traits du visage invisible 26
Figure III.5 : Exemple Expression faciale 26
Figure III.6 : Exemple des visages occlus par d'autres objets. 27
Figure III.7: Exemple Améliorer l'éclairage du visage 27
Figure III.8 : Exemples des photos de "People Marching" 28
Figure III. 9 : Exemples des photos de "Football" 28
Figure III. 10 : Exemples des photos de "Angler " 28
Figure III. 11 : Exemples des photos de " Funeral" 28
Figure III. 12 : Exemples des photos Bases de données de FDDB 29
Figure III. 12 : Exemples des photos "BIG" 29
Figure IV.1 : La relation entre l’intelligence artificielle, le ML et le deep 30
learning
Figure IV.2 : La différence de performance entre le l'apprentissage en 32
profondeur (deep learning)et la ML classiques fonction de la quantité de données

Figure IV.3 : Le procède du ML classique comparé à celui du Deep Learning 32

VII
Figure IV.4 : Ensemble de neurones (cercles) créant la profondeur d'une couche 35
de convolution (bleu). Ils sont liés à un même champ récepteur (rouge).
Figure IV.5 : L'opération de convolution commence par le coin supérieur gauche 35
Figure IV.6 : La deuxième opération de convolution 36
Figure IV.7 : La carte des caractéristiques du filtre donné a été complétée 36
Figure IV.8 : L'image d'entrée 4x4 pixels 36
Figure IV.9 : Les cas de pooling qui en résultent utilisent deux méthodes 37
différentes
Figure IV.10 : Exemple de max pooling (2×2). 39
Figure IV.11 : L'architecture de ResNet 39
Figure IV.12 : L'architecture de VGG16 40
Figure V.1: Exemple courbe de loss 43
Figure V.2 : Détecte visage par CNN 45
Figure V.3 : l'architecture du SSD 45
Figure V.4 : Les courbes Résultats de Expérience 1 46
Figure V.5 : Les courbes Résultats de Expérience 2 49
Figure V.6 : Les courbes Résultats de Expérience 3 50
Figure V.7: Les courbes Résultats de Expérience 4 52

VIII
Liste des tableaux

Tableau. II.1. Masque de convolution passe-bas 18


Tableau. II.2. Masque de convolution passe-haut. 18
Tableau. III.1.Tabel Des méthodes détection de visage 24

Tableau.V.1 : les résultats d’Expérience 1 46

Tableau.V.2 : les résultats d’Expérience 2 48

Tableau.V.3 : les résultats d’Expérience 3 50

Tableau.V.4 : les résultats d’Expérience 4 51

Tableau.V.5 : résume de les résultas des quatre Expériences 53

VIII
Abréviation

ADN : Acide Désoxyribo Nucléique


BMP : Windows Bit MaP
CNN: Convolutional Neural Networks
DL: Deep Learning
FDDB: Face Detection Data Set and Benchmark Home
GIF : Graphics Interchange Format
IA : Intelligence Artificielle
JPEG :Joint Photographic Expert Group
ML: Machine Learning
PIN: Personal Identification Number
PNG: Portable Network Graphic
RN : Réseaux de Neurones
RNA : Réseaux de Neurones Artificiels
RNN : Recurrent Neural Networks
ROC : Receiver Operating Characteristic
SSD: Single Shot Detector

SVM : Machine à Vecteurs de Support


TIFF :Tagged Image File Format

X
Résumé

La détection visage est actuellement un domaine en plein essor . Elle rentre petit à
petit dans nos vies au travers de nos téléphones mobiles ou de nos ordinateurs portables .
Malgré l'amélioration du taux de détection elle reste actuellement l'objet de nombreuses
études et de nombreux travaux d’approfondissement. L'objectif de notre projet sera de mettre
en œuvre un système de détection et alignement de visage pour pouvoir ultérieurement
continuer la detecter visage.

Nous vous présenterons la technique permettant la localisation des repères faciaux .Cette
technique est basée sur les réseaux de neurones Convolutive (CNN) qui sont très connus.
L'objectif du mécanisme de détection et d'alignement du visage que nous vous présenterons
est d'effectuer les opérations suivantes :
Mots clés : Détection de visage -Resnet50 -Resnet101-L’apprentissage en profondeur

Abstract

Face detection is currently a booming field. It is gradually entering our lives through
our mobile phones or our laptops. Despite the improvement in the detection rate, it currently
remains the subject of numerous studies and numerous in-depth studies. The objective of our
project will be to implement a face detection and alignment system in order to be able to
continue face detection later on.

We will present to you the technique allowing the localization of facial landmarks.
This technique is based on Convolutional Neural Networks (CNN) which are very well
known. The purpose of the face detection and alignment mechanism that we will present to
you is to perform the following operations:

Keywords: Face detection -Resnet50 -Resnet101-Deep learning

‫ملخص‬
‫ملخص‬
‫ يددل حيانادا نددريجيا ً مدل لدات نوانلادا ال أ ولده ة ةجمديو ال يدونر‬.‫مجاًل متطور‬
ً ‫يعد التعرف على الوجه حاليًا‬
‫ إًل ةنه ًل ييات حاليًدا موودوا العديدد مدل الدرا دا‬، ‫ على الرغم مل التأسل في معدت ال شف‬.‫ال أ وله الخاصه باا‬
‫ ي ون المدف مل مشر عاا نو ناليذ نظام اكتشاف الوجه ال أاذاو حتى نت ل مل‬.‫العديد مل الدرا ا ال تع قه‬
.‫متابعه اكتشاف الوجه ًلحقًا‬
.‫) ال عر فده جددًا‬CNN ‫ نستاد نذه التقايه إلدى الشد ا العيد يه التافيليده‬، ‫وف نقدم نقايه نأديد معالم الوجه‬
‫الغرض مل آليه كشف الوجه ال أاذاو التي اقدمما لك نو إجراء الع ليا التاليه‬
XI
‫كل ا ملتاحيه‪ :‬كشف الوجه‬
‫‪-Resnet50 -Resnet101-‬التعلم الع يق‬

‫‪XI‬‬
‫‪I‬‬
‫يعد‬

XI
II
Introduction générale

Au cours des dernières années, des progrès considérables ont été réalisés dans le
domaine de la détection de visage à partir des imaages. Ce progrès est dû aux nombreux
travaux dans ce domaine et à la disponibilité des bases de donnée contenant un grand nombre
d'image qui permis aux chercheurs de progresser de manière crédible dans l'exécution de leurs
approches dans ce domaine, avec la possibilité de les comparer à d'autres approches qu'ils
utilisent les mêmes bases. Dans la fin des années 1980 Yan le Cun a développé un type de
réseau particulier qui s'appelle le réseau de neurone convolutif, ces réseaux sont une forme
particulière de réseau neuronal multicouche dont l'architecture des connexions est inspirée de
celle du cortexvisuel des hêtres humain. En 2012 plusieurs événements sont soudainement
survenus.

Tout d'abord, plusieurs records de visage dans des images ont été battus par des
réseaux de neurones convolutif,. Dans notre projet on va utiliser Deep learning ( les réseaux
de neurones convolutif, ) pour la localisation des points de repères faciaux dans une image.

Pour ce faire, nous avons structuré notre mémoire en cinq chapitres Dans le premier
chapitre nous présenterons bordé des généralités sur la biométrie, Les caractéristiques des
systèmes biométriques et leurs modes de fonctionnement Le deuxième chapitre sera
présenterons nous introduisons des notions générales sur le traitement d’images, en donnant
la définition et les caractéristiques de l’image, Exemples de Domaines d'Applications et les
filtres les plus utilisées pour l’amélioration de la qualité des images. Le troisième chapitre ,
sera présenterons principe détection visage et méthode utilisé et branches possible dans ce
domaine et ses problèmes Le quatrième chapitre sera consacré à la description détaillée des
Deep learning , ainsi que les différentes architectures des réseaux de neurones convolutif,.
Dans le dernier chapitre, nous exposerons la les résultats obtenus et l’analyse ainsi la
comparaison entre les méthodes utilisés

1
Chapitre I
La Biométrie

I.1. Introduction ..................................................................................................... 2


I.2. Définition ........................................................................................................ 2
I.3. Fonction de la biométrie ................................................................................ 2
I.4. L’architecture d’un système biométrique ....................................................... 4
I.5. Différentes modalités ...................................................................................... 5
I.6.Domaines d’application de la biométrie ......................................................... 7
I.7. Avantages et inconvénients de la biométrie ................................................... 8
I.8. Limitations des systèmes biométriques ......................................................... 8
I.11.Conclusion ..................................................................................................... 9
Chapitre I La Biométrie

I.1. Introduction

Dans tous les domaines de sécurité et de contrôle d’accès, on utilise des mots de passe,
ou des clés qui se compose de chiffres, ou de lettres. Mais, dans ces derniers temps avec
l’avancement de la technologie ces mots de passe sont devenus facilement falsifiables et
franchissables. C’est pour ça, que les chercheurs de différents domaines ont orientés leurs
travaux sur des clés et mots de passe impossible à falsifier, sûr et surtout efficace. La
biométrie est devenue à la mode dans les domaines qui requiert un niveau élevé de sécurité et
de contrôle des systèmes de reconnaissance biométriques, utilisés de plus en plus largement
tant dans le domaine privé que public, comportent de nombreux avantages pour les personnes
qui les introduisent et les personnes concernées. Toutefois, l’utilisation de données
biométriques pour l’identification ou la vérification d’une identité prétendue comporte
également des risques quant au respect des droits et des libertés fondamentales. Le présent
chapitre a pour objectif de défini la terminologie « Biométrie »

I.2. Définition

La biométrique est un domaine émergeant où la technologie améliore notre capacité à


identifier une personne, pour la protection des consommateurs contre la fraude ou le vol est
un des buts de la biométrie.. [1]

La biométrie recense nos caractères physiques (et comportementaux) les plus uniques,
qui peuvent être captés par des instruments et interprétés par des ordinateurs de façon à être
utilisés comme des représentants de nos personnes physiques dans le monde numérique.
Ainsi, nous pouvons associer à notre identité des données numériques permanentes, régulières
et dénuées de toute ambiguïté, et récupérer ces données rapidement et automatiquement à
l’aide d’un ordinateur [2]

I. 3. Fonction de la biométrie

La biométrie permet l'identification et l'authentification d'une personne à partir de


données reconnaissables et vérifiables, qui lui sont propres et qui sont uniques.

L'identification : consiste à déterminer l'identité d'une personne .Il s'agit de saisir une donnée
biométrique de cette personne, en prenant par exemple une photo de son visage, en
enregistrant sa voix, ou en captant l'image de son empreinte digitale. Ces données sont ensuite
2
Chapitre I La Biométrie
comparées aux données biométriques de plusieurs autres personnes qui figurent dans une
base.

L'authentification : appelée également vérification, est le processus qui consiste à comparer


les données caractéristiques provenant d'une personne, au modèle de référence biométrique de
cette dernière (« template »), afin de déterminer la ressemblance. Le modèle de référence est
préalablement enregistré et stocké dans une base de données, dans un équipement ou objet
personnel sécurisé. On vérifie ici que la personne présentée est bien la personne qu'elle
prétend être..

Identification ou authentification impact sur la protection des données : la biométrie


peut remplir deux fonctions distinctes, l'authentification et l'identification, nous l'avons vu.

L'identification dans ce cas, la personne est identifiée parmi d'autres (vérification 1 :n) . Ses
données personnelles sont comparées aux données d'autres personnes contenues dans la même
base de données ou dans d'éventuelles bases de données reliées.

L'authentification dans ce cas, la biométrie permet de certifier l'identité d'une personne en


comparant les données qu'elle va présenter avec les données préenregistrées de la personne
qu'elle prétend être (vérification 1 :1).

Ces deux procédés font appel à des solutions techniques différentes.

L'identification nécessite en général une base de données centralisée qui permet de comparer
les données biométriques de plusieurs personnes. L'authentification peut se passer d'une telle
base de données centralisée. On peut simplement enregistrer des données sur un support
décentralisé, du type de nos cartes à microprocesseur.

Sur le plan de la protection des données, on privilégiera plutôt un procédé d'authentification


avec un support décentralisé. Un tel procédé présente moins de risques. Le support
décentralisé est en la possession de l'utilisateur lui-même et ses données ne figurent pas
nécessairement dans une base de données.

A l'inverse, dans l'hypothèse d'un procédé d'identification nécessitant une base de données
externe, l'utilisateur n'a pas la maîtrise physique de ses données, avec tous les risques que cela
présente .a partir du moment où les données biométriques sont en possession d'un tiers, il y a
toujours un risque qu'elles soient utilisées à des fins différentes de ce à quoi la personne
concernée a consenti.

3
Chapitre I La Biométrie
Le risque concerne aussi bien la base de stockage des éléments biométriques de référence que
les données biométriques présentées par l'utilisateur au moment de l'usage du service : ces
données peuvent être captées par des hackers lors de leur transmission, nécessaire à la
comparaison avec le modèle de référence stocké à la base centralisée. [3]

I.4. L’architecture d’un système biométrique

Un système biométrique comporte au moins deux modules :

Module d’apprentissage (enrôlement) : c’est la première phase à effectuer dans ce module


on parle sur l’acquisition ou la capture d’une caractéristique biométrique. Cette capture est
stockée dans la base de données après une liste de transformations. Le modèle est une
représentation compacte du signal qui permet de faciliter la phase de reconnaissance et de
diminuer la quantité de données à stocker

Module de reconnaissance : c’est une phase qui se déroule à chaque fois qu’une personne se
présente devant le système. Elle consiste en l’extraction des paramètres comme pour l’étape
d’apprentissage suivie dune autre étape de comparaison et de prise de décision selon le mode
opératoire du système : identification (partir de l’échantillon biométrique recherche du gabarit
correspondant) ou vérification (échantillon biométrique correspond bien au gabarit) [4]

Figure I. 1: L’architecture d’un système biométrique

4
Chapitre I La Biométrie
I.5. Différentes modalités

Il existe plusieurs techniques biométriques qui sont utilisées dans diverses


applications. Chaque technique biométrique a des avantages et des inconvénients, alors le
choix dépend d’application. Ces techniques peuvent être encore classées en trois grandes
catégories :

I.5.1. L’analyse physique

Les empreintes digitales : La reconnaissance d’empreintes digitales est la technique


Biométrique la plus ancienne et c’est l’une des plus matures. Les empreintes digitales sont
Formées par les crêtes (ridage) et les vallées (furrow) présentes sur la surface du bout des
doigts. Les empreintes sont différentes pour chaque doigt d’une même personne. [5]

Figure I. 2 : Système biométrique basé sur l’empreinte

L’iris : Liris est la membrane colorée de l’œil. Les iris sont uniques et les deux iris d’un
même individu sont différents. La reconnaissance de l’iris est donc aussi considérée comme
une des méthodes biométriques les plus fiables qu’il soit.

Figure I. 3 : Système biométrique basé sur l’Iris

5
Chapitre I La Biométrie
La main : Cette méthode consiste à déterminer les caractéristiques de la main d’unindividu
sa forme, la longueur, la largeur, la courbure des doigts, etc. Les systèmes de reconnaissance
de la géométrie de la main sont simples d’usage. [5]

Figure I. 4 : Système biométrique basé sur la main

I.5.2. L’analyse comportementale

La voix : La reconnaissance du locuteur vise à déterminer les caractéristiques uniques de la


voix de chaque individu. Cette biométrie est en général très bien acceptée car la voix est un
signal naturel à produire. Un téléphone ou un microphone peut être utilisé pour l’extraction
de données. Cette technique est sensible aux bruits lors d’acquisition. [5]

Figure I. 5 : Système biométrique basé sur la voix

La signature: Est une technique simple et acceptable par les utilisateurs, mais nous ne
Pouvons pas maintenir la même forme de la signature pour toute la vie.

Figure I. 6 : Système biométrique basé sur la signature

6
Chapitre I La Biométrie

I.5.3. Les traces biologiques

ADN : Acide désoxyribonucléique est le code unique, ultime et unidimensionnel de


l'individualité, sauf pour les jumeaux qui ont le même modèle. Il est notamment surtout utilisé
dans les applications médico-légales pour la reconnaissance de personnes [6]. Trois
inconvénients majeurs limitent l'utilisation de cette caractéristique dans d'autres contextes :

Contamination et sensibilité : Il est facile de se procurer un morceau d’ADN pour en abuser


sans éveiller le moindre soupçon.

Inconvénients dus à la reconnaissance automatique en temps réel : la technologie actuelle


de reconnaissance d'adn impose des méthodes chimiques encombrantes avec la supervision
d'un expert humain.

Vie privée : L'ADN est le support de l'information génétique et l'utilisation inappropriée de


ces informations peut résulter un abus ou une discrimination envers les personnes concernées.

Figure I. 7 : Système biométrique basé ADN

I.6.Domaines d’application de la biométrie

La biométrie existe dans plusieurs secteurs, en effet, chaque secteur qui nécessite
d’identifier ou vérifier une personne est concerné. On peut citer 3 champs d’applications de la
biométrie :

Applications commerciales : La sécurité de données électroniques, l’e-commerce, l’accès


Internet, les cartes de crédit, le contrôle d’accès physique, le téléphone cellulaire, la gestion
des registres médicaux, l’étude à distance, etc.

7
Chapitre I La Biométrie
Applications gouvernementales : la carte d’identité nationale, le permis de conduire, la
sécurité sociale, le contrôle des frontières, le contrôle des passeports, etc.

Applications légales : telles que l’identification de corps, la recherche criminelle,


l’identification de terroriste, etc.

I.7. Avantages et inconvénients de la biométrie

I.7.1. Les avantages

-Facilité d’utilisation de différentes modalités biométriques.

-Augmentation de niveau de sécurité.

- Le cout opérationnel moins élevé.

I.7.2. Les inconvénients

- Les caractéristiques physiques ne peuvent pas être modifiées.

- La nécessité d’une intégration pour enregistrer les données, et une intégration matérielle
supplémentaire est obligatoire.

-Un dommage dans les attributs physiques peut changer le modèle qui permet l’accès.

I.8. Limitations des systèmes biométriques


Malgré les avantages des systèmes biométriques par rapport aux systèmes
traditionnels, leur utilisation est toujours limitée a des applications spécifiques (comme le
passeport biométrique).

Ces systèmes souffrent de plusieurs limitations qui peuvent dégrader considérablement


leur intérêt. La première limitation se situe dans la performance. Contrairement aux systèmes
d’authentification traditionnels, les systèmes d’authentification bas´es sur la biométrie sont
moins précis (i.e., pourcentage de similarité´e entre 0% et 100%, le 100% n’étant quasiment
jamais atteint).

Ce manque de précision est du a plusieurs facteurs : la variabilité lors de la capture


(i.e., bruits d’acquisition, utilisation de plusieurs capteurs d’acquisition, etc.), la variabilite
intra-classe (variabilite des données biométriques pour un individu) et la similarité interclasse
(i.e., similarité des données biométriques de plusieurs individus).

Une autre limitation de la biométrie est la limitation d’usage ou culturelle. La


biométrie et particulièrement les empreintes digitales ont une mauvaise réputation et sont
associées `a la surveillance des personnes et `a l’identification de criminels. Dépendant de la

8
Chapitre I La Biométrie
modalité utilisée, l’acquisition de données biométriques est effectuée sans ou avec contact
avec le capteur biométrique. Ce contact est une source d’inquiétudes pour certains utilisateurs
pour des raisons hygiènes et d’intrusion physique. Prenons le cas de reconnaissance par la
rétine : cette technologie assure une bonne fiabilité et une haute barrière contre la fraude.
Malgré l’efficacité de cette technologie, elle est considérée comme intrusive et elle est très
peu utilisée dans les milieux de la sécurité privée. Le recours a la biométrie présente
également des risques en termes de respect des droits et des libertés fondamentales. En
France, la Commission Nationale de l’Informatique et des Libertés (CNIL), n’autorisent les
applications qui font de l’usage de biométrie de trace (ex., empreinte digitale) que dans la
mesure où le besoin de la s´écrite est important. Ces contraintes d’utilisation limitent de plus
en plus la prolifération de certaines modalités pour des applications moins sécuritaires
(comme le contrôle d’accès a des bâtiments).

Enfin, les systèmes biométriques sont vulnérables a des attaques spécifiques. Ratha et
al. [7]Présente huit emplacements de points de compromission d’un système biométrique.
Même s’il est plus difficile de falsifier un iris que de décrypter un mot de passe, il est
toutefois possible de reproduire d’autres types de modalités. Les travaux présent´es dans [8]
montrent la facilite de reproduire des empreintes digitales en utilisant des images résiduelles
sur le capteur.

I.11.Conclusion

Dans ce chapitre, nous avons présenté les différentes technologies utilisées dans les
systèmes biométriques pour l’identification des personnes. nous avons aussi donné un aperçu
sur les systèmes de reconnaissances biométriques et une évaluation de leurs performances.
cette étude nous a permis de constater que les systèmes biométriques est plus efficace dans le
domaine de sécurité.

9
Chapitre II
Généralité Sur Le Traitement D’Image

II.1. Introduction .................................................................................................. 10


II.2. Définition de l’image .................................................................................... 10
II.3. Acquisition d'image ...................................................................................... 11
II.4. Caractéristiques d’une Image ...................................................................... 11
II.5. Type des images .......................................................................................... 14
II.6. Amélioration d’images ................................................................................ 15
II.7. Formats de fichiers d’images ...................................................................... 15
II.8. Quelques traitements d’images..................................................................... 17
II.9. Exemples de Domaines d'Applications ........................................................ 19
II.10. Conclusion ................................................................................................. 21
Chapitre II Généralité Sur Le Traitement D’Image

II.1. Introduction

Le traitement d’images est un domaine très vaste qui a connu, et qui connaît encore, un
développement important depuis quelques dizaines d’années.

On désigne par traitement d'images numériques l'ensemble des techniques permettant


de modifier une image numérique afin d'améliorer ou d'en extraire des informations. de ce fait,
le traitement d’images est l’ensemble des méthodes et techniques opérant sur celles-ci, dans le
but de rendre cette opération possible, plus simple, plus efficace et plus agréable, d’améliorer
l’aspect visuel de l’image et d’en extraire des informations jugées pertinentes.

Dans ce chapitre, nous abordons les notions de base nécessaires à la compréhension des
techniques de traitement d’images. ensuite, nous allons donner un aperçu sur les différents
techniques connues dans ce domaine.

II.2. Définition de l’image

Une image est plutôt difficile à décrire d'une façon générale. une image est une
représentation du monde. en traitement d'image, la majorité du temps, on considère qu'il s'agit
d'une fonction mathématique de RxR dans R où le couplet d'entrée est considéré comme une
position spatiale, le singleton de sortie comme l'intensité (couleur ou niveaux de gris) du
phénomène physique. Il arrive cependant que l'image soit dite "3D" donc la fonction est de
RxRxR dans R. Les images couleurs peuvent être représentées soit par trois images représentant
les trois couleurs fondamentales, soit par une image de RxR dans RxRxR

L’image numérique est l’image dont la surface est divisée en éléments de tailles fixes
appelés cellules ou pixels, ayant chacun comme caractéristique un niveau de gris ou de couleurs
prélevé à l’emplacement correspondant dans l’image réelle, ou calculé à partir d’une description
interne de la scène à représenter

Figure II. 1 : Image numérique

10
Chapitre II Généralité Sur Le Traitement D’Image
II.3. Acquisition d'image

L’acquisition d’images constitue un des maillons essentiels de toute chaîne de conception


et de production d’images. pour pouvoir manipuler une image sur un système informatique, il
est avant tout nécessaire de lui faire subir une transformation qui la rendra lisible et manipulable
par ce système. le passage de cet objet externe (l’image d’origine) à sa représentation interne
(dans l’unité de traitement) se fait grâce à une procédure de numérisation. ces systèmes de
saisie, dénommés optiques, peuvent être classés en deux catégories principales

 Les caméras numériques


 Les scanners.

Informations binaires qui seront stockées dans un fichier. l'une des caractéristiques
intéressantes de ces capteurs est la taille du plus petit élément (pixel), mais aussi l'inter
corrélation de deux éléments voisins : plus cette inter corrélation est faible, meilleure est
l’image . le processus général pour l'acquisition d'une image numérique est illustré sur la figure
suivante :

Figure II. 2 : Acquisition Image numérique

II.4. Caractéristiques d’une Image

II.4.1. Pixel

Le pixel est le plus petit élément de l’image. il possède une valeur i(i,j) qui représente
son niveau de gris . il est repéré par ses coordonnées i et j dans les deux axes du plan de l’image.
une image numérique contient un nombre fini de points. ces points sont appelés pixels (extrait
des mots anglais "picture element", c’est à dire élément d’image). les pixels sont situés sur une
grille régulière. a chaque pixel de la grille est associé une couleur ou une nuance de gris. le

11
Chapitre II Généralité Sur Le Traitement D’Image
passage d’une image continue à une grille de pixels s’appelle l’échantillonnage : on ne conserve
que quelques points d’une image continue.

II.4.2. Codage de pixel

Pratiquement toujours, la valeur d’un pixel est un mot binaire de longueur k bits, par
conséquent un pixel peut prendre l’une des valeurs de l’intervalle [0…2k-1]. la valeur k est
appelée profondeur de l’image. l'ensemble de ces pixels est contenu dans un tableau à deux
dimensions (une matrice) constituant l'image finalement obtenue.

II.4.3. Taille d’une image

La taille d’une image est le nombre de pixels de cette image, la taille d’une image qui
est représenté par (328×456) dont 328 est le nombre de lignes, et 456 est le nombre de colonnes,
est égale à : 328 × 456 = 149568 pixels.

II.4.4. Bruit :

Un système d'enregistrement d'images ne restitue pas l'image de manière parfaite. en


effet des informations parasites s'ajoutent de manière aléatoire aux détails de la scène d'origine,
c’est ce qu’on appelle bruit. le bruit n'a pas les mêmes origines, mais provoque des effets assez
semblables comme la perte de netteté sur les détails ou l’apparition de grains.

II.4.5. Histogramme

L’histogramme des niveaux de gris ou des couleurs d’une image est une fonction qui
associe à chaque valeur d’intensité le nombre de pixels de l’image ayant cette valeur.

Figure II. 3 : Exemple d’histogramme d’une image couleur

12
Chapitre II Généralité Sur Le Traitement D’Image
II.4.6. Résolution

La taille du pixel définit la résolution par rapport à l’image analogique originale, c’est-
à-dire la finesse de la grille. plus la résolution baisse, plus le nombre de pixels dans l’image
diminue, et plus la qualité de l’image numérique se dégrade (voir figure souvent). [8]

Figure II. 4 : L’effet de la résolution sur une image

Afin de mieux analyser et caractériser une image, il faut utiliser des images de grande
résolution.

II.4.7. Connexité

La connexité est une propriété de liaison entre deux pixels qui fait qu’on les considère
comme faisant partie de la même région dans une image. En supposant que deux pixels P et Q
vérifient déjà un certain critère de similarité, on peut définir différents types de connexités :

 4-connexité : Les deux pixels sont tels que Q est un des 4-voisins de P.
 8-connexité : Les deux pixels sont tels que Q est un des 8-voisins de P.
(voir figure Suivent )
représente un pixel central avec ces voisins en fonction de la connexité :

Figure II. 5 : Les voisins d’un pixel

II.4.8. Région

Une région est un ensemble de pixels liés par la connexité, ayant des caractéristiques
communes tel que intensité, texture. qui les différencient des pixels des régions voisines. [9]

13
Chapitre II Généralité Sur Le Traitement D’Image
II.5. Type des images

On peut distinguer Trois (03) types d’image, Comme suivants :

II.5.1. Image binaier

On appelle par image binaire tout image ne comportant que deux niveaux de gris
0 pour représenter le noir et 1 pour représenter le blanc.

Figure II. 6 : Image à binaier

II.5.2. Images à niveaux de gris

Le niveau de gris est la valeur de l’intensité lumineuse en un point. La couleur du pixel


peut prendre des valeurs allant du noir au blanc en passant par un nombre fini de niveaux
intermédiaires. Donc pour représenter les images à niveaux de gris, on peut attribuer à chaque
pixel de l’image une valeur correspondant à la quantité de lumière renvoyée. Cette valeur peut
être comprise par exemple entre 0 et 255. Chaque pixel n’est donc plus représenté par un bit,
mais par un octet. Pour cela, il faut que le matériel utilisé pour afficher l’image soit capable de
produire les différents niveaux de gris correspondant.

Figure II. 7 : Images à niveaux de gris

II.5.3. Images en couleurs

Même s’il est parfois utile de pouvoir représenter des images en noir et blanc, les
applications multimédias utilisent le plus souvent des images en couleurs. La représentation des
couleurs s’effectue de la même manière que les images monochromes avec cependant quelques

14
Chapitre II Généralité Sur Le Traitement D’Image
particularités. En effet, il faut tout d’abord choisir un modèle de représentation. On peut
représenter les couleurs à l’aide de leurs composantes primaires. Les systèmes émettant de la
lumière (écrans d’ordinateurs,...) sont basés sur le principe de la synthèse additive : les couleurs
sont composées d’un mélange de rouge, vert et bleu (modèle R.V.B.)Voir le figure suivante :

Figure II. 8 : Image par spectre r.v.b

Mais il existe aussi d’autres codages de la couleur que RVB . exemple CMJ : Cyon, Magenta,
Jaune …

II.6. Amélioration d’images

L’amélioration d’images consiste à modifier les caractéristiques visuelles de l’image de


manière à en faciliter son interprétation par l’œil humain. il peut s’agir de rehausser les
contrastes, d’accentuer certaines intensités pour mettre en valeur une région, les histogrammes
sont fréquemment utilisés pour effectuer ce type d’opérations

II.7. Formats de fichiers d’images

Un format d'image est une représentation informatique de l'image, incluant des


informations sur la façon dont l'image est codée et fournissant éventuellement des indications
sur la manière de la décoder et de la manipuler. La plupart des formats sont composés d’un en-
tête contenant des attributs (dimension de l'image, type de codage, LUT, etc.), suivi des données
(l'image proprement dite). La structuration des attributs et des données diffère d’un format à un
autre. Il existe plusieurs formats d’images, nous allons mentionner quelques-uns :

15
Chapitre II Généralité Sur Le Traitement D’Image
II.7.1. Carte binaire Windows (BMP)

Le format BMP est l’un des formats les plus simples. Il a été développé conjointement
par Microsoft et IBM. Cette technologie a pour principal avantage la qualité des images fournies
pas de compression (pas de perte de qualité). Cela fait de lui un format d’image très lourd, pas
ou peu utilisé sur Internet.

II.7.2. Format de fichier d'image balisé (TIFF)

Ce format est orienté vers les professionnels (imprimeurs, publicitaires...) car il a


l'avantage d'être reconnu sur tous types de système d'exploitation : Windows, Mac, Linux,
Unix,…ect.Il permet d'obtenir une image de très bonne qualité, mais sa taille reste volumineuse,
même si elle est inf

II.7.3. Groupe mixte d'experts photographiques (JPEG)

C'est le format le plus courant, on le rencontre sur internet. il occupe peu d'espace
disque. c'est le format développé par les photographes pour transmettre des images de qualité
photographique professionnelle. il gère des millions de couleurs mais il ne possède pas de
palette de couleurs associée et donc les couleurs peuvent être différentes sur des machines et
des systèmes différents.

II.7.4. Format d'échange graphique (GIF)

Les fichiers au format GIF sont fortement compressés tout en gardant une qualité très
correcte. ils possèdent une palette de couleurs associée (limité à 256 couleurs) et occupent peu
d'espace disque.

II.7.5. Graphique réseau portable (PNG)

Le format PNG reprend le principe de codage du format GIF mais n’est pas limité à 256
couleurs, et offre une compression généralement plus efficace. Il permet donc contrairement à
GIF d’enregistrer des photographies sans perte de qualité, mais avec un gain d’espace de
stockage moindre comparativement au format JPEG. Nous avons utilisés dans notre système
des images de format BMP, Pour cela, nous allons décrire la structure d’un fichier BMP. érieure
à celle du fichier BMP. [11]

16
Chapitre II Généralité Sur Le Traitement D’Image

II.8. Quelques traitements d’images

Il existe une variété de traitements d’images, nous allons présenter quelques-uns :

II.8.1. Binarisation

La binarisation (le seuillage) est la technique de classification la plus simple, où les


pixels de l’image sont partagés par un seul seuil S en deux classes : ceux qui appartiennent au
fond et ceux qui appartiennent à la scène (l’objet). L’image est alors séparée en deux classes de
façon à ce que l’information comprise entre 0 et S est retenue et l’autre non, ou vice-versa

Figure II. 9 : Binarisation d’une image.

II.8.2. Segmentation

La segmentation d'images est une opération qui a pour but de rassembler des pixels entre
eux suivant des critères prédéfinis, et peut-être accomplie selon plusieurs méthodes. Les pixels
ainsi regroupés en régions constituent un pavage ou une partition de l'image.

La segmentation est une étape primordiale en traitement d'images. [10]

II.8.3. Convolution

La convolution est le remplacement de la valeur d’un pixel par une combinaison de ses
avoisinants. Elle consiste à faire balayer une fenêtre d’analyse (masque) sur l’ensemble des
pixels de l’image. L’opération de convolution est calculée en tout point de l’image source en 3
étapes :

1. On centre le masque (par exemple un masque carré (3*3) sur le pixel courant.

2. On calcule les 9 produits entre la valeur de l’image et la valeur du masque superposé.

3. Puis on somme les 9 produits pour obtenir la valeur du pixel de l’image filtrée.

17
Chapitre II Généralité Sur Le Traitement D’Image
II.8.4. Filtrage

La notion de filtre est empruntée à la physique et aux techniques de traitement de signal.


Si un signal (électrique, radio, image,…etc.) présente des composantes de fréquences très
différentes, il peut être avantageux d’en éliminer certaines, en parle dans ce cas de filtrage.

Le filtrage des images est un traitement local utilisé principalement pour réaliser une
analyse spatiale d’une image. Son objectif est d’accentuer les variances d’intensité de l’image,
ou de détecter les contours et de réduire les bruits existants. Il existe un grand nombre de filtres,
on peut les classer en deux grandes catégories les filtres linéaires et les filtres non linéaires.

II.8.4.1. Filtres linéaires

Un filtre linéaire transforme un ensemble de données d'entrée en un ensemble de


données de sortie selon une opération mathématique appelée convolution. il permet pour chaque
pixel de la zone à laquelle il s'applique, de modifier sa valeur en fonction des valeurs des pixels
avoisinants. il existe plusieurs filtres linéaires, nous allons présenter quelques-uns :

a. Les filtres passe-bas (lissage)

Consistent à atténuer les pixels de l'image ayant une fréquence haute (pixels foncés). ce
type de filtrage est généralement utilisé pour atténuer le bruit de l'image, c'est la raison pour
laquelle on parle habituellement de lissage. les filtres moyens sont des types de filtres passe-
bas dont le principe est de faire la moyenne des valeurs des pixels avoisinants. le résultat de ce
filtre est une image plus floue.

1 1 1

1 4 1

1 1 1
Tableau. II.1. Masque de convolution passe-bas

b. Les filtres passe-haut (accentuation)

À l'inverse des filtres passe-bas, les filtres passe-haut atténuent les pixels de basse
fréquence de l'image et permettent notamment d'accentuer les détails et le contraste, c'est la
raison pour laquelle le terme de "filtre d'accentuation" est parfois utilisé.

18
Chapitre II Généralité Sur Le Traitement D’Image

0 -1 0

-1 5 -1

0 -1 0
Tableau. II.2. Masque de convolution passe-haut.

II.8.4.2. Filtres non linéaires

Ils sont conçus pour régler les problèmes des filtre linéaires, surtout ce qui concerne la
mauvaise conservation des contours. Leur principe est le même que les filtres linéaires, il s’agit
toujours de remplacer la valeur de chaque pixel par la valeur d’une fonction calculée dans son
voisinage. La différence est que cette fonction n’est plus linéaire mais une fonction quelconque

Les filtres non linéaires les plus connus sont :

a. Le filtre médian

Le filtre médian appartient à la famille des filtres d’ordre. Les filtres d'ordre procèdent
en remplaçant la valeur de chaque pixel par la valeur du pixel qui occupe un certain rang
lorsqu'on trie les valeurs des pixels rencontrés dans un certain voisinage de ce pixel.

b. Le filtre maximum

On applique le même traitement que celui du filtre médian mais la valeur du pixel du
centre va être remplacée par le maximum

c. Le filtre minimum

On applique le même traitement que celui du filtre médian mais, cette fois, la valeur du
pixel du centre va être remplacée par le minimum [11].

II.9. Exemples de Domaines d'Applications

• Contrôle de présence / absence. Sur des chaînes de production, on vérifie en bout de chaîne
avec une caméra vidéo la présence d'une pièce dans un ensemble plus complexe. Pour cela bien
souvent il suffit de faire un simple seuillage dans une région spécifique.

• Contrôle du niveau de maturation des fruits sur une chaîne de conditionnement. Il s'agit
de reconnaître à la couleur et à la texture du fruit son degré de maturité et donc la catégorie sous
laquelle il sera emballé puis vendu.

19
Chapitre II Généralité Sur Le Traitement D’Image
• Construction et correction de cartes géographiques d'après des images satellites ou des
images aériennes. On recale d'après des informations topographiques les images reçues, puis
on les met sur la carte en correspondance avec les informations trouvées dans l'image : voies
de communication, voies et plans d'eau, parcelles agricoles...

• Surveillance et évaluation de la production agricole. Il est possible de déterminer le degré


de maturation des cultures, la quantité d'eau nécessaire pour l'irrigation, le rendement moyen...
On peut ainsi établir des prévisions à large échelle de la récolte à venir.

• Reconnaissance de l'écriture. La reconnaissance de l'écriture manuscrite progresse de jour


en jour. Elle est suffisamment opérationnelle pour que la majorité des adresses, même
manuscrites, soient reconnues automatiquement sur le courrier postal.

• Recherche d'image par le contenu. L'objectif de cette technique est de rechercher, parmi
une base de données d'images, les images similaires à une image exemple, ou ayant certaines
caractéristiques, par exemple rechercher toutes les images comportant un vélo.

• Analyse de la vidéo. L'objectif de cette technique devenue une discipline depuis les années
2000 (lorsque la puissance des processeurs peu onéreux et en particulier des PC a permis des
traitements puissants en temps réel) est d'interpréter les faits observés à l'image afin de signaler
ou d'enregistrer des faits marquants. Le plus souvent, la caméra est fixe et observe les
mouvements d'une scène. Les applications sont nombreuses : Protection des biens (détection
d'intrusion, détection d'objet abandonné ou déposé...), Identification (biométrie faciale),
Sécurité des personnes (détection de chutes de personnes, franchissement de rambardes, ...),
Animations (planchers animés selon les mouvements des danseurs en boîte de nuit), Détection
de feux (industriel, forêts, tunnels, ...), Surveillance de tunnels (comptage, mesure de vitesse,
détection de fuites/anomalies dans les plafonds), surveillance de tuyaux et autres process
industriels Voir le figure suivante :. [16]

Figure II. 10 : Image et Domaines d'Applications

20
Chapitre II Généralité Sur Le Traitement D’Image
II.10. Conclusion

Le traitement d’images est l’ensemble des méthodes et techniques opérant sur celles-ci,
dont le but est de rendre cette opération possible, plus simple, plus efficace et plus agréable,
d’améliorer l’aspect visuel de l’image et d’en extraire des informations utiles.

Dans ce chapitre nous avons présenté les différents concepts liés à l’image numérique,
on a parlé sur les types d’une image, ces caractéristiques et quelques formats de fichiers
d’images, on a expliqué aussi la structure d’un fichier bitmap et finalement nous avons présenté
quelques traitement d’images usuels.

21
Chapitre III
Détection de visage

III.1. Introduction ................................................................................................. 22


III.2. Principe détection de visage ....................................................................... 23
III.3. Évolution de la détection de visage ............................................................. 23
III.4. Méthode détection de visage ...................................................................... 24
III.5. Les problèmes dans la détection de visage ................................................. 26
III.6. Bases de données......................................................................................... 27
III.7. Conclusion................................................................................................... 29
Chapitre III Détection de visage
III.1. Introduction

Dans les technologies des ordinateurs ont permis d'améliorer la vie des humains grâce
à l'intelligence artificielle. en effet, cette tendance a déjà incité un développement actif dans
l'intelligence des machines. la vision par ordinateur, par exemple, vise à reproduire la vision
humaine traditionnellement, des systèmes de vision par ordinateur ont été utilisés dans des
tâches spécifiques telles que les tâches visuelles répétitives et fastidieuses d'inspectiondans des
chaînes de montage. le développement actuel dans ce domaine se dirige versdes applications
de vision plus généralisées, telles que la reconnaissance de visage et les techniques de codage
des vidéos.

Plusieurs techniques actuelles de reconnaissance de visage supposent la disponibilité de


visages de vue frontale et de taille égale . En réalité, cette condition ne peut pas être satisfaite à
cause dela nature variable des apparences des visages et des conditions d'environnement.
Considérons les images de la figure III. 1 Ces images sont des images de test typiques
utilisées dans la recherche en classification de visage. L'exclusion de l'arrière plan dans ces
images est une étape nécessaire pour des techniques fiables de classification de visage.
Cependant, dans des scénarios d'applications réelles comme dans l'exemple montré dans la
figure III. 2 , un visage peut apparaître dans un arrière plan complexe et à différentes positions.
Les systèmes de reconnaissance qui sont basés sur des images standard de visage sont
susceptibles de confondre quelques régions de l'arrière plan avec des visages. Afin de rectifier
le problème, un processeur visuel d'entrée est nécessaire pour localiser et extraire la région de
visage à partir de l'arrière plan.

Figure III. 1 : Images typiques pour la Détection du visage

Ont conduit une étude détailléesur la recherche en Détection de visage. Dans leur étude,
plusieurs aspects, compris la segmentation et l'extraction des traits, liées à la Détection de
visage ont été passés en revue. Une des conclusions de était que le problème de détection de
visage a suscité étonnamment peu d'attention. Ceci a certainement changé au cours des
dernières années comme on le montrera dans cet aperçu.
22
Chapitre III Détection de visage

Figure III. 2 : Un scénario réel de détection de visages.

III.2. Principe détection de visage

La détection de visage est une étape indispensable et importante dans les systèmes de
reconnaissance faciale et ce dernier ne pourra pas être automatique s'il n'a pas été passé par une
étape de détection efficace, L'étape de détection commence par une capture de la scène
contenant un visage puis extrait le visage à partir de l'image capturée par l'une des méthodes de
détection afin de garder une région qui contient les composant du visage (les yeux, le nez, la
bouche,...) qui sera par la suite affinée par une procédure de prétraitement.

III.3. Évolution de la détection de visage

La première recherche dans le domaine de la détection de visage était en 1972 par


l'utilisation de technique heuristique et anthropométrique simple . Mais ces techniques étaient
très faibles à cause de l'arriéré plan et la position du visage, une simple variation d'éclairage ou
de la position frontale du visage entraine un ajustement total du système, Malgré ces problèmes,
l'évolution et la recherche se poursuivent jusqu’aux années 1990 où les systèmes de détection
et de reconnaissance faciale commencent à voir un sucées, beaucoup des recherches ont été fait
dans le domaine de détection de visage et des nombreux algorithmes de segmentation ont été
présentées par utilisation de la couleur et les information générale pour la détection. Dans les
environnements complexes ils ont utilisé des algorithmes statistiques et les réseaux de neurones.
En effet le concept d'extraction des traits a été avancé par des nombreuses recherches telles que
le contour actif et les modèles déformables afin de localiser et extraire les traits facials [30]

Les techniques de détection de visage sont divisées en deux approches parce qu’ils
exigent des informations appropriées du visage, [32] pour les techniques de la premier approche
utilisent une méthodologie classique de détection dans laquelle les traits de bas niveau doivent
être dérivé avant l’analyse de connaissance et les propriétés de la couleur de peau et la géométrie

23
Chapitre III Détection de visage
du visage sont exploiter dans toute la procédure du système de détection, ces techniques
appartiennent à l’approche basé sur les traits. [31]

III.4. Méthode détection de visage

La détection du visage est une première étape importante de tout système lié à l’analyse
du visage humain. Les recherches sur la reconnaissance faciale ont commencé tôt avec les
images à face unique et plus tard la détection faciale problème a gagné plus d’attention. La
recherche dans la vision par ordinateur et la reconnaissance des modèles est problèmes de
détection. Par conséquent, il existe une variété de méthodes attribuées à la détection en taille.

La littérature prouve que de nombreuses méthodes de détection du visage ont été


signalées. Certaines ont été signalées les schémas de segmentation utilisent des règles de forme
de visage généralisées, le mouvement et la couleur informations. A côté de cette détection de
visage est possible dans les scènes encombrées et les échelles variables par en utilisant des
méthodes probabilistes et des réseaux neuronaux . [33]

Plusieurs chercheurs ont regroupé les techniques de détection du visage dans différentes
catégories. Yang Kriegman Ahuja [34] a regroupé les techniques de détection en taille en quatre
catégories, comme l’illustre le tableau suivant

Tableau. III.1. Des méthodes détection de visage

Méthode basée sur les connaissances Méthodes descendantes

Méthode basée sur les caractéristiques Méthodes ascendantes

Méthode basée sur la mise en Modèles de visage prédéfinis


correspondance Modèle de forme actif
Visages propres
Méthode basée sur la distribution
Approche basée sur les réseaux de neurones
Soutenir la machine vectorielle
Méthode basée sur l’apprentissage
Réseau clairsemé de vannes
Classificateur naïf de Bayes
Approche théorique de l'information
Apprentissage inductif

24
Chapitre III Détection de visage
III.4.1. Méthode basée sur les connaissances

Dans les méthodes basées sur les connaissances, certaines les connaissances antérieures,
qui peuvent également être appelées règles, sur la géométrie du visage sont utilisées comme les
caractéristiques d'un visage et leurs relations. Par exemple, une image contient deux yeux, deux
sourcils, un nez et une bouche et liées à leurs distances et positions relatives, certaines règles
doivent être connues comme chacun des yeux et des sourcils sont symétriques, etc. Les traits
du visage connus sont extraits dans une image et l'emplacement de les candidats de visage ou
de caractéristique faciale sont déterminés sur la base de règles faciales codées par le chercheur.
Enfin, un processus de vérification est appliqué pour réduire les fausses détections.

III.4.2. Méthode basée sur les caractéristiques

Dans la méthode ascendante, les chercheurs tentent de trouver des caractéristiques


faciales invariantes pour la détection des visages. L'idée principale de cette approche est que
l'homme peut facilement détecter et reconnaître les visages dans différents les poses, les
conditions d'éclairage, etc., il devrait donc y avoir des propriétés ou des caractéristiques liées
au visage. Plusieurs méthodes sont proposées pour détecter les traits faciaux invariants et plus
tard pour trouver les présence du visage. [35]

III.4.3. Méthode basée la mise en correspondance

Dans les méthodes de la mise en correspondance, un motif de visage standard est utilisé
et ce motif est généralementface frontale. Ce modèle est prédéfini manuellement ou paramétré
par une fonction. Le les valeurs de corrélation avec les motifs standards sont calculées pour le
contour du visage, les yeux, le nez, et la bouche indépendamment sur une image d'entrée
donnée. Cette approche est simple à mettre en œuvre cependant, il n'a pas la capacité de détecter
les visages avec des variations d'échelle, de pose et de forme. Mais d'autres techniques telles
que la multirésolution, la multiéchelle, les sous-modèles et les modèles déformables sont
proposées pour obtenir une invariance d'échelle et de forme.

III.4.4. Méthode basée sur l’apprentissage

Dans la méthode basée sur l’apprentissage , certaines fenêtres sont généralement


scannées à travers l'image, puis partie connexe d'une image regroupée en deux motifs comme
visage ou non-visage. Généralement une donnée l'image est redimensionnée pour détecter les
visages qui ont des tailles différentes. Alternativement, la taille du échantillon peut être calibré
de manière appropriée pour détecter les visages avec différentes échelles. Détection de visage

25
Chapitre III Détection de visage
par en utilisant cette méthode, est basée sur la recherche des différences entre les modèles de
visage et de non-visage. Pour faire la distinction entre les motifs faciaux et non faciaux, de
nombreuses techniques de reconnaissance de formes ont déjà utilisé. Les méthodes qui reposent
sur la reconnaissance de formes seront présentées plus tard. Le suivant les sous-sections sont
consacrées aux méthodes bien connues basées sur l'apparence.

III.5. Les problèmes dans la détection de visage

Les problèmes liés à la détection de visage peuvent être attribués aux facteurs suivants:
· Pose :
Les images d'un visage changent, au changement relatif de la pose d'appareil photo
(bandeau, 45 degrés, profil, d'à l'envers), et certains dispositifs faciaux tels qu'un oeil ou le
nez peuvent devenir par

Figure III. 3: Plusieurs pose pour le visage


Présence ou absence des composants structuraux :
Les dispositifs faciaux tels que les barbes, les moustaches, et les verres peuvent ou ne
peuvent pas être présents et il y a beaucoup de variabilité parmi ces composants comprenant
la forme, la couleur, et la taille.

Figure III.4: les traits du visage invisible


· Expression faciale :
L'aspect des visages est directement affecté par l'expression faciale d'une personne.

Figure III.5 : Exemple Expression faciale

26
Chapitre III Détection de visage
Occlusion :
Des visages peuvent être partiellement occlus par d'autres objets. Dans une image avec un
groupe de personnes, quelques visages peuvent partiellement occlure d’autres visages.

Figure III.6 : Exemple des visages occlus par d'autres objets.

· Orientation d'image :
Les images de visage changent directement pour différentes rotations autour de l'axe optique
de l’appareil photo. tiellement ou complètement occlue.

· Les conditions d’acquisition de l’image :


Quand l'image est formée, les facteurs tels que l'éclairage (spectres, distribution de source de
luminance et intensité) et les caractéristiques d'appareil photo (réponse, objectifs de capteur)
influent sur l’apparence de visage.2

Figure III.7: Exemple Améliorer l'éclairage du visage

III.6. Bases de données

Plusieurs bases de données contenant des informations qui permettent l’évaluation des
Systèmes de détection de visages sont disponibles. Toutefois, ces bases de données sont
généralement adaptées aux besoins de quelques algorithmes spécifiques de detction . ci dessous
des exemples de base de donne

III.6.1. Visage plus large )WIDER FACE (

visage plus large )WIDER FACE( est un ensemble de données qui comprend 32 203
photos et identifie 393 703 visages avec un degré élevé de taille, de posture et de variabilité
d’occlusion. La base de données est divisée en trois sections : formation (40 %), validation

27
Chapitre III Détection de visage
(10 %) et tests (50 %). De plus, les photographies sont classées en trois catégories (facile,
moyen et dur) en fonction de la difficulté de détection. Les images et les annotations des
ensembles de formation et de validation sont disponibles en ligne, mais les annotations de
l’ensemble de test ne le sont pas, et les résultats sont transmis au serveur de base de données
pour que les courbes de précision-rappel soient reçues. [36]

Figure III.8 : Exemples des photos de "People Marching"

Figure III. 9 : Exemples des photos de "Football"

Figure III. 10 : Exemples des photos de "Angler "

Figure III. 11 : "Funeral"

28
Chapitre III Détection de visage

III.6.2. Face Detection Dataset and Benchmark )FDDB (

Face Detection Dataset and Benchmark (FDDB) est un ensemble de faces étiquetées
dérivées de l’ensemble de données Faces in the Wild. Il y a 5171 annotations faciales au total,
avec des photos allant de 363x450 à 229x410. Une variété de problèmes sont présents dans
l’ensemble de données, y compris les angles de posture inconfortables, les visages flous et la
basse résolution. Il y a des images en niveaux de gris et en couleur [37]

Figure III. 12 : Exemples des photos Bases de données de FDDB

Figure III. 12 : Exemples des photos "BIG"

III.7. Conclusion:

Dans ce chapitre, on a présenté un Évolution de la détection de visage des travaux


effectués dans le domaine de la détection de visage, ensuite, on a passé en revue les étapes
d'évolution de ce domaine, on a fourni une catégorisation des techniques utilisées pour la
détection, la première catégorie englobe les approches dites "basées sur l'image" comme les
méthodes des sous espaces linéaires, les réseaux de neurones,…etc. Enfin, on a présenté une
évaluation comparative des systèmes basés sur les mêmes ensembles de données.

29
Chapitre IV
L'apprentissage en profondeur

IV.1. Introduction ................................................................................................. 30


IV.2. Définition .................................................................................................... 31
IV.3. Historique l'apprentissage en profondeur ................................................. 31
IV.4. performance de l'apprentissage en profondeur ......................................... 31
IV.5. Domaines D'application .............................................................................. 33
IV.6. Réseaux neuronaux convolutifs (CNN) ...................................................... 33
IV.7. Principe d’architecture d’un Réseaux neuronaux convolutifs (CNN) ........ 34
IV.8. Les blocs de construction ........................................................................... 34
IV.9. Choix des hyperparamétres ........................................................................ 37
IV.10. Les modèles réseaux de neurones convolutifs ......................................... 39
IV.11. L’entraînement d’un nouveau CNN......................................................... 41
IV.12. Avantage du CNNs ................................................................................... 41
IV.13. Conclusion ................................................................................................ 42
Chapitre IV L'apprentissage en profondeur

IV.1. Introduction

l'apprentissage en profondeur (Deep Learning) est un nouveau domaine de recherche du


ML, qui a été introduit dans le but de rapprocher le ML de son objectif principal : l’intelligence
artificielle. Il concerne les algorithmes inspirés par la structure et le fonctionnement du cerveau.
Ils peuvent apprendre plusieurs niveaux de représentation dans le but de modéliser des relations
complexes entre les données (Voir la figure Suivent ) .

Figure IV.1 : La relation entre l’intelligence artificielle, le ML et le l'apprentissage en


profondeur(Deep learning)

l'apprentissage en profondeur est basé sur l’idée des réseaux de neurones artificielles et
il est taillé pour gérer de larges quantités de données en ajoutant des couches au réseau. Un
modèle de l'apprentissage en profondeur a la capacitéd’extraire des caractéristiques à partir des
données brutes grâce aux multiples couches de traitement composé de multiples
transformations linéaires et non linéaires et apprendre sur ces caractéristiques petit à petit à
travers chaque couche avec une intervention humaine minime[13] Sur les cinq dernières années,
le l'apprentissage en profondeur est passé d’un marché de niche ou seulement une poignée de
chercheurs s’y intéressait au domaine le plus prisé par les chercheurs. Les recherches en relation
avec le l'apprentissage en profondeur apparaissent maintenant dans les top journaux comme
Science [14], Nature [15] et Nature Methods pour ne citer que quelques-uns. Le l'apprentissage
en profondeur a coquerie le GO [16] , appris à conduire une voiture[17] , diagnostiquer le
cancer[18] et l’autisme[19] et même devenu un artiste[20] .Le terme " l'apprentissage en
profondeur " a été introduit pour la première fois au ML par Dechter (1986) [21] , et aux réseaux
neuronaux artificiels par Aizenberg et al (2000) . [22]

30
Chapitre IV L'apprentissage en profondeur

IV.2. Définition

Le l'apprentissage en profondeur ou apprentissage profond est un type d'intelligence


artificielle dérivé du apprentissage automatique (machine learning ) où la machine est capable
d'apprendre par elle-même, contrairement à la programmation où elle se contente d'exécuter à
la lettre des règles prédéterminées.

IV.3. Historique l'apprentissage en profondeur

Depuis 2012, les algorithmes à base de l'apprentissage en profondeur (apprentissage


profond) semblent prêts à résoudre bien des problèmes reconnaitre des visages comme le
propose face profonde ( deepface) vaincre des joueurs de go ou de poker ou bientôt permettre
la conduite de voitures autonomes ou encore la recherche de cellules cancéreuses.

Pourtant, les fondements de ces méthodes ne sont pas si récents le l'apprentissage en


profondeur a été formalisé en 2007 à partir des nouvelles architectures de réseaux de neurones
dont les précurseurs sont mcculloch et pitts en 1943. suivront de nombreux développements
comme le perceptron, les réseaux de neurones convolutifs de yann le cun et yoshua bengio en
1998 et les réseaux de neurones profonds qui en découlent en 2012 et ouvrent la voie à de
nombreux champs d’application comme la vision, le traitement du langage ou la reconnaissance
de la parole. [23]

IV.4. performance de l'apprentissage en profondeur

Les algorithme de ML décrits dans la première partie fonctionnent bien pour une grande
variété de problèmes. cependant ils ont échoues à résoudre quelques problèmes majeurs de l’IA
telle que la reconnaissance vocale et la reconnaissance d’objets.le développement du
l'apprentissage en profondeur fut motivé en partie par l’échec des algorithmes traditionnels dans
de telle tache de l’IA.Mais ce n’est qu’après que de plus grandes quantités de données ne soit
disponibles grâce notamment au grand les données ( big data( et aux objets connectés et que les
machines de calcul soient devenues plus puissantes qu’on a pu comprendre le potentiel réel du
l'apprentissage en profondeur .

Une des grandes différences entre le l'apprentissage en profondeur et les algorithmes


de ML traditionnelles c’est qu’il s’adapte bien, plus la quantité de données fournie est grande
plus les performances d’un algorithme de l'apprentissage en profondeur sont meilleurs
contrairement à plusieurs algorithmes de ML classiques qui possèdentune borne supérieure a la

31
Chapitre IV L'apprentissage en profondeur

quantité de données qu’ ils peuvent recevoir des fois appelée "plateau de performance", les
modèles de l'apprentissage en profondeur n’ont pas de telles limitations (théoriquement) et ils
sont même allés jusqu’à dépasser la performance humaine dans des domaines comme l’image
processing. . (Voir la figure Suivent )

Figure IV.2 : La différence de performance entre le l'apprentissage en profondeur


(deep learning)et la ML classiques fonction de la quantité de données

Autre différence entre les algorithmes de ML traditionnelles et les algorithmes de


l'apprentissage en profondeur c’est l’étape de l’extraction de caractéristiques. dans les
algorithmes de ML traditionnelles l’extraction de caractéristiques est faite manuellement, c’est
une étape difficile et coûteuse en temps et requiert un spécialiste en la matière alors qu’en deep
learning cette étape est exécutée automatiquement par l’algorithme voir la figure suevnet.

Figure IV.3 : Le procède du ML classique comparé à celui du l'apprentissage en


profondeur

32
Chapitre IV L'apprentissage en profondeur

IV.5. Domaines D'application

Ces techniques se développent dans le domaine de l'informatique appliquée aux NTIC


(reconnaissance visuelle — par exemple d'un panneau de signalisation par un robot ou une
voiture autonome — et vocale notamment) à la robotique, à la bio-informatique, la
reconnaissance ou comparaison de formes, la sécurité, la santé, etc…, la pédagogie assistée par
l'informatique, et plus généralement à l'intelligence artificielle. L'apprentissage profond peut
par exemple permettre à un ordinateur de mieux reconnaitre des objets hautement déformables
et/ou analyser par exemple les émotions révélées par un visage photographié ou filmé, ou
analyser les mouvements et position des doigts d'une main, ce qui peut être utile pour traduire
le langage des signes, améliorer le positionnement automatique d'une caméra, etc… Elles sont
utilisées pour certaines formes d'aide au diagnostic médical (ex. : reconnaissance automatique
d'un cancer en imagerie médicale), ou de prospective ou de prédiction (ex. : prédiction des
propriétés d'un sol filmé par un robot).

IV.6. Réseaux neuronaux convolutifs (CNN)

Les réseaux de neurones convolutifs sont conçus pour fonctionner avec des entrées
structurées en grille, qui ont de fortes dépendances. Les images sont un exemple de données
structurées en grille et qui sont généralement bien adaptés pour ce type de réseaux de neurones.
Autres formes de données comme le texte, les séries chronologiques et les séquences (qui sont
des données séquentielles) peuvent être considérés comme des cas particuliers de structure en
grille données avec divers types de relations entre les éléments adjacents.

La grande majorité des applications des réseaux de neurones convolutifs se concentrent


sur les données d'image, bien que l'on puisse également utiliser ces réseaux pour tous les types
de données temporelles, spatiales et spatio temporelles

La caractéristique principale des réseaux de neurones convolutifs est l’opération de


convolution qui est une opération de produit scalaire entre un ensemble de pondérations
structuré en grille et des entrées similaires structurées en grille [24]

Les CNN, également appelés ConvNets, sont constitués de plusieurs couches et sont
principalement utilisés pour le traitement d’images et la détection d’objets.

Les CNN sont largement utilisés pour identifier des images satellites, traiter des images
médicales, prévoir des séries chronologiques et détecter des anomalies. [25]

33
Chapitre IV L'apprentissage en profondeur

IV.7. Principe d’architecture d’un Réseaux neuronaux convolutifs (CNN)

Un réseau de neurones convolutif n'est pas seulement un réseau neuronal profond avec
de nombreuses couches cachées. Il s'agit plutôt d'un réseau profond qui simule le
fonctionnement du cortex visuel du cerveau pour reconnaître et classifier des images ou des
vidéos, et pour découvrir un objet ou même une partie dans une image.

Le concept et le fonctionnement des réseaux de neurones convolutifs est différent des


autres réseaux de neurones, en effet un réseau neuronal convolutif comporte deux parties
distinctes avec une entrée dans laquelle une image en forme de matrice de pixels
bidimensionnelle (avec 2 dimensions, noir et blanc), ou une image couleur avec 3 dimensions
(couleurs : rouge, vert et bleu)

La première partie d’un réseau de neurones convolutif est la partie convolutionnelle qui
sert à extraire les caractéristiques de l'image. Ensuite, l'image passe par le fichier de séquence
de filtre, ou le noyau d'enroulement, ce qui conduit à la création d'une nouvelle image appelée
cartes de convolution .

Généralement, les filtres intermédiaires réduisent la résolution de l'image. Ensuite, les


cartes des caractéristiques sont aplaties dans un vecteur de caractéristiques pour former les
données d’entrée de la partie de couche entièrement connectée. Le rôle principal de cette couche
(complétement connectée) est de combiner les caractéristiques contenues dans le vecteur de son
entrée pour la classification des images. La sortie du CNN sera des neurones qui représentent
un neurone par classe et les valeurs obtenus sont généralement normalisés entre 0 et 1 . [26]

IV.8. Les blocs de construction

Une architecture CNN est formée par un empilement de couches de traitement indépendantes

IV.8.1. Couche de convolution (CONV)

La convolution est un outil mathématique utilisé pour simplifier des équations plus
complexes et pour faire du traitement de l’image et du signal numérique, car elle permet de
faire l’extraction des caractéristiques à partir des images d'entrées, afin d’appliquer le bon filtre
.Le filtre (aussi connu sous le nom du noyau de convolution) consiste en des poids appliquer à
une image. La sortie de la couche de convolution est l’image entrée mais avec certaines
modifications en constituant ainsi une carte des caractéristiques La couche de convolution
fonctionne de manière très différente des autres couches du réseau neuronal. Cette couche
34
Chapitre IV L'apprentissage en profondeur

n'utilise pas de poids de connexion et de somme pondérée. Au lieu de cela, elle contient des
filtres qui convertissent les images. Nous appellerons ces filtres des filtres de convolution .Si
par exemple, la couche de convolution contient quatre filtres, il générera quatre cartes de
caractéristiques. La convolution est une opération qui se base sur le plan bidimensionnel de la
donnée et son concept et ses étapes de calcul sont simples. [27]

Pour comprendre le fonctionnement de la couche de convolution, ci-dessous un exemple


simple.

Figure IV.4 : Ensemble de neurones (cercles) créant la profondeur d'une couche de


convolution (bleu). Ils sont liés à un même champ récepteur (rouge).

Nous allons générer une carte des caractéristiques via l'opération de filtrage de
convolution de cette image. Pour cela, nous utilisons les deux filtres de convolution présentés
ci-dessous. Il convient de noter que les filtres du ConvNet sont déterminés par le processus de
formation et non par décision manuelle.
En commençant par le premier filtre, l'opération de convolution commence au coin supérieur
gauche de la matrice de la même taille que le filtre de convolution la Figure L'opération de
convolution est la somme des produits des éléments qui sont situées sur les mêmes positions
des deux matrices. Le résultat de 7 dans la matrice de résultat est trouvé comme suit: (1×1) +
(1×0) + (4×0) + (6×1) = 7

Figure IV.5 : L'opération de convolution commence par le coin supérieur gauche

Une autre opération de convolution est menée pour la prochaine sous-matrice :

35
Chapitre IV L'apprentissage en profondeur

Figure IV.6 : La deuxième opération de convolution

Le même processus se répète jusqu'à ce que la carte des caractéristiques du filtre donné soit
produite, comme le montre la figure

Figure IV.7 : La carte des caractéristiques du filtre donné a été complétée

IV.8.2. Couche Pooling

Le pooling permet de réduire la dimension de chaque carte de caractéristiques, mais


conserve les informations les plus importantes. le pooling peut être de différents types : max,
moyenne, somme, etc.
Pooling est une technique typique que de nombreux systèmes de traitement de l'image
utilisent. afin de mener les opérations dans la couche pooling, nous devons déterminer comment
sélectionner le regroupement des pixels de l'image et comment définir la valeur représentative.
les pixels voisins sont généralement sélectionnés dans la matrice carrée, et le nombre de pixels
qui sont combinés, diffère d'un problème à l'autre. la valeur représentative est généralement
définie comme la moyenne ou le maximum des pixels sélectionnés.
le fonctionnement de la couche de pooling est très simple, par exemple, considérons l'image
d'entrée de 4×4 pixels de la figure[32]

Figure IV.8 : L'image d'entrée 4x4 pixels

36
Chapitre IV L'apprentissage en profondeur

Nous combinons les pixels de l'image d'entrée dans une matrice de 2×2 sans que les
éléments chevauchent. Une fois que l'image d'entrée passe à travers la couche de Pooling, elle
se réduit en une image de 2×2 pixels. La figure montre les cas de Pooling qui en résulte en
utilisant le MeanPooling et MaxPooling.

Figure IV.9 : Les cas de pooling qui en résultent utilisent deux méthodes différentes

En fait, au sens mathématique, le processus de Pooling est une sorte d’opération de


convolution. La couche de Pooling peut améliorer la reconnaissance d'un chat, qui peut être
décentré dans l'image d'entrée. En outre, comme le processus de Pooling réduit la taille de
l'image, il est très bénéfique pour minimiser le nombre de données traitées et accélérer le
processus

IV.8.3. Couche entièrement connectée (FC)

Après plusieurs couches de convolution et de Max-Pooling, une réflexion de haut niveau


a lieu dans le réseau de neurones via des réseaux entièrement interconnectés, qui contiennent
des neurones directement connectés. Avec des neurones dans les deux couches adjacentes sans
être connectés à aucune couche à l'intérieur (connexions à toutes les sorties des couches
précédentes), ainsi, leurs fonctions d'activation peuvent être calculées en multipliant la matrice
suivie du décalage de polarisation

IV.9. Choix des hyperparamétres

Les CNNs utilisent plus d'hyperparamètres qu'un MLP standard. Même si les règles
habituelles pour les taux d'apprentissage et des constantes de régularisation s'appliquent
toujours, il faut prendre en considération les notions de nombre de filtres, leur forme et la forme
du max pooling.

37
Chapitre IV L'apprentissage en profondeur

IV.9.1. Nombre de filter

Comme la taille des images intermédiaires diminue avec la profondeur du traitement,


les couches proches de l'entrée ont tendance à avoir moins de filtres tandis que les couches plus
proches de la sortie peuvent en avoir davantage. Pour égaliser le calcul à chaque couche, le
produit du nombre de caractéristiques et le nombre de pixels traités est généralement choisi
pour être à peu près constant à travers les couches. Pour préserver l'information en entrée, il
faudrait maintenir le nombre de sorties intermédiaires (nombre d'images intermédiaire multiplié
par le nombre de positions de pixel) pour être croissante (au sens large) d'une couche à l'autre.
Le nombre d'images intermédiaires contrôle directement la puissance du système,
dépend du nombre d'exemples disponibles et la complexité du traitement.

IV.9.2. Forme du filtre

Les formes de filtre varient grandement dans la littérature. Ils sont généralement choisis
en fonction de l'ensemble de données. Les meilleurs résultats sur les images de MNIST (28 x
28) sont habituellement dans la gamme de 5 × 5 sur la première couche, tandis que les
ensembles de données d'images naturelles (souvent avec des centaines de pixels dans chaque
dimension) ont tendance à utiliser de plus grands filtres de première couche de 12 × 12, voire
15 × 15.

Le défi est donc de trouver le bon niveau de granularité de manière à créer des
abstractions à l'échelle appropriée et adaptée à chaque cas.

IV.9.3. Forme du max pooling

Les valeurs typiques sont 2 × 2 (figure 10). De très grands volumes d'entrée peuvent
justifier un pooling 4 × 4 dans les premières couches. Cependant, le choix de formes plus
grandes va considérablement réduire la dimension du signal, et peut entraîner la perte de trop
d'information.

38
Chapitre IV L'apprentissage en profondeur

Figure IV.10 : Exemple de max pooling (2×2).

IV.10. Les modèles réseaux de neurones convolutifs

Il existe plusieurs modèles dans le domaine des réseaux convolutifs qui ont un nom. Les
plus courants sont:

IV.10.1. ResNet :

Réseau résiduel développé par kaiming he et al. a été le gagnant d'ilsvrc 2015. il propose
des connexions spéciales et un usage intensif de la normalisation des lots . l'architecture ne
contient pas de couches entièrement connectées à la fin du réseau. (la présentation de kaiming
( vidéo , diapositives ) et quelques expériences récentes reproduisant ces réseaux dans
torch). resnets sont actuellement des modèles de réseaux neuronaux convolutifs de pointe et
constituent le choix par défaut pour l'utilisation de convnets dans la pratique. en particulier, voir
également les développements plus récents qui modifient l'architecture originale de kaiming he
et al. mappages d'identité dans des réseaux résiduels profonds

Figure IV.11 : L'architecture de ResNet

39
Chapitre IV L'apprentissage en profondeur

IV.10.2. VGG16

VGG16 est un réseau Covnet à 16 couches utilisé par le groupe de géométrie visuelle
(VGG) de l’Université d’Oxford dans le cadre du concours ILSVRC (ImageNet) en 2014. Le
modèle atteint un taux de succès de 92,5% dans le top 5 sur l’ensemble de validation

Il prend en entrée une image en couleurs de taille 224*224 px et la classifie dans une
des 1000 classes. Il renvoie donc un vecteur de taille 1000, qui contient les probabilités
d’appartenance à chacune des classes. L’architecture de VGG-16 est illustrée par les schémas
ci-dessous

Figure IV.12 : L'architecture de VGG16

IV.10.3. VGG19

VGG-19 est utile en raison de sa simplicité car 3 3 couches convolutionnelles sont


installées sur le dessus pour se développer avec niveau de profondeur. Pour réduire la taille du
volume, les couches de regroupement maximales ont été utilisées comme paramètre dans
VGG19.

Utilisé comme données d'entrée pour VGGNet. Dans la phase d'apprentissage, des
couches convolutives sont utilisées Extraction d'entités et de couches de pooling maximales
associées à certaines couches convolutivesRéduisez les dimensions des fonctions. Dans la
première couche convolutive, il y avait 64 cœurs

Appliquer pour extraire l'entité des images saisies. Des couches entièrement connectées
ont été utilisées pour préparer vecteurs de fonctions. Le vecteur de caractéristiques acquis est
en outre exposé pour PCA et SVD aux dimensions Réduisez et sélectionnez la fonction de
données d'image pour de meilleurs résultats de classification. réduire haut Les données
dimensionnelles utilisant PCA et SVD sont une tâche importante. PCA et SVD sont plus
bénéfiques car Elle est plus rapide et numériquement plus stable que les autres techniques de

40
Chapitre IV L'apprentissage en profondeur

réduction. Technique. Les performances du système basé sur VGG-19 ont été comparées à une
autre caractéristique Architectures d'extraction incluant AlexNet et SIFT. AlextNet est une
fonction d'extraction multicouche

L'architecture utilisée dans CNN. La transformation de caractéristiques fixes à l'échelle


(SIFT) est une extraction de caractéristiques classique Une technique introduite par Mansour
pour détecter les caractéristiques locales de l'image d'entrée dans un champ vision par
ordinateur.

IV.11. L’entraînement d’un nouveau CNN

La création d'un réseau de neurones convolutifs est une tâche difficile et coûteuse car
elle nécessite une bonne expérience, du matériel et la quantité de données nécessaires. La
première étape consiste à fondre l'architecture du réseau, c'est-à-dire le nombre de couches, la
taille et les opérations matricielles qui les relient, puis la formation consiste à optimiser les
paramètres du réseau pour réduire l'erreur de classification en sortie. Le temps d’exécution peut
prendre plusieurs jours pour les meilleurs réseaux CNN car les unités de traitement graphique
(GPU) fonctionnent sur des centaines de milliers d'images[26]

IV.12. Avantage du CNNs

Un avantage majeur des réseaux convolutifs est l'utilisation d'un poids unique associé
aux signaux entrant dans tous les neurones d'un même noyau de convolution. Cette méthode
réduit l'empreinte mémoire, améliore les performances [27] et permet une invariance du
traitement par translation. C'est le principal avantage du CNN par rapport au MLP, qui lui
considère chaque neurone indépendant et donc affecte un poids différent à chaque signal
entrant. Lorsque le volume d'entrée varie dans le temps (vidéo ou son), il devient intéressant de
rajouter un paramètre de temporisation (delay) dans le paramétrage des neurones.
Comparés à d'autres algorithmes de classification de l'image, les réseaux de neurones
convolutifs utilisent relativement peu de pré-traitement. Cela signifie que le réseau est
responsable de faire évoluer tout seul ses propres filtres (apprentissage sans supervision), ce qui
n'est pas le cas d'autres algorithmes plus traditionnels. L'absence de paramétrage initial et
d'intervention humaine est un atout majeur des CNN.

41
Chapitre IV L'apprentissage en profondeur

IV.13. Conclusion

Dans ce chapitre, nous avons présenté les concepts de base des réseaux de neurones
artificiels et des réseaux de neurones à convolution (CNN) et nous avons présenté les opérations
de base des réseaux CNN à savoir, le fonctionnement de la couche de convolution, le Polling,
la couche complètement connectée.

42
Chapitre V
Résultats et analyse
V.1. Introduction .................................................................................................. 43
V.2. Performance de system ................................................................................ 43
V.3. Base de données utilisée ............................................................................... 44
V.4. Approche proposée ....................................................................................... 44
V.5. Détecteur SSD ............................................................................................. 45
V.6. Résultats ....................................................................................................... 45
V.7. Analyse et Comparaison ............................................................................... 53
V.8. Conclusion .................................................................................................... 54
Chapitre V Résultats et analyse

V.1. Introduction

Nous présenter dans ce chapitre une méthode de détection de visage basée sur les
réseaux de neurones convolutif, nous avons utilisé deux différents model de CNN ( resnet50
resnet101) et nous avons montré Des différents résultats obtenus en termes de ( précision / perte
) . La comparaison des résultats a montré que le nombre d'époques, la taille de la base et le
model CNN, sont des facteurs importants pour l'obtention de meilleurs résultats .Ce travail il a
été développé en utilisant le langage de programmation MATLAB (MATLAB de PC version
2022)

V.2. Performance de system

Résultat de noter system nous a donne troi type de courbe ( pour chaque paramètres une
courbe " précision RMES loss ")

V.2.1. fonctions de Loss

La fonction LOSS est un élément essentiel de l'entraînement du modèle. Elle quantifie


la qualité d'exécution d'une tâche par un modèle en calculant un seul nombre .LOSS Si les
prédictions du modèle sont totalement erronées, la perte sera un nombre élevé. S'ils sont plutôt
résulta bons, ce sera proche de zéro

Loss= -log(Y_pred)

Figure V.1: Exemple courbe de loss

V.2.2. fonctions de RMSE

L'erreur quadratique moyenne (RMSE). Elle est définie comme la racine carrée de
l'erreur quadratique moyenne.

43
Chapitre V Résultats et analyse

𝑛
1
𝑅𝑀𝑆𝐸 = √ ∑(𝜖𝑖)2
𝑛
𝑖=1

Avec :

- RMSE, la racine de l'erreur moyenne quadratique

- n, le nombre d'observations

- l’écart entre chaque observation i et mesure i

V.2. 3. Précision de system

La mesure de précision, elle évalue Le pourcentage de nombre des visage Détectée divisant
par Le nombre total de visage premier plan par l'algorithme suivent

Le nombre des visage Détectée


précision =
Le nombre total de visage

V.3. Base de données utilisée :

Nous avons utilisé la base de données visage plus large )WIDER FACE( qui comprend
32 203 photos et identifie 393 703 visages avec un degré élevé de taille, répartis sur trois
répertoire le première dossier pour l’apprentissage ( WIDER_ train ) et le deuxième pour la
validation ( WIDER_ val) et le dernier pour le test (WIDER_ test) .

V.4. Approche proposée

Nous avons choisi un model cnn pour avoir des matrice représente chaque application
filtre convolutif ensuit le ssd utilisé les caractéristiques pour Définir la zone du visage ,A
cet effet, nous avion utilisai , deux modèles onde CNN que nous expliquerons dans le prochain
titre , A partir d'une image générale, on détectai le visage comme la Figer suivent

44
Chapitre V Résultats et analyse

Figure V.2: Extraction des caractéristiques et Détecte visage

V.5. Détecteur SSD

Détecteur SSD (Single-shot Detector ) est un algorithme de détection d'objet en une


étape. Cela signifie que, contrairement aux modèles à deux étapes, SSD ne nécessite pas d'étape
initiale de génération de propositions d'objets. Cela le rend généralement plus rapide et plus
efficace que les approches en deux étapes, ce qui sacrifie les performances de détection du
visage pour gagner en vitesse.

Figure V.3: l'architecture SSD

V.6. Résultats :

Après avoir appliqué notre programme utilisant deux modèles CNN (Resnet-50 ,
Resnet-101) On obtient les résultats suivants :

Expérience 1

Dans cette expérience nous avons utilisé le Model ResNet50 et le détecteur SSD pour
déterminer la zone de visage dans une image . nous avons utilisée 50 % de base de données et
tourne 4 fois sue la base de données (epoche=4)

45
Chapitre V Résultats et analyse
Tab.V.1 présente les résultats 1 obtenus pour chaque itération et le temps d'exécution de
chaque étapes .

Tableau.V.1 : les résultats d’Expérience 1

Time Elapsed précision


Iteration Loss
(hh:mm:ss) (Accuracy) RMSE
1 00:00:21 44.2118 50.30% 2.16

300 01:03:57 3.5227 99.77% 1.00


750 02:38:31 2.0149 99.89% 0.70
800 02:49:04 1.7370 99.93% 0.58
1500 05:19:50 2.3444 99.91% 0.61
1550 05:31:08 2.2566 99.90% 0.64
1900 06:49:43 2.5001 99.92% 0.73
2250 08:08:19 2.3817 99.86% 0.65
3500 08:19:38 1.5717 99.92% 0.57
4500 10:57:03 1.8656 99.89% 0.59

les résultats obtenus sur Les figures suivantes

46
Chapitre V Résultats et analyse

Figure V. 4 : Les courbes Résultats de Expérience 1


Nous pouvons remarqué début les valeurs de (Loss , REMS) diminue très rapide jusqu'à
300 itération, puis elles diminuent lentement pour un nombre important des itérations jusqu'à
ce qu'elles se stabilise a la valeur (1.8656, 0.59 ). et pour la courbe de précision (ACC) au début
la valeur de (Acc) augmente très rapide jusqu'à 300 itération puis elles augmente lentement un
nombre important des itérations jusqu'à ce qu'elles se stabilise a la valeur (99.89%).

Expérience 2

Dans cette expérience nous avons utilisé le Model ResNet 50 et le détecteur SSD pour
déterminer la zone de visage dans une image . nous avons utilisée 100 % de base de données et
tourne 10 fois sue la base de données (epoche=10)

Tab.V.2 présente les résultats 2 obtenus pour chaque itération et le temps d'exécution de
chaque étapes .

47
Chapitre V Résultats et analyse

Tableau.V.2 : les résultats d’Expérience 2

Time Elapsed précision


Iteration Loss RMSE
(hh:mm:ss) (Accuracy)
1 00:00:21 35.4049 59.06% 2.12

750 02:39:17 2.8505 99.85% 0.96


800 02:49:58 4.2933 99.80% 1.11
1500 04:04:41 2.7307 99.86% 0.86
1550 05:09:10 2.8881 99.82% 0.93
2250 06:13:28 2.4793 99.86% 0.97
2300 07:06:42 2.8713 99.84% 0.90
3000 08:43:12 2.2601 99.76% 0.86
3050 09:25:40 2.7123 99.89% 0.81
3750 10:18:31 2.8330 99.86% 0.80
3800 11:32:34 1.9862 99.86% 0.72
4500 12:14:59 2.3382 99.87% 0.85
4550 13:39:55 2.9115 99.87% 0.88
4750 14:54:14 1.9979 99.90% 0.71
4800 15:58:15 1.8693 99.89% 0.74
5000 16:40:55 1.8635 99.92% 0.55
5050 18:48:05 1.9010 99.86% 0.78
5750 19:09:22 1.9133 99.89% 0.73
5800 20:33:55 2.5201 99.89% 0.78
6000 21:29:46 2.4163 99.85% 0.79

les résultats obtenus sur Les figures suivantes :

48
Chapitre V Résultats et analyse

Figure V.5 : Les courbes Résultats de Expérience 2

Nous pouvons remarqué début les valeurs de (Loss , REMS) diminue très rapide jusqu'à
700 itération, puis elles diminuent lentement pour un nombre important des itérations jusqu'à
ce qu'elles se stabilise a la valeur (0.79 , 2.4163). et pour la courbe de précision (ACC) au début
la valeur de (Acc) augmente très rapide jusqu'à 700 itération puis elles augmente lentement un
nombre important des itérations jusqu'à ce qu'elles se stabilise a la valeur (99.85%).

Expérience 3

Dans cette expérience nous avons utilisé le Model ResNet101 et le détecteur SSD pour
déterminer la zone de visage dans une image . nous avons utilisée 50 % de base de données et
tourne 4 fois sue la base de données (epoche=4)

Tab.V.3 présente les résultats 3 obtenus pour chaque itération et le temps d'exécution de
chaque étapes .

49
Chapitre V Résultats et analyse

Tableau.V.3 : les résultats d’Expérience 3

Time Elapsed précision


Iteration Loss RMSE
(hh:mm:ss) (Accuracy)
1 00:00:28 66.2866 44.22% 3.23

100 01:27:28 2.7514 99.82% 0.95


350 02:34:05 2.4461 99.85% 0.82
600 03:18:14 2.1856 99.83% 0.81
750 04:46:51 3.8322 99.89% 1.13
850 05:53:30 2.0206 99.92% 0.62
900 07:44:23 2.4732 99.85% 0.88
1250 09:57:24 2.1156 99.93% 0.68
1300 10:41:56 1.9779 99.93% 0.58
1500 11:11:13 2.3226 99.85% 0.75

les résultats obtenus sur Les figures suivantes :

50
Chapitre V Résultats et analyse
Figure V.6 : Les courbes Résultats de Expérience 3
Nous pouvons remarqué début les valeurs de (Loss , REMS) diminue très rapide jusqu'à
350 itération, puis elles diminuent lentement pour un nombre important des itérations jusqu'à
ce qu'elles se stabilise a la valeur (0.75 , 2.3226). et pour la courbe de précision (ACC) au début
la valeur de (Acc) augmente très rapide jusqu'à 350 itération puis elles augmente lentement un
nombre important des itérations jusqu'à ce qu'elles se stabilise a la valeur (99.85%).

Expérience 4
Dans cette expérience nous avons utilisé le Model ResNet101 et le détecteur SSD pour
déterminer la zone de visage dans une image . nous avons utilisée 100 % de base de données et
tourne 10 fois sue la base de données (epoche=10)

Tab.V.4 présente les résultats 4 obtenus pour chaque itération et le temps d'exécution de
chaque étapes .

Tableau.V.4 : les résultats d’Expérience 4


Time Elapsed précision
Iteration Loss RMSE
(hh:mm:ss) (Accuracy)
1 00:00:27 59.9784 48.63% 2.68

750 04:02:51 2.3087 99.87% 0.80


800 04:19:06 2.4388 99.90% 0.71
1500 08:45:36 2.5903 99.89% 0.76
1550 09:07:32 1.8629 99.92% 0.65
2250 14:12:54 2.1455 99.88% 0.68
2300 14:34:47 2.0026 99.86% 0.74
3000 19:40:01 1.5402 99.94% 0.58
3050 20:01:54 1.9585 99.89% 0.61
3750 25:06:56 1.4889 99.90% 0.52
3800 25:28:48 1.5745 99.92% 0.57
4500 30:33:59 2.1061 99.92% 0.77
4550 30:55:59 1.7878 99.93% 0.55
5250 36:22:40 1.6873 99.91% 0.64
5300 36:44:35 1.2689 99.92% 0.48

51
Chapitre V Résultats et analyse

6000 41:49:34 1.6832 99.92% 0.66


6050 42:11:27 1.2450 99.92% 0.50
6750 47:17:03 1.7539 99.88% 0.61
6800 47:38:47 1.6973 99.92% 0.59
7500 52:57:18 1.8280 99.91% 0.48

les résultats obtenus sur Les figures suivantes :

Figure V.7 : Les courbes Résultats de Expérience 4

nous pouvons remarqué début les valeurs de (Loss , REMS) diminue très rapide jusqu'à
750 itération, puis elles diminuent lentement pour un nombre important des itérations jusqu'à
ce qu'elles se stabilise a la valeur (0.48, 1.8280). et pour la courbe de précision (ACC) au début
la valeur de (Acc) augmente très rapide jusqu'à 750 itération puis elles augmente lentement un
nombre important des itérations jusqu'à ce qu'elles se stabilise a la valeur (99.91%).

52
Chapitre V Résultats et analyse

V.7. Analyse et Comparaison :

Le tableau suivant présente résume de les résultas des quatre Expériences

Tableau.V.5 : résume de les résultas des quatre Expériences


Des réseaux ResNet 50 ResNet 101
Epochs 4 10 4 10
Base de donnée 50% 100% 50% 100%
Précision 99.89% 99.85% 99.85% 99.91%
Loss 1.8656 2.4163 2.3226 1.8280
REMS 0.59 0.79 0.75 0.48

Les courbes (Loss, REMS, ACC) ont une forme similaire pour toutes les expériences
mais avec des valeurs différentes.

Sur cette base, nous pouvons analyser ces résultats comme suit :

Au début les courbes (loss, REMS) diminuent rapidement et les courbes de précision
augmentent rapidement aussi, Cela est dû au fait que le modèle est nouveau et qu'au début de
son apprentissage les résultats s'améliorent rapidement et cela grâce à la phase d'apprentissage
où il acquiert des informations sur les images de la base de données et le zones de visages.

Ensuit, la diminution de (Loss, REMS) et l'augmentation de la courbe de précision


(ACC) seront lentes, et cela est dû au fait que le modèle est sur le point d'être saturé
d'informations puis se stabilise malgré nous augmentons le nombre des itération (epochs).

Quant aux meilleurs résultats, il était évident lors de l'utilisation de 100% de la base de
données, cela est dû au fait que plus le modèle apprend sur un grand nombre d'images, meilleurs
sont les résultats.

De plus, l'utilisation du modèle ResNet-101 a donné de meilleurs résultats que le modèle


ResNet-50, car le premier modèle contient un certain nombre de couches convolitives
supplémentaires pour extraire plus des caractéristiques qui en bénéficient pour donner de
meilleurs résultats.

53
Chapitre V Résultats et analyse
Et au final, le meilleur résultat de notre expérience est de résultat 4 (utilisant le model
ResNet-101 avec le nombre total des images de notre base de données et bien sur le maximum
des epochs appliqués )

V.8. Conclusion

Nous avons présenté dans ce chapitre une approche de classification basée sur les
réseaux de neurones convolutif, pour cela nous avons utilisé trois modèles avec différents
architectures et nous avons montré les différents résultats obtenus en termes de précision et
d'erreur. La comparaison des résultats trouvés a montré que le nombre d'époque, la taille de la
base et la profondeur de réseaux, sont des facteurs importants pour l'obtention de meilleurs
résultats.

54
Conclusion Générale

La biométrie est un domaine à la fois intéressant et complexe. elle tente, par des outils
mathématiques souvent très évolués, de faire la distinction entre des individus, nous obligeant
à travailler dans un contexte de très grande diversité. cette diversité se retrouve également
dans le nombre considérable d’algorithmes qui ont été proposés en détection de visage.

Notre travail basé sur le problème de détection de visage, qui consiste à la mise au
point d’un système robuste destiné a détecté le visage dans une image en utilisant la technique
de réseau de neurone convolutif,

Si la biométrie est un enjeu important au niveau scientifique, la recherche, en


particulier dans le domaine de détection des visages offre encore un champ d’investigations
très ouvert pour les futures travaille.

D’abord nous avions besoin la biométrie parce que c est important de


reconnaissance sera présenterons générales sur le traitement d’images et donnant les
caractéristiques car les visage on d’images ensuite présenterons principe détection visage
et consacré à la description détaillée des deep learning abase du programme fonctionne par de
neurones convolutif a la fin nous exposerons la les résultats obtenus et la comparaison entre
les méthodes utilisés

En guise de perspectives, dans un premier temps une extension de ce travail peut être
envisagée par l’étude et la réalisation d’un système biométrique de détection de visage avec
des performances assez hautes exemples utilisé des autre modèles CNN, d’autres détecteurs et
créer un nouveau modèle qui fait l'apprentissage sur une nouvelle base de données proposée
spécifique aux visages cela nous a donné un bon résultat malgré le problème de matériel

55
Références
[1] Dictionnaire de Larousse, biométrie.

[2] Www. Kaspersky.fr (Consulté le 9 mars).

[3] https://www.thalesgroup.com/fr/europe/france/dis/gouvernement/inspiration/biometrie

[4] ISO/IEC 19795-1. Information technology – biometric performance testing and reporting – part 1 :
Principles and framework, 2006. [cit´e p. 3, 14, 20, 21, 22, 23, 26, 27, 33, 154]

[5] P. Florent, D. Jean-Luc, Introduction à la Biométrie Authentification des Individus par Traitement Audio-
Vidéo, Institut Eurécom, 2007.

[6] www.Wikipédia.com consulté le 10/02/2017

[7] N. K. Ratha, J. H. Connell, and R. M. Bolle. An analysis of minutiae matching strength. In Audio- and
Video-Based Biometric Person Authentication, pages 223–228, 2001. [cit´e p. 3, 4, 22, 56]

[8] T. Matsumoto, H. Matsumoto, K. Yamada, and S. Hoshino. Impact of artificial “gummy” fingers on
fingerprint systems. In The International Society for Optical Engineering, volume 4677, 2002. [cit´e p. 22]

[9] M. Theofanos, B. Stanton, and C. A. Wolfson. Usability & Biometrics : EnsuringSuccessful Biometric
Systems. National Institute of Standards and Technology (NIST),2008. [cit´e p. 23]

[10] Ahlem ADJIMI Classification des empreintes digitales par les réseaux de neurones flous Master
Académique en Informatique Université de M’sila 27/06/2012

[11] M.ANDRE, ‘Introduction aux techniques de traitement d’images’, Eyrolles 1987.

[12] T Guyer. « Cours de traitement d’images ». Université de Chambéry.

[13] L. Deng, D. Yu, et al., “Deep learning : methods and applications,” Foundations and Trends R in Signal
Processing, vol. 7, no. 3–4, pp. 197–387, 2014.

[14] H. Y. Xiong, B. Alipanahi, L. J. Lee, H. Bretschneider, D. Merico, R. K. Yuen, Y. Hua, S. Gueroussov, H.


S. Najafabadi, T. R. Hughes, et al., “The human splicing code reveals new insights into the genetic
determinants of disease,” Science, vol. 347, no. 6218, p. 1254806, 2015.

[15] D. Silver, A. Huang, C. J. Maddison, A. Guez, L. Sifre, G. Van Den Driessche, J. Schrittwieser, I.
Antonoglou, V. Panneershelvam, M. Lanctot, et al., “Mastering the game of go with deep neural networks
and tree search,” Nature, vol. 529, no. 7587, pp. 484–489, 2016.

[16] F. Buggenthin, F. Buettner, P. S. Hoppe, M. Endele, M. Kroiss, M. Strasser, M. Schwarzfischer, D. Loeffler,


K. D. Kokkaliaris, O. Hilsenbeck, et al., “Prospective identification of hematopoietic lineage choice by deep
learning,” Nature Methods, vol. 14, no. 4, pp. 403–406, 2017.

[17] E. Gibney, “Google reveals secret test of ai bot to beat top go players.,” Nature, vol. 541, no. 7636,p. 142,
2017.

56
[18] A. Esteva, B. Kuprel, R. A. Novoa, J. Ko, S. M. Swetter, H. M. Blau, and S. Thrun, “Dermatologistlevel
classification of skin cancer with deep neural networks,” Nature, vol. 542, no. 7639, pp. 115–118, 2017.

[19] H. C. Hazlett, “Early brain development in infants at high risk for autism spectrum disorder,” in Biological
Psychiatry, vol. 73, pp. 115S–115S, ELSEVIER SCIENCE INC 360 PARK AVE SOUTH, NEW YORK,
NY 10010-1710 USA, 2013.

[20] L. A. Gatys, A. S. Ecker, and M. Bethge, “A neural algorithm of artistic style,” arXiv preprint arXiv
:1508.06576, 2015.

[21] R. Dechter and J. Pearl, The cycle-cutset method for improving search performance in AI applications.
University of California, Computer Science Department, 1986.

[22] I. Aizenberg, N. N. Aizenberg, and J. P. Vandewalle, Multi-Valued and Universal Binary Neurons : Theory,
Learning and Applications. Springer Science & Business Media, 2013.

[23] https://dataanalyticspost.com/deep-learning-vieille-histoire-reserve-surprises/2022/05/05

[24] Charu C. Aggarwal, Neural Networks and Deep Learning, IBM T. J. Watson Research Center International
Business Machines,Yorktown Heights, NY, USA.

[25] https://mobiskill.fr/blog/conseils-emploi-tech/quels-sont-les-algorithmes-de-deeplearning/2022/05/05

[26] Phil Kim; Matleb Deep learning with machine learning, Neural networks and Artificial intelligence.

[27] A. Krizhevsky, I. Sutskever et G. E. Hinton. ImageNet Classification with Deep Convolutional Neural
Networks », Advances in neural Processing Systems de traitement. 2012.

[28] Graham, Benjamin. Fractional Max-Pooling. 18 décembre 2014.

[29] LeCun, Yann. L’apprentissage prédictif est le grand défi scientifique de l’intelligence artificielle .

[30] R.Chellappa et al « Human and machine recognition of faces : A survey, Proc IEEE 83,5,1995

[31] Valentin et al « Connectionist models of face processing : A survey » , Pattern Recog,27 ,1209-1230,1994

[32] Brunelli et al « Face recognition : Feature versus templates», IEEE Trans,Pattern


Anal,Mach,Intell,15,1042-1052,1993

[33] H. A. Rowley, S. Baluja, and T. Kanade, Neural Network-Based Face Detection,IEEE Trans. Pattern
Analysis Machine Intelligence, vol. 20 no. 1, pp. 23-38, January1998

[34] Ming Hsuan Yang, David J. Kriegman, and Narendra Ahuja. Detecting Faces inImages: A Survey. IEEE
Transactions on Pattern Analysis and Machine Intelligence,vol. 24, no. 1, pp. 34–58, January 2002.

[35] S.A. Sirohey, Human Face Segmentation and Identification, Technical Report CS-TR-

3176, Univ. of Maryland, pp. 1-33,1993.

[36] http://shuoyang1213.me/WIDERFACE/ 2022/05/16

[37] http://vis-www.cs.umass.edu/fddb/ 2022/05/16

57

Vous aimerez peut-être aussi