0% ont trouvé ce document utile (0 vote)
17 vues153 pages

Selmane Nadia

Ce mémoire présente un système d'authentification biométrique basé sur la reconnaissance de l'iris, considéré comme l'un des moyens les plus fiables pour l'identification des individus. Il aborde les différentes catégories de facteurs d'authentification, ainsi que les avantages et inconvénients de la biométrie par rapport aux méthodes traditionnelles. Le travail se concentre sur la conception et la réalisation d'un système robuste en termes de fiabilité et de sécurité.

Transféré par

Yannick Ezin
Copyright
© © All Rights Reserved
Nous prenons très au sérieux les droits relatifs au contenu. Si vous pensez qu’il s’agit de votre contenu, signalez une atteinte au droit d’auteur ici.
Formats disponibles
Téléchargez aux formats PDF, TXT ou lisez en ligne sur Scribd
0% ont trouvé ce document utile (0 vote)
17 vues153 pages

Selmane Nadia

Ce mémoire présente un système d'authentification biométrique basé sur la reconnaissance de l'iris, considéré comme l'un des moyens les plus fiables pour l'identification des individus. Il aborde les différentes catégories de facteurs d'authentification, ainsi que les avantages et inconvénients de la biométrie par rapport aux méthodes traditionnelles. Le travail se concentre sur la conception et la réalisation d'un système robuste en termes de fiabilité et de sécurité.

Transféré par

Yannick Ezin
Copyright
© © All Rights Reserved
Nous prenons très au sérieux les droits relatifs au contenu. Si vous pensez qu’il s’agit de votre contenu, signalez une atteinte au droit d’auteur ici.
Formats disponibles
Téléchargez aux formats PDF, TXT ou lisez en ligne sur Scribd

REP

PUBLIQU
UE ALGE
ERIENNE
E DEMO
OCRATIQ
QUE ET P
POPULAIIRE
M
Ministère d l’Enseignementt Supérieu
de ur et de laa Rechercche
Scientiffique
U
Universit é Moulou
ud Mamm
meri de Tizi-Ouzou
u

Faculté de
d génie électrique
é et d’informatiquee
Départem
ment Info
ormatiquee

M
Mémoir
re
En vue de l’obtenntion du diplôme
d master deuxx en inform
matique

Option : Ingénnierie des Systèmes d’Informaations (ISII)

Thème :

Concepption et
e réaalisatioon d’uun
systtème autom
a matiqu ue de
recoonnaisssancee par l’iris

Proposé et dirigé par :

Mm : F. Oughlis
O

Présentéé et Réalissé par :

Melle : Sellmane Naddia

Melle :Sidaali Malikaa

Proomotion
n 2012
Résumé
L’authentification des personnes est une tâche qui suscite un intérêt grandissant dans la
société cybernétique d’aujourd’hui. Le but étant de restreindre les accès aussi bien physiques
que logiques (web sécurisé, accès distant).

Les facteurs d’authentification ont été placés dans trois catégories distinctes, mais qui peuvent
être utilisés de façon disjointe ou bien conjointe : ceux basés sur ce que nous connaissons
(mots de passe), ceux basés sur ce que nous possédons (carte à puce, etc.) et ceux basés sur ce
que nous sommes (Biométrie). La biométrie, par rapports aux deux autres modes, présente des
avantages de confidentialité et de non répudiation. Cependant, son caractère indéterministe
délimite sa fiabilité.

Le but de ce travail est d’arriver à un système d’authentification (et identification) robuste en


termes de fiabilité et de sécurité qui utiliserait l’iris comme modalité biométrique. La
reconnaissance par iris est considérée comme le système d’identification biométrique le plus
fiable et le plus efficace qui soit disponible.

Mots clés : Authentification, identification, iris, biométrie, reconnaissance de forme.


Sommaire
Partie 1 : Etat de l’art
Introduction générale ………………………..…………..…………………………………1

Chapitre I : Présentation de la biométrie…………...……..…………………2


1. Introduction ……………………………..…………..……………………………………..3
2. Définition ……...…………………………..…………………………..……………………4
3. Fonctionnement de la biométrie..………...…………..…………………………………...…5
3.1 Système biométrique:……………………………………………………..……….5
3.1.1 Définition………………………………...…………………………...5
3.1.2 Architecture du système biométrique ……………………………......5
3.1.2 Fonctionnement du système biométrique ...…………………….........7
3.2 Fiabilité des systèmes biométriques……………………………………..……….11
3.2.1 Test de vérification ……………………...………………………….11
3.2.2 Test d’identification ……………………………..............................12
4. Les techniques de la biométrie……...…………..…………………………………..……...13
4.1 Empreintes digitales ……………………………………………………………...14
4.2 Le visage ………………………………………………………………………...16
4.3 La géométrie de la main…………………………………………………………..17
4.4 Reconnaissance de l’iris:…………………………………………………………18
4.5 La rétine :………………………………………………………………………...18
4.6 Reconnaissance de la voix ……………………………………………………….19
4.7 La thermographie ………………………………………………………………..20
4.8 Configuration des veines (vein pattern-scan) …………………………………….20
4.9 La signature dynamique …………………………………………………………20
4.10 La dynamique de la frappe (au clavier) …………………….…………………...21
5. Domaine d’utilisation de la biométrie ……………..…………………………………...….24
6. Conclusion ……...…………..…………………………………..…………………………25

Chapitre II : L’iris………………...………………………………………….25
1. Introduction ……………………………..…………..……………………………………26
2. Historique………………...………...…………..…………………………………...……...27
3. Anatomie de l’œil ………………………..…………………………..………………….....27
4. L’iris………………………………………………………………………………………..30
4.1 Définition ……………………………………………………..…………………30
4.2 Les caractéristiques de l’iris …………………………………………..………...30
4.3 Les avantages et les inconvénients ………………………………….……..……30
5. Conception générale d’un système de reconnaissance par l’iris………………...…………32
5.1 Module d’acquisition ……………………………………..…………………….32
5.2 Module segmentation ……………………………………..……………………..32
5.3 Module normalisation ………………………………………………..………….32
5.4 Module d’extraction du gabarit de l’iris ………………………………...………33
5.5 Module mise en correspondance ………………………………………..………33
6. Fonctionnement d’un système de reconnaissance d’iris ……………………………..……33
6.1 Principe générale ………………………………………………………….……33
6.1.1 Système d’acquisition ……………...……………………………....34
6.1.2 Traitement des données ………………………................................34
6.2 Fonctionnement du système …………………………………………..…………35
6.2.1 La phase d’enrôlement (inscription) ................................................37
6.2.2 La phase d'appariement…………………………………………… 37
6.2.3 Phase d’identification…………………………………………….. ..38
7. Niveau de décision dans une vérification d’iris……………………………………………38
8. Techniques de reconnaissance par iris……………………………………………………..40
9. Quelques méthodes connues de reconnaissance par iris …………………………………..41
9.1 Méthode de John Daugman……………………………………………………..41
9.2 Méthode de Wildes………………………………………………….41
9.3 Méthode de Boles……………………………………………………42
9.4 Méthode de Sanchez-Reillo & Al…………...……………………….42
9.5 Méthode de Y. Wang & Al……………………………………………….43

9.6 L’approche IriTech : L’utilisation de l’ondelette de Haar………. 43


10. Conclusion …………………………………………………………………44

Chapitre III: La conception algorithmique…………………………………

1. Introduction ……………………………..…………..……………………………………45
2. Structure modulaire du système .…………………………………...……………………...45
2.1 Modules du processus d’apprentissage …………………..……………………...47
2.1.1 Modules d’acquisition des images de l’œil ………………………...47
2.1.2 Modules de prétraitement des images ………………………...........47
2.1.3 Modules de détection des coordonnées de la pupille et de l’iris…… 49
2.1.4 Module de normalisation de l’iris………………………………… ..57
2.1.5 Module d’extraction des caractéristiques …………………………...60
2.2 Modules du processus d’identification …………………..……………………...63
2.1.1 Modules de calcul des distances …………………………...……….63
2.1.2 Modules d’identification ………………………………….………...63
2.3 Modules du processus de vérification ……………………………….…………..63
2.1.2 Modules de prise de décision ………………………………..……...63
3. Conclusion .……………………………………………………………………......……...64
Partie 2 : Mise en œuvre le système :

Chapitre IV : Analyse et Conception


1. Introduction ……………………………..…………..……………………………………65
2. Etapes de cycle de vie d’une application ………………………………...……..................65
2.1 Définition ……………………………………………………..…………………65
2.2 L’architecture d’une RUP …………………………………………..………….66
2.2.1 La phase initialisation ......................................................................66
2.2.2 La phase Analyse …………………………………………………66
2.2.2 La phase Conception ……………………………………………..66
2.2.2 La phase réalisation ………………………………………………..66
3. Application de la démarche RUP sur notre projet ……………………………………...…67

3.1 Phase initialisation ………………………..………………………………..…..67

3.1.1 Étude de l’existant.............................................................................67


3.1.2 Identification des tâches....................................................................69
3.1.3 Spécification des cas d’utilisation ....................................................69

3.2 Phase d’analyse ………………………..………………………………………..72

3.2.1 Diagramme de séquence ..................................................................72

3.2.2 Diagramme de collaboration ............................................................79

3.3 Phase de conception………………………..…………………………………….82


3.3.1 Digramme de classe .........................................................................82
3.3.2 Conception de la base de données ....................................................86
4. Conclusion…………………………………………………………………………………88

Chapitre V : Réalisation
1. Introduction ……………………………..…………..……………………………………89
2. Diagramme de déploiement..….…...…………..…………………………………...……...89
3. Outils de développement ..………………….………………………..………………….....90
3.1 JAVA ……………………………………………………..……………………..90
3.2 Pourquoi choisir java ? …………………………………………..……………...90
3.3 Netbeans.. ……………………………………………………..…………………90
3.4 Image J () …………………………………………..…………………………….91
3.5 Java Advanved Imaging (JAI)………………………………..………………….92
3.6 Postgres………………….………………………………..……………………...92
3.6.1 Définition..........................................................................................92
4. Présentation des bases d’images……………………..………………….............................94
4.1 Base de données BATH…………….………………………………..…………...94
4.2 Base de données ICE …………….………………………………..…………….94
4.3 Base de données MMU …………….………………………………..…………..95
4.4 Base de données UPOL ………….………………………………..……………..95
4.5 Base de données WVU …………….………………………………..…………...95
3.6 Base de données UBIRIS ………….………………………………..…………...96
5. Structure de données et implémentation……..…………………………………...…….....96
6. Présentation de l’application ..………………….………………………..……………….100
6.1 Page d’accueil …………….………………………………..…………………...100
6.2 Page enrôlement …………….………………………………..………………...100
6.3 Page d’identification…………….………………………………..…………….101
6.4 Page cherche personne …………….………………………………..………….104
7. Conclusion ..………………….………………………..…………………………………105

Conclusion générale ………………………..…………..…………………………………106

Annexes

Annexe A : Lexique biométrique…………………………………………………………107


Annexe B : UML………………………………………………………………………….112
Annexe C : Traitement d’image…………………………………………………………123
Liste de figures
Figure I.1 Evolution du marché international de la biométrie ………………………..............3

Figure I.2 Système de vérification biométrique général…………………………………..….6

Figure I.3 Principe de fonctionnement d’un système biométrique………………………........8

Figure I.4 Courbe du point d'équivalence des erreurs dans un système biométrique……..…12

Figure I. 5 Courbe DE…………………………………………………………………..……13

Figure I.6 Courbe CMC ………………………………………….…………………………12

Figure I.7 Quelques modalités biométriques et leurs dispositifs d'acquisition. ……..………14

Figure I.8 Une Empreinte digitale…………………………………………………………...15

Figure I.9 Acquisition d’une image au visage ………………………………………………16

Figure I.10 Scanner la forme de la main …………………………………….………………17

Figure I.11 Une capture de l’image de l’œil ………………………………………………...18

Figure I.12 Détail de l’œil …………………………………………………….…………….19

Figure I.13 les biométries les plus utilisées en fonction de cout et la pression……………...22

Figure I.14 Parts des technologies utilisées dans le secteur de la biométrie estimé par
l'International Biometric Group ……………………………………………………………...23

Figure II.2 : Description générale de l’œil………………………………………………..…28

Figure II.3 : Le fonctionnement de l'œil……………………………………………….……29

Figure II.4 : Images de 4 différents types de texture d’iris…………………………………..31

Figure II.5 : Conception un système biométrique basé sur l’iris…………………….………33

Figure III.6 : Schéma général d’un système de reconnaissance par iris……………..………33

Figure II.7 : Fonctionnement d’un système de reconnaissance d’iris………………………..36

Figure II.8 : La courbe ROC……………………………………………………...………….39


Figure II.9 : Illustration du relief de l’iris……………………………………………………40

Figure II.10 : Le découpage de l’iris en secteurs par Iritech………………………..……….44

Figure III.1 : Image capturé………………………………………………………………….45

Figure III.2 : Application du filter moyenneur sur l’image………………………………….46

Figure III.3 Exemple d’un filtre moyenneur de dimension 3x3……………………………..47

Figure III.4 : Application de filtre de Gausse avec un radius =3.0………………………….48

Figure III.6 : Image lisse puis passe au filtre de sobel………………………………………50

Figure III.7 : Application de filtre de canny…………………………………………………52

Figure III.8 Traçage d’une droite en fonction d’un contour…………………………………52

Figure III.9 Traçage d’une droite dans l’accumulateur……………………………………...53

Figure III.10 Centre d’un cercle dans un accumulateur……………………………………..53

Figure III.11 Traçage de lignes dans l’accumulateur en fonction de l’image de Canny et de la


matrice de directions………………………………………………………………………….54

Figure III.12 Application d’un seuil dans l’accumulateur…………………………………...55

Figure III.13 : Accumulateur de Hough en trois dimensions………………………………..56

Figure III.14 : Traçage des cercles avec l’image de contours………………………………56

Figure III.15: Application de transformé de Hough………………………………………...57

Figure III.16 : Modèle de transformation polaire rectangulaire de John Daugman………….58

Figure III.17 : Résultat du processus de normalisation de l’iris avec une résolution…….....58

Figure III.18 : Illustration du procédé de normalisation de l’image d’un iris après localisation
De l’iris et de la pupille……………………………………………………………………..60

Figure IV.1: Architecture générale d’un système de vérification biométrique………………68

Figure IV.2.: Diagramme du cas d’utilisation générale……………………………………...72


Figure IV.3: diagramme de séquence du cas d’utilisation « extraction des
caractéristiques »…………………………………………………………………………….73

Figure IV.4: Digramme de séquence de cas d’utilisation : authentification administrateur…74

Figure IV.5: diagramme de séquence de cas d’utilisation « changer login »………………..75

Figure IV.6: diagramme de séquence de cas d’utilisation « Identification d’un


client»…………………………………………………………………………………………76

Figure IV.7 : diagramme de séquence de cas d’utilisation inscription d’un client…………..77

Figure IV.8 : Diagramme de séquence du cas d’utilisation « Rechercher une personne »…..78

Figure IV.9: Diagramme de collaboration du cas d’utilisation « extraction


caractéristique »…………………………………………...………………………………….79

Figure IV.10: Diagramme de collaboration du cas d’utilisation


« authentification de l’administrateur »………………………………………………………80

Figure IV.11 : Diagramme de collaboration du cas d’utilisation


« Identification d’un client »…………………………………………………………………80

Figure IV.12 : Diagramme de collaboration du cas d’utilisation « Inscription d’un client »81

Figure IV.14: Diagramme de classe du cas d’utilisation « Changer login »……………..….82

Figure IV.15: Diagramme de classe du cas d’utilisation « extraction des


caractéristiques »……………………………………………………………………………...83

Figure IV.16:Digramme de classe du cas d’utilisation « authentification administrateur »....84

Figure IV.17: Digramme de classe du cas d’utilisation « Identification d’un client »..…….85

Figure IV.18 : Diagramme de classe du cas d’utilisation « Rechercher une personne »….....86

Figure IV.19: le modèle E/A………………………………………………………………....87

Figure V.1 : diagramme de déploiement……………………………………………………..89

Figure V.2 : interface de Netbeans …………………………………………………………..91

Figure V.3 : interface de PostgreMySQL……………………………………………………93

Figure V.4 : Exemples d’images d’iris de la base de données BATH……………………….94

Figure V.5 : Exemples d’images d’iris de la base de données ICE……………………...…..94

Figure V.6 : Exemples d’images d’iris de la base de données MMU…………………….….95

Figure V.7 : Exemples d’images d’iris de la base de données UPOL……………………….95


Figure V.8 : Exemples d’images d’iris de la base de données WVU………………………..98

Figure V.9 : Exemples d’images d’iris de la base de données UBIRIS……………………...98

Figure V.10 : la page d’accueil……………………………………………………………..100

Figure V .11 : page inscription client……………………………………………………….100

Figure V.12 : interface extraction iris………………………………………………………101

Figure V.13 : page enregistrement client…………………………………………………...101

Figure V.14 : page Identification client……………………………… .……………...……102

Figure V.15: page extraction iris……………………………… .………………………….102

Figure V.16 : interface de validation de l’identité client……………………………………103

Figure V.17 : page confirmation de l’identification (fiche personnel)……………..………103

Figure V.18: page saisir code client pour l’authentifier………………… …………………104

Figure V.19: page authentification client……………………………………………...……104

Figure V.20: Page chercher personne………………………………………………………105

Figure V.21 : interface fiche personnelle client……………………………………………105


Introduction générale
La sécurité est devenue aujourd’hui une préoccupation majeure au niveau international.
L’identification des personnes constitue un élément clé dans les systèmes de sécurité.
Cependant, les systèmes classiques de sécurité présentent des lacunes facilitant l’usurpation
de l’identité d’une autre personne. La biométrie est une technologie émergente qui peut
résoudre certaines anomalies inhérentes aux systèmes classiques de vérification de l’identité.

La biométrie est un terme dont on entend de plus en plus parler dans notre vie quotidienne.
Cependant, la biométrie n'est pas vraiment récente. En effet, son apparition remonte au 19ème
siècle. Dès lors, plusieurs modalités biométriques ont été étudiées pour la vérification de
d’identité. De nos jours, les modalités les plus employées comprennent le visage, la voix,
l’empreinte, la signature manuscrite, iris etc.

De nombreux systèmes biométriques sont envisagés dans les futurs systèmes en relation avec
la sécurité. Particulièrement, un déploiement à large échelle des passeports et des cartes
d’identités biométriques pour le contrôle de l’identité est prévu pour les années à venir au
niveau mondial. Des délais sont alors imposés par les gouvernements pour la mise en place de
ces systèmes. Dans notre pays, par exemple, il est prévu de généraliser le passeport
biométrique vers 2015.

Notre travail consiste à concevoir un système d’authentification (et identification) qui


utiliserait l’iris comme modalité biométrique. La reconnaissance biométrique de l’iris est une
technologie extrêmement fiable en terme de résultat car l’iris est unique et extrêmement
complexe (On peut distinguer jusqu'à 244 points de comparaison). La probabilité de rejet ou
de fausse acceptation est proche de zéro, c’est pour cela qu’elle est considérée comme la
technique d'identification biométrique la plus précise à ce jour.

1
Organisation des documents :

Pour faire, ce travail se déclinera sous deux aspects, l’un théorique, l’autre applicatif. Il sera
présenté relativement aux chapitres suivants :
• Le Chapitre I : est un tour d’horizon sur la biométrie en général.
• Le Chapitre II : mettra l’accent sur la modalité de l’iris, nous expliquerons ainsi
l’architecture d’un système de vérification par l’iris ainsi que les principales méthodes
d’authentification par l’iris.
• Le chapitre III : La conception algorithmique
• Le chapitre V : Analyse et conception.
• Le chapitre IV : concerne la réalisation de notre système en illustrant la
représentation modulaire du système et les différents outils de développement.

Liste des abréviations :


AFIS: Automatic Fingerprint Identification System

ADN: Acide Désoxyribo Nucléique

BDD: Base De Données

CNIL: Commission National de l’Informatique et des Libertés

CASIA: Institute of Automation Chinese Academy of Sciences Iris Image Database

EER: Equal Error Rate

FA: Fausse Acceptation (False Acceptance)

FAR: False Acceptance Rate

FFT: Fast Fourier Transform

FR: Faux Rejet (False Rejection)

FRR: False Rejection Rate

PIN: Personal Identification Number

ROC: Receiver Operating Characteristics

2
Chapitre1 Biométrie

Chapitre I
1. Introduction :
Depuis quelques décennies, l’explosion de l’informatique et des réseaux de communication a
fait augmenter de manière significative le besoin d’identification des personnes. Jusqu’à
présent, les méthodes usuelles d’identification étaient basées sur ce que l’on possède (carte
d’identité, carte à puce, badge magnétique) ou sur ce que l’on sait (mot de passe, code PIN).
Mais ces méthodes posent de gros problèmes de fiabilité (oubli de son code, décryptage du
mot de passe via des logiciels spécifiques, etc). Depuis l’accroissement de la cybercriminalité,
une identification fiable des personnes est devenue un problème majeur pour des raisons de
sécurité (contrôle aux frontières, accès aux données protégées, etc). Tous ces problèmes ont
ainsi provoqué un développement accru des techniques biométriques d’identification comme
en témoigne l'étude des perspectives du marché de la biométrie (Figure I.1) :

Figure I.1 Evolution du marché international de la biométrie. [1]

3
Chapitre1 Biométrie

La biométrie consiste en l’analyse mathématique des caractéristiques biologiques d’une


personne et a pour objectif de déterminer son identité de manière irréfutable. Contrairement à
ce que l’on sait ou à ce que l’on possède la biométrie est basée sur ce que l’on est et permet
ainsi d’éviter la duplication, le vol, l’oubli ou la perte.

2. Définition [1]:
Le mot Biométrie peut revêtir plusieurs significations ;Il désigne généralement l'étude
quantitative des êtres humains, Ce terme trouve ses origines dans le grec ancien : il est
composé de « bios », qui signifie vie, et « metron », la mesure. Lorsqu'il sera fait mention de
biométrie dans la suite de cette présentation, le terme sera utilisé dans un sens plus restrictif :
la biométrie est une science portant sur l'identification des personnes en fonction des
caractéristiques biologiques qui leurs sont propres. Plus précisément, il s'agit de l'étude des
méthodes pour la reconnaissance d'être humains basées sur un ou plusieurs aspects physiques
ou comportementaux uniques à l'individu.
Les méthodes d’authentification biométriques reposent sur deux étapes :
1. la collecte d’un échantillon de référence, appartenant à l’utilisateur,
2. la comparaison d’un échantillon de test à l’échantillon de référence.
La mesure de la correspondance entre les deux échantillons permet de déterminer une
décision d’authentification. Deux modes de fonctionnement existent en authentification
biométrique : l’identification et la vérification.
Il apparait instructif de comparer les mérites et les démérites de la biométrie et des systèmes
bases sur des mots de passe/ des clés cryptographiques. Le tableau I.1 donne un résume de
cette comparaison :

Authentification biométrique Authentification par mot de passe / clé


- basée sur des mesures physiologiques ou - basée sur quelque chose que l’utilisateur
des traits comportementaux. "possède" ou "sait".
- authentifie l’utilisateur. - authentifie la clé.
- le caractère est attaché à l’utilisateur de - il peut être emprunté, perdu ou volé.
façon permanente. - l’identificateur ne varie pas, il est sûr.
- L’échantillon biométrique peut varier dans - nécessite une comparaison exacte pour
le temps, il est incertain. l’authentification.
- utilise une comparaison probabiliste.
Tableau I.1. : Comparaison entre l’authentification biométrique et l’authentification par
les moyens classiques.

4
Chapitre1 Biométrie

¾ Les caractéristiques biométriques[3]

Il peut y avoir plusieurs types de caractéristiques physiques, les unes plus fiables que les
autres, mais toutes doivent être :

• Universelles : exister chez tous les individus


• Uniques : permettre de différencier un individu par rapport a un autre),
• Permanentes : autoriser l'évolution dans le temps
• Mesurables : autoriser une comparaison future
• Enregistrables : collecter les caractéristiques d'un individu avec l'accord de celui-ci.

3. Fonctionnement d’un système biométrique :

3.1 Système biométrique :

3.1.1 Définition :

Un système biométrique est essentiellement un système de reconnaissance de formes qui


fonctionne en acquérant des données biométriques à partir d'un individuel, extrayant un
ensemble de caractéristiques à partir des données acquises, et comparant ces caractéristiques
contre la signature dans la base de données.

3.1.2 Architecture des systèmes biométriques :

Il existe toujours au moins deux modules dans un système biométrique : le module


d’apprentissage et celui de reconnaissance. Le troisième module (facultatif) est le module
d’adaptation.

5
Chapitre1 Biométrie

Apprentissage

Base de données
Capture de la Caractéristique Extraction des paramètres
Référence/Modèles

Adaptation

Vérification

Capture de la Caractéristique Extraction des paramètres Comparaison et Décision

Accepte/Rejette

Figure I.2: Système de vérification biométrique général

La figure I.2 présente un système de vérification biométrique typique. Le module


d’apprentissage capture les caractéristiques de la personne. Pourtant, seulement les paramètres
les plus représentatifs sont extraits et stockés dans la base de données.

Le module d’apprentissage : pendant l’apprentissage, le système va acquérir une ou


plusieurs mesures biométriques (échantillons) qui serviront à construire un modèle de
l’individu. Le modèle est une représentation compacte du signal qui permet de faciliter la
phase de reconnaissance. Le modèle peut être stocké dans une base de données ou sur une
carte à puce.

Le module de reconnaissance : au cours de la reconnaissance, la caractéristique biométrique


est mesurée et un ensemble de paramètres est extrait comme lors de l’apprentissage. La suite
de la reconnaissance sera effectuée différemment suivant le mode opératoire du système :
• En mode identification : elle permet d'établir l'identité d'une personne. Il répond donc
a une question de type (qui suis-je?) à partir d'une base de données, il s'agit d'une
comparaison du type "un,contre plusieurs".

• En mode vérification ou authentification : également appelé authentification, consiste


à confirmer ou infirmer l'identité d'une personne, le système doit répondre a une
question du type : (suis-je celui que je prétends être?). Il s'agit d'une comparaison du
type "un contre un"; les caractéristiques de l'individu sont comparées à celles
présentées dans un enregistrement de référence.

6
Chapitre1 Biométrie

Il suffit donc de comparer le gabarit avec un seul des modèles présents dans la base de
données.

Le module d’adaptation: pendant la phase d’apprentissage, le système biométrique ne


capture souvent que quelques instances d’un même attribut afin de limiter la gêne pour
l’utilisateur. Il est donc difficile de construire un modèle assez général capable de décrire
toutes les variations possibles de cet attribut (comme des conditions d’acquisition différentes);
ce qui explique l’utilité de ce module. [11]

3.1.3 Fonctionnement d’un système biométrique :

Le processus biométrique se décompose en deux grandes étapes, enrôlement et le contrôle :

a. Enrôlement (apprentissage) :L’enrôlement des personnes est la phase initiale de création


du gabarit biométrique et de son stockage en liaison avec une identité déclarée. Les
caractéristiques physiques sont transformées en un gabarit représentatif de la personne et
propre au système de reconnaissance, Durant cette phase, des données additionnelles propres
à la personne qui s’enrôle sont enregistrées comme par exemple son nom et prénom et un
identifiant personnel (PIN), Cette étape n'est effectuée qu'une seule fois.

b. Contrôle (vérification / identification) : C'est l'action de contrôle des données d’une


personne afin de procéder à la vérification de son identité déclarée ou, dans une investigation,
à la recherche de l’identité de cette personne, Cette étape se déroule à chaque fois qu’une
personne se présente devant le système. Soit pour faire la vérification ou bien l’identification

7
Chapitre1 Biométrie

Figure I.3: Principe de fonctionnement d’un système biométrique


1) Processus détaillés :

Chaque système biométrique utilise des spécificités liées à la caractéristique physique


analysée (empreinte, iris, forme de la main, etc.) et également liées à la technologie du
système. Il est néanmoins possible d’identifier une série d’étapes ou de composantes
génériques au processus.
a. Collecte [capture] des données d’identification :

C’est l’étape de saisie des données d’identification de la personne et en particulier de ses


caractéristiques physiques par l’intermédiaire d’un capteur spécialisé, correspondant à la
caractéristique physique analysée.
Les données saisies peuvent être selon le système :
• Les données sur l’identité prétendue (PIN, nom, identifiant, etc..). La collecte des
données d’identité se fait à l’aide d’un lecteur approprié (PINpad, clavier, lecteur de
carte, etc.).
• Les données physiques personnelles (biologique, comportementale, morphologique).
La collecte des données physiques se fait à l’aide d’un capteur approprié.

8
Chapitre1 Biométrie

b. Système de transmission :

Le système de transmission sert à transporter les données entre les différents sous-systèmes du
système biométrique. En particulier il est possible que le sous-système de collecte et le sous-
système de comparaison soient distants l’un de l’autre.
Le système de transmission qui peut être local (interne à un boîtier) ou distant (liaison
Ethernet, réseau ouvert, etc.) doit être clairement identifié afin d’en assurer la protection
contre des écoutes ou des manipulations de données.
Que ce soit dans le processus initial d'enrôlement ou dans celui de capture, il faut que
l'identification et l'authentification soient garanties en termes d'intégrité.
Le premier type de transmission intéresse la partie capteur : généralement cette partie capteur
comprend une partie analogique (empreinte, voix, morphologie signature..) qui est digitalisée
par la suite.
Ces signaux se trouvent généralement très proches du système de numérisation. Le problème
est principalement un problème d'intégrité : cette intégrité est obtenue par un échantillonnage
du signal adéquat. Le cas le plus général est la transmission entre le capteur et la base de
données où se trouve le gabarit de référence.

Si la transmission utilise un réseau (local ou public) des mesures de sécurité adéquates


doivent être utilisées afin de protéger les données échangées en intégrité (des données et des
flux).

c. Transformation en un gabarit biométrique :

Le capteur des caractéristiques physiques transmet les données capturées à un système


d’analyse qui a pour rôle de les transformer en un gabarit, selon un algorithme approprié à la
caractéristique physique analysée. (Empreinte, iris, forme de la main, etc.)
Cette technique permet de diminuer les données stockées ainsi que faciliter la phase de
vérification, Parfois, les données de la phase de vérification déjà authentifiées sont utilisées
pour ajuster les paramètres du modèle de l’utilisateur.

d. Comparaison à une référence :


Le gabarit calculé doit être ensuite rapproché du gabarit de référence afin de vérifier l’identité
de la personne ou de l'identifier.
Ce processus se compose de :
• La recherche de la référence pour la comparaison :

9
Chapitre1 Biométrie

¾ Via les données d’identification pour accéder à la référence stockée pour une
vérification
¾ Via la comparaison directe du gabarit calculé à la valeur de référence stockée
pour une identification

• La comparaison du gabarit calculé à une valeur de référence : à cette étape intervient


une analyse qui est propre à la technologie du système développé. La comparaison fait
généralement intervenir un calcul de score qui permet de considérer la comparaison en
succès ou en échec selon que le score calculé est à l’intérieur ou à l’extérieur d’une
plage d’acceptation.
e. Prise de décision
Le sous-système de décision reçoit le résultat du score calculé de rapprochement au gabarit
stocké. En fonction d’une politique de décision liée à une analyse de risque propre à
l’application utilisatrice du système biométrique, le sous-système de décision décide des
actions à suivre
Le sous-système de décision peut considérer la vérification ou l’identification :
• En succès et rendre une réponse positive au système applicatif utilisateur
• En échec complet et rendre une réponse négative au système applicatif utilisateur
• En indécision : dans certains cas de systèmes plus sophistiqués, le système peut
demander une re-saisie voire la saisie d’une autre caractéristique physique (ex : autre
doigt pour l’analyse d’empreinte).
2) Système de stockage :
Le système de stockage permet de maintenir le gabarit de référence des personnes enregistrées
dans le système. Il permet de créer, modifier, supprimer des gabarits dans le système en
relation avec des données d’identification de la personne.
Ce système est principalement lié à l’application utilisatrice. En particulier, selon que le but
final de l’application est de vérifier l’identité d’une personne ou au contraire de l’identifier au
sein d’une population, le mode de stockage sera différent.
Dans le premier cas, en raison de la réglementation sur la protection des personnes et des
données personnelles, le système pourra mettre en œuvre un contrôle un-pour-un, le gabarit
de référence étant stocké dans un support portable en possession de l’utilisateur.
Dans le second cas, seul un stockage centralisé dans une base de données peut répondre au
besoin. Là encore, la réglementation nationale peut ou non permettre une telle utilisation

10
Chapitre1 Biométrie

3.2 Fiabilité des systèmes biométriques:

Afin de mesurer la fiabilité d’un système biométrique en mode de vérification et/ou


d’identification, deux principaux tests sont utilisés :

3.2.1 Test de vérification

Dans la tâche de vérification, un utilisateur final doit faire une demande d’authentification de
son identité. Par exemple : il proclame "je suis Mr Enrico", alors le système biométrique doit
déterminer si l'identité proclamée par l'utilisateur est acceptée ou rejetée.

Deux taux sont alors calculés :

• Le Taux de Faux Rejets ou False-Rejection Rate (FRR), il exprime le pourcentage


d'utilisateurs rejetés alors qu'ils devraient être acceptés par le système.
• Le Taux de Fausses Acceptations ou False-Acceptance Rate (FAR), il exprime le
pourcentage d'utilisateurs acceptés par le système alors qu'ils devraient être rejetés.

On peut formuler le test de vérification de la façon suivante [7] :

Soient XQ le vecteur de caractéristiques de la personne proclamée I, Xt le vecteur de


caractéristiques de la personne I stockée dans la base de données, S(XQ , Xt) la fonction de
similarité entre le vecteur XQ et Xt . La fonction S donne le score de similarité entre les
mesures biométriques de la personne de la base de données et la personne proclamée.

Le test de vérification est alors défini par la fonction (I, XQ), telle que
W1 si S( XQ, Xt)>
(I, XQ)=
W2 sinon
Où w1 indique que la personne proclamée est vraie et w2 qu’elle est un imposteur. Le choix du
seuil de similarité est important car il influe directement sur les performances du système.
Un seuil trop petit entraîne l’apparition d’un grand nombre de faux rejets, tandis qu’un seuil
trop grand engendre un taux important de fausses acceptations. La statistique la plus simple
pour mesurer la performance d’un algorithme dans le contexte de la vérification est de
calculer le point d'équivalence des erreurs (Equal Error Rate - EER). Le point d'équivalence
des erreurs, ou taux d'exactitude croisée, est déterminé par le point d'intersection entre la
courbe du taux de fausses acceptations et la courbe du taux de faux rejets. Un exemple de
courbes d'erreurs croisées est donné à la figure (I.4).

11
Chapitre1 Biométrie

Figure I.4 Courbe du point d'équivalence des erreurs dans un système biométrique.

L’évaluation passe également par le tracé de statistiques complexes, comme la courbe«


Detection Error trade-off (DET) ». Cette courbe donne le FRR en fonction du FAR. Elle est
tracée de manière paramétrique en fonction des valeurs du seuil

Figure I. 5. Courbe DET

3.2.2. Test d’identification :

On peut formuler le test d’identification de la façon suivante:

Soient XQ le vecteur de caractéristiques, pour déterminer l’identité IK, k {1, 2,..,.N, N+1},

12
Chapitre1 Biométrie

on calcule la fonction (I,XQ) définie par :


Ik si max { ( XQ, XIk)} , k=1,….,N
(I, XQ) =
IN+1 Sinon

où I1,..,IN sont les identités enrôlées, IN+1 une identité rejetée XI k, la signature biométriques
qui correspond à l’identité IK , et le seuil.

Le test d'identification représente la mesure la plus couramment utilisée, mais il n’est pas
toujours suffisant. En effet, en cas d’erreur, il peut être utile de savoir si le bon choix se trouve
parmi les N premières réponses du système. On trace alors la courbe Cumulative Match
Caractéristiques (CMC) qui représente la probabilité que le bon choix se trouve parmi les N
premiers [8].Comme l’illustre la figure I.6.

Figure I.5 : Courbe CMC.


4. Les techniques de la biométrie :

Les systèmes biométriques sont généralement classés par l'industrie dans deux grandes
catégories : la biométrie morphologique ou physiologique (en anglais : physiological) et la
biométrie comportementale (en anglais : behavioral).

• la biométrie comportementale (en anglais : behavioral). Les techniques d'analyse du


comportement: il s’agit d’un type de biométrie caractérisées par un trait d’attitude qui
est appris et acquis au fil du temps, Par exemple la dynamique de la signature, La
façon d'utiliser un clavier d'ordinateur, etc...).

13
Chapitre1 Biométrie

• Les techniques d'analyse de la morphologie humaine: il s’agit d’un type de biométrie


défini par les caractéristiques physiques (empreintes digitales, forme de la main, forme
du visage, dessin du réseau veineux de l'œil, la voix, etc...)

À l'instar de la Commission Nationale de l'Informatique et des Libertés (CNIL) de France, il


convient d'ajouter à ces deux catégories l'étude des traces biologiques regroupant de façon
non exhaustive l'analyse de l'ADN, du sang et des odeurs.

La figure I.7 illustre les exemples de techniques biométriques :

Figure I.7: Quelques modalités biométriques et leurs dispositifs d'acquisition.


4.1 Empreintes digitales : 50% du marché.

L’empreinte digitale est la caractéristique d'un doigt. Chaque personne a ses propres
empreintes digitales avec l'unicité1 éternelle. Ainsi l’utilisation des empreintes digitales est la
méthode d’identification biométrique la plus utilisée, elle a été développée vers la fin du
19ème siècle par Alphonse Bertillon, fondateur de la police scientifique en France

1
En effet, dès 1892, il a été démontré que l’empreinte digitale est unique pour chaque individu et ne
change pas au cours de la vie.
14
Chapitre1 Biométrie

Figure I.8 Une Empreinte digitale. [6]

Comment ca marche ? Un capteur prend une image de la main, un logiciel repère les
coordonnées des points pertinents - le niveau de précision peut aller jusqu’a 80 points -. La
carte des empreintes digitales est gardée en mémoire pour pouvoir être comparée à une autre
carte d’empreinte.

Avantages Inconvénients

• La technologie la plus éprouvée • Image "policière" des empreintes


techniquement et la plus connue du digitales.
grand public.
• Besoin de la coopération de
• Petite taille du lecteur facilitant son l'utilisateur (pose correcte du doigt sur
intégration dans la majorité des le lecteur).
applications (téléphones portables,
PC). • Certains systèmes peuvent accepter
un moulage de doigt ou un doigt
• Faible coût des lecteurs grâce aux coupé (la détection du doigt vivant
nouveaux capteurs de type "Chip permet d'éviter ce type d'usurpation).
silicium".
• Traitement rapide
• Bon compromis entre le taux de faux
rejet et le taux de fausse acceptation.

Application

• En théorie, toutes les applications d'authentification peuvent utiliser les empreintes


digitales. Toutefois, le lecteur (capteur) reste exposé à une éventuelle dégradation dans
les applications de contrôle d'accès accessible au grand public (distributeur de billets,
accès extérieur à des locaux ...).

• Contrôle d'accès physique (locaux, machines, équipements spécifiques), contrôle


d'accès logique (systèmes d'information).

15
Chapitre1 Biométrie

4.2 Le visage : 15% du marché

Le visage est certainement la caractéristique biométrique que les humains utilisent le plus
naturellement pour s’identifier entre eux, ce qui peut expliquer pourquoi elle est en général
très bien acceptée par les utilisateurs. La reconnaissance à partir du visage se base sur les
caractéristiques jugées significatives comme l’écart entre les yeux, la forme de la bouche, le
tour du visage, la position des oreilles, etc.

Figure I.9 : Acquisition d’une image au visage

La plupart des systèmes d'identification du visage utilisent du matériel classique du marché :


un ordinateur et une caméra pour capturer l'image. Le problème de cette méthode vient des
possibles perturbations pouvant transformer le visage (maquillage, faible luminosité, présence
d’une barbe ou de lunettes, expression faciale inhabituelle, changement avec l’âge, chirurgie
esthétique, environnement (condition d’éclairage), etc.).

Avantage Inconvénient

• Très bien accepté par le public • Technologie sensible à


l'environnement (éclairage, position,
• Ne demande aucune action de expression du visage...)
l'usager (peu intrusive), pas de
contact physique • Les vrais jumeaux ne sont pas
différenciés
• Technique peu coûteuse
• Sensible aux changements (barbe,
moustache, lunette, percing,
chirurgie...)

Application

• Contrôle d'accès à faible niveau de sécurité


• Technologie pouvant être associée avec une autre technologie pour la compléter

16
Chapitre1 Biométrie

4.3 La géométrie de la main : 10% du marché.

L’identification biométrique de la main se présente sous deux formes : soit par une empreinte
palmaire, équivalente de l’empreinte digitale mais sur toute la surface de la main, soit par une
image en 3D de la main. La première technique procède de façon similaire à la prise
d’empreintes digitales; pour la deuxième, quelques traits caractéristiques comme la taille et la
largeur des doigts ou l’espace entre les différentes parties de la main sont gardés en mémoire.
Ces deux techniques, bien que focalisées sur la même partie du corps, sont moins
contraignantes que la reconnaissance d’empreintes digitales : la surface numérisée est plus
grande et donc la saleté ou les petites coupures n’empêchent pas l’identification

Figure I.10 Scanner la forme de la main

Avantage Inconvénient

• Bonne acceptation des usagés • Trop encombrant pour un usage sur le


bureau, dans une voiture ou un
• Très simple à utiliser téléphone
• Le résultat est indépendant de • Risque de fausse acceptation pour des
l'humidité et de l'état de propreté des jumeaux ou des membres d'une même
doigts famille
• Fichier "gabarit" de petite taille • De plus la forme de la main évolue
beaucoup avec l'âge.

Application

• Contrôle d'accès à des locaux


• Parloirs de prison

17
Chapitre1 Biométrie

4.4 L’iris : 6% du marché.

C’est la mesure qui obtient la meilleure précision, les taux d’erreur sont de l’ordre de 10-4.
Notre iris est extrêmement complexe : jusqu’à 244 points de comparaison peuvent être
distingués. Les iris sont uniques et les deux iris d’un même individu sont différents
.L'acquisition de l'iris est effectuée au moyen d'une caméra pour pallier aux mouvements
inévitables de la pupille. La prise de vue est relativement désagréable pour l'utilisateur car
l’œil doit rester grand ouvert. Il est de plus éclairé par une source lumineuse pour assurer un
contraste correct.

Figure I.11 Une capture de l’image de l’œil.

La fraude étant néanmoins possible en utilisant des lentilles. De plus, ce système est mal
accepté psychologiquement par l’utilisateur à cause des problèmes d’hygiène et des
contraintes de prise de vue (coopération du sujet).Les Contraintes d'éclairage risquent aussi de
perturber la phase d’acquisition.

4.5 La rétine :

Il existe également une autre possibilité de biométrie par l'œil, en inspectant la rétine. La
rétine, couche sensorielle de l'œil, est parcourue de nombreux vaisseaux sanguins qui
présenteraient une diversité aussi grande que l'empreinte digitale. De plus l'empreinte
rétinienne est peu exposée aux blessures et la position respective des vaisseaux reste
inchangée durant toute la vie de l'individu (sauf en cas de maladies vasculaires). Ainsi une
caméra va examiner le fond de l'œil à l'aide d'un rayon lumineux.

18
Chapitre1 Biométrie

Figure I.12 Détail de l’œil [5]

4.6 La voix :

C’est en 1962 que Lawrence Kersta un ingénieur du Bell Laboratories, établit que la voix de
chaque personne est unique et qu’il est possible de la représenter graphiquement. La voix est
constituée de composantes physiologiques et comportementales. Initialement, une table de
référence de la voix d’une personne doit être construite. Pour ce faire, celle-ci doit lire une
série de phrases ou de mots à plusieurs reprises. Plusieurs caractéristiques de la voix sont
alors extraites comme le débit, la force (pitch), la dynamique et la forme des ondes produites.
Un individu ne parle pas toujours de la même manière, ce qui nécessite l’application d’une
méthode permettant d’éliminer certaines de ces variations.

Avantage Inconvénient

• Il est plus facile de protéger le lecteur • Sensible à l'état physique et


que dans les autres technologies émotionnel de l'individu
• Seule information utilisable via le • Fraude possible par enregistrement
téléphone
• Sensible aux bruits ambiants
• Impossible d'imiter la voix
• Taux de faux rejet et fausse
• Pas intrusif acceptation élevés

Application

• C'est le seul moyen pour s'identifier via une liaison téléphonique.


• Dans un immeuble d'habitation, on pourra facilement protéger un micro derrière une
grille anti-vandalisme.

19
Chaapitre1 Biométrrie

4.7 Laa thermoggraphie :

Une caaméra therm


mique est uttilisée pour réaliser un cliché infraarouge du vvisage. Celaa permet
de fairee apparaîtrre une répartition de la chaleu
ur unique à chaque individu, voire
v de
cartograaphier le rééseau veineuux du visagge invisiblee à l'œil nuu. L'avantagge est que l'on
l peut
distinguuer de vrais jumeaux. Très
T cher, cee système reeste expérim
mental.

4.8 Coonfiguratiion des veeines (vein


n pattern--scan) :

Il s'agitt ici d'analyyser le desssin formé par le réseau


u des veinees sur une ppartie du co
orps d'un
individuu (la main) pour
p en garrder quelquees points carractéristiques.

4.9 Laa signaturre dynamiique :

Chaqque personnne a un stylee d’écriture unique. Onn peut doncc définir, à partir
de laa signaturee d’une perrsonne, un modèle quui pourra être emplo
oyé pour
effecctuer une iddentificationn. De plus, la
l signaturee est utiliséee dans beau
ucoup de
pays comme élémeent juridiquee ou adminiistratif. Ellee permet dee justifier dee la bonne foi
f d’une
personnne ou de la confondre
c d
devant des documents
d signés.
s

Le graand avantagge des syystèmes bioométriques à base de


d signaturre réside dans la
reconnaaissance dee cette méthode com
mme une forme acceptable juuridiquemen
nt pour
l’identiffication des personnes.

¾ Fonctionne
F ement :

Les sysstèmes à siignatures dynamiques


d utilisent un
u logiciel spécifique qui fonctionne en
adéquattion avec le stylo électrronique. Les mouvemeents du marqqueur magiqque sont en
nregistrés
par le loogiciel qui procède
p à l'aanalyse de l’écriture
l à partir
p d’unee dizaine de facteurs, co
omme :

• l vitesse dee calligraphhie,


la
• l rythme des
le d variationns du stylo,
• l pression exercée,
la
• e même le calcul de laa distance de
et d la plume suspendue entre deux lettres au-d
dessus de
l tablette
la

Chaque petite maniie est ainsi stockée, puis encryptéee.

20
0
Chapitre1 Biométrie

Trois spécimens de signature sont préalablement enregistrés par le logiciel qui est ensuite
capable d’en reconstituer tout seul les variations. Le tout prend place, en fin de parcours, au
sein d’un serveur qui intègre précieusement chaque tracé dans une énorme base de données,
chargée par la suite de certifier la signature. [4]

Avantage Inconvénient

• La signature écrite sur un document • Besoin d'une tablette graphique


peut être conservée dans certains
documents • Sensible aux émotions de l'individu

• Action qui implique (responsabilité) • Pas utilisable pour du contrôle d'accès


le demandeur en extérieur par exemple

Application

• Documents administratifs, bancaires, assurance...

4.10 La dynamique de la frappe (au clavier) :

La dynamique de la frappe est propre à chaque individu. Il s'agit en quelque sorte


de la graphologie des temps modernes car nous écrivons plus souvent avec un
clavier qu'avec un stylo.

Les éléments analysés sont : vitesse de frappe, suite de lettre, temps de frappe, pauses...

Avantage Inconvénient

• Non intrusif, geste naturel pour un • Dépend de l'état (physique, émotion,


individu fatigue...)

Application

• Documents administratifs, bancaire, assurance...

Il existe d’autres méthodes biométriques telles celles basées sur l’A.D.N., l’odeur corporelle,
la forme de l’oreille, la forme des lèvres, la démarche, Les groupes sanguins, Les cheveux et
les poils, la géométrie de l’oreille, etc. Il est important de noter qu’il n’existe aucune

21
Chapitre1 Biométrie

caractéristique biométrique idéale. A chaque application correspondent une ou plusieurs


mesures biométriques appropriées. La figure (I.13) montre une comparaison des techniques
biométriques en fonction du cout et de la précision

Figure I.13: les biométries les plus utilisées en fonction de cout et la pression [9]
Il est aussi important de noter que la plupart des biométries sur-citées ne sont pas admissibles
en termes de loi. Seule exception faite pour les empreintes digitales qui sont utilisée dans les
milieux juridiques. La signature est aussi légalement acceptable, mais elle se situe loin
derrière les empreintes vus les problèmes engendres par l’oubli et la variabilité
comportementale des individus. Par voie de comparaison nous concluons par le fait que les
empreintes réalisent un compromis intéressant entre précision et coût.

Remarque :

1) Le marché de la biométrie : [1]

Le grand gagnant de la biométrie est d'abord la reconnaissance d'empreintes digitales, qui à


elle seule représente près de 50% du marché.

22
Chapitre1 Biométrie

Figure. 1.14: Parts des technologies utilisées dans le secteur de la biométrie estimé par
l'International Biometric Group [1]

2) La multimodalité : La multi modalité est une solution qui permet d’améliorer dans toute
situation la précision et l’efficacité d’un système.
Depuis les dix dernières années, il a été démontré que la multi-modalité est une alternative qui
permet d’améliorer les performances par rapport aux dispositifs ne faisant appel qu’à une
seule modalité. Il existe différentes formes de multi modalité :

1. Systèmes multiples biométriques : par exemple, combiner reconnaissance de visage


avec reconnaissance d'empreintes digitales.

2. Systèmes multiples d'acquisition : par exemple, deux scanners différents (optique et


thermique pour la reconnaissance d'empreintes digitales).

3. Mesures multiples d'une même unité biométrique : par exemple, faire la


reconnaissance des 10 doigts d'un même individu.

4. Instances multiples d'une même mesure : faire une capture répétée du même attribut
biométrique avec le même système d'acquisition.

5. Algorithmes multiples : utiliser différents algorithmes de reconnaissance sur le même


signal d'entrée.

23
Chapitre1 Biométrie

5. Domaine d’utilisation de la biométrie [10] :


On peut distinguer quatre grands types d’applications de la biométrie : le contrôle d’accès,
l’authentification des transactions, la répression (law enforcement) et la personnalisation. Le
tableau1. Résume ces applications :

Applications Exemples Systèmes réels

Contrôle d’accès L’accès à des lieux sécurisés Le système INSPASS (Immigration


and Naturalization Service Passenger
L’accès aux réseaux
Accelerated Service System) dans
d’ordinateurs et aux sites web.
les aéroports américains utilisant la
géométrie de la main.

L’intégration par « Apple » dans son


système d’exploitation (MAC OS 9)
d’un module de reconnaissance du
locuteur pour protéger les fichiers
partagés.

Authentification Les payements par carte La technologie de Nuance Vérifier


pour les clients de Home Shopping
des transactions bancaire
Network.
Le e-commerce.

Personnalisation Personnaliser les appareils que Siemens propose d’utiliser la


nous utilisons tous les jours. reconnaissance des empreintes
digitales pour personnaliser les
voitures.

Répression Criminologie « T-Netix » pour le suivi des


individus en liberté surveillée.

Tableau I.2. : Applications de la biométrie.

Aujourd’hui le marché de la biométrie a le vent en poupe. Plusieurs entreprises dédiées à ce


domaine font une montée fulgurante, elles rivalisent notamment par la qualité de leurs
capteurs. Bien que de nos jours il existe des techniques biométriques extrêmement fiables

24
Chapitre1 Biométrie

telles que la reconnaissance de la rétine et de l’iris, elles sont couteuses et en général mal
acceptées par le grand public et ne peuvent donc être réservées qu’a des applications de très
haute sécurité. Pour les autres applications, des techniques telles que la reconnaissance du
visage ou de la voix sont très bien acceptées mais ont des performances encore trop peu
satisfaisantes. La multimodalité peut être vue comme une alternative qui permettrait
d’améliorer de façon systématique la performance de tels systèmes. Il est donc possible de
tirer profit de la complémentarité existante entre les différentes technologies biométriques.

6. Conclusion :

La biométrie est un secteur connaissant un succès croissant au fur et à mesure que les
techniques d’identification par la biométrie évoluent. Le nombre de produits utilisant des
technologies issues de la biométrie sera de plus en plus important.

Dans ce chapitre, nous avons montré c’est quoi la biométrie, d’où elle vient, les différentes
technologies biométriques et les domaines d’applications de ces techniques. Bien que
certaines technologies biométriques sont utilisées depuis plus d’un siècle pour identifier des
individus, d’autres technologies plus innovantes ne sont encore qu’à un stade purement
expérimental.

Et dans le deuxième chapitre on va présenter les techniques biométriques basées sur l’iris.

25
Chapitre II Iris

Chapitre II
1. Introduction :

L’utilisation de la technologie de l’iris en reconnaissance d’individus est relativement récente,


Ceci explique sûrement le faible nombre de publications de recherche dans le domaine. Mais
c’est le système biométrique le plus fiable en terme de résultat de ceux proposés aujourd’hui
car La probabilité de rejet ou de fausse acceptation est proche de zéro et une recherche rapide
dans la base de données [1]. Ainsi comme il est bien connu que l’iris d’un individu est
unique1 et inchangeable durant toute sa vie .Voici une comparaison entre les modalités : iris,
reconnaissance faciale, empreintes digitales [2].

Iris Empreintes digitales Reconnaissance faciale


- taux de faux rejets TFR = 0.1% pour identification -Une biométrie très naturelle
(TFR) < 0.001% pour à grande échelle avec une base et bien acceptée
identification à grande de données
échelle avec une base de d’1 million d’identités
données d’1million (avec 2 doigts)
de personnes
-Une biométrie très précise -Forte influence de la qualité -Taux d’erreur est égale à
avec un taux élevé d’échec de l’image (d’acquisition) sur 25% sur des grandes bases
à l’acquisition la précision de données d’images
dégradées
Tableau II.1 : Comparaison entre les différentes modalités

1
La probabilité de trouver 2 iris suffisamment identiques est 1 sur 10 puissance 72.

26
Chapitre II Iris

Ce chapitre est consacré à la définition de l’iris et ses caractéristiques, à l’architecture d’un


système d’authentification et d’identification ainsi que les méthodes de reconnaissance de
l’iris (le vocabulaire lié à l’iris).

2. Historique :

Le mot iris qui veut dire arc en ciel vient d’IRIS, messagère d’Héra et de Zeus,
personnification de l’arc en ciel. « Plutarque », un philosophe grec, suggère quant à lui que le
mot Iris vient de la langue égyptienne et signifie: l'œil du ciel. Quelle que soit son origine,
l’iris désigne la partie colorée de l’œil humain.
L’iris est historiquement utilisé en Iridologie pour diagnostiquer l’état de santé ou la maladie
d’une personne à partir de la couleur ou de la location des tâches de pigment, selon
l’hypothèse étrange que chaque partie du corps est représentée par une zone correspondante
dans l’iris de l’œil. Mais aucun iridologue n’a réussi jusqu’à ce jour d’examen scientifique
prouvant la fiabilité de cette théorie. L’iris est retenu pour la première fois pour des fins
d’identification personnelle par l’ophtalmologiste américain Frank Burch en 1936. En 1986,
les deux ophtalmologistes Aran Safir et Leonard Flom brevètent cette idée (Brevet N°
WO8605018A1), mais il faudra attendre 1991 pour que le professeur John Daugman de
l’Université d’Harvard développe le premier système biométrique d’identification de
personnes basé sur l’iris [3].

3. Anatomie de l’œil :
L'œil est l'organe de la vue qui permet de voir les détails d'un environnement. L'œil est
représenté par un globe oculaire composé de différents éléments.
L'œil est principalement composé de :

• la cornée : couche transparente externe qui protège l'œil ;


• du cristallin : lentille biconvexe remplie d'un liquide qui a la forme ovale d'un ballon
de rugby. Comparable à l'objectif d'un appareil photo. La forme du cristallin est
ajustée par les muscles situés de chaque côté du cristallin. La modification de la forme
du cristallin est nécessaire pour ajuster la netteté d'un objet observé ;
• l'iris : muscle qui se comporte comme un diaphragme, soit en se contractant soit en se
dilatant, pour s'adapter à la luminosité environnante. La couleur de l'iris définit la
couleur des yeux.

27
Chapitre II Iris

• la pupille : orifice de couleur noire par lequel la lumière entre dans l'oeil. La taille de
la pupille est contrôlée par l'iris ;
• la rétine : tissu cellulaire couvrant le fond de l'œil. Cette surface de cellules est
sensible à la lumière et se comporte comme le film d'un appareil photo. On distingue
les cônes, cellules sensibles aux couleurs, aux bâtonnets, cellules sensibles au
contraste de noir et blanc. Les images sont formées sur la rétine avant d'être traitées
par le cerveau.[4]

Figure II.2 : Description générale de l’œil.


• Le nerf optique : Il représente la deuxième paire de nerfs crâniens : le nerf optique,
35 à 55 mm de long, s'étend de la papille au chiasma (croisement en X, total ou partiel
des fibres des 2 nerfs optiques). Il comporte environ un million de fibres réparties en
un grand nombre de faisceaux séparés. Son rôle est de transmettre
• L'humeur aqueuse : C'est un liquide transparent, continuellement filtré et renouvelé
qui, avec le vitré, maintient la pression et la forme du globe oculaire.
• Le vitre ou corps vitré: Liquide gélatineux qui donne à l’œil sa forme et sa
consistance. Il représente 90% du volume de l’œil. [5]

28
Chapitre II Iris

¾ Le fonctionnement de l'œil humain :

Grâce à la cornée de l'iris (qui en se fermant permet de doser la quantité de lumière), une
image se forme sur la rétine. Celle-ci est composée de petits bâtonnets (en anglais rods) et de
cônes (en anglais cones).

Figure II.3 : Le fonctionnement de l'œil. [6]

Les bâtonnets, formés d'une pigmentation appelée rhodopsine,situés en périphérie de la rétine,


permettent de percevoir la luminosité et le mouvement (vision scotopique), tandis que les
cônes, situés dans une zone appelée fovéa, permettent de différencier les couleurs (vision
photopique). Il existe en réalité trois sortes de cônes:

• une sorte pour le rouge (570 nm), appelée erythrolabes

• une sorte pour le vert (535 nm), appelée chlorolabes

• une sorte pour le bleu (445 nm), appelée cyanolabes

Ainsi, lorsqu'un type de cône fait défaut, la perception des couleurs est imparfaite, on parle
alors de daltonisme (ou dichromasie. On distingue généralement les personnes présentant
cette anomalie selon le type de cône défectueux :

• Les protanopies sont insensibles au rouge

• Les deutéranopies sont insensibles au vert

• Les tritanopies sont insensibles au bleu

D'autre part il est à noter que la sensibilité de l'œil humain aux intensités lumineuses relatives
aux trois couleurs primaires est inégales. [6]

29
Chapitre II Iris

4. L’iris :
4.1 Définition :
L'iris est la partie colorée de l'œil [7]. La couleur de l'iris est déterminée par la
présence d'un pigment, la mélanine, le même composé chimique qui donne
aussi leur couleur aux cheveux et à la peau.
L'iris est bleu si la mélanine est peu concentrée, il est plus foncé quand la concentration
augmente. Tous les nouveaux-nés ont les yeux bleus parce que la mélanine est enfouie
profondément dans le tissu de l'iris. Quelques mois plus tard cependant, ce composé peut se
rapprocher de la surface de l'iris et modifier sa teinte [8].

4.2 Les caractéristiques de l’iris :


La formation de l'iris pour un œil humain commence au troisième mois de gestation, les
structures qui créent les éléments distinctifs sont terminées lors du huitième mois et la
pigmentation se poursuit dans les premières années suivant la naissance : la formation de l'iris
est chaotique, on a donc des motifs avec de fortes variabilités. On recèle environ 244
caractéristiques pour un motif. En effet, la texture de l’iris ou ce que l’on appelle le motif de
l’iris, comprend de nombreuses caractéristiques. Celles les plus souvent utilisées dans la
biométrie, sont la collerette (on l'appelle ainsi car elle forme le dessin d'une collerette autour
de la pupille), les tâches pigmentaires (comme les tâches de rousseur ou les grains de beauté),
les cryptes (ce sont des petits creux), la couronne ciliaire (ou zone ciliaire, enchevêtrement de
tubes fins formant un petit renflement), les sillions ou la pupille qui eux sont contrôlés suivant
leur taille.
Ces éléments de l’iris restent fixes, ils ne varient que très peu durant toute une vie : chaque
motif est stable et unique (la probabilité de similitude est de 1 sur 10 puissance 72). De plus,

30
Chapitre II Iris

le motif de l’iris n’est pas relié aux gènes, c'est-à-dire à l’ADN (Acide Désoxyribonucléique),
cela signifie que ce n'est pas en fonction des gènes du père et de la mère que le motif de l'iris
est formé contrairement à la couleur des yeux. Donc deux individus, même s’ils sont parents,
peuvent avoir la même couleur mais jamais le même motif. Par ailleurs, les vrais jumeaux non
plus ne sont pas confondus, il y a assez de caractéristiques dans l'iris pour que l'on puisse les
distinguer. L'organe iridien est relativement à l’abri des lésions. S’agissant d’un tissu interne,
l’iris est protégé par la cornée et l’humeur aqueuse. Étant donné que ces deux barrières sont
transparentes, l’iris peut être facilement identifié à plus d’un mètre. On peut donc facilement
photographier l'iris, qui n'est pas pourtant exposé à d'éventuels dommages.
Cependant comme l'iris occupe une petite surface, le matériel utilisé actuellement pour
l'observer ne permet pas une étude précise au niveau des éléments du motif : on a seulement
les contours macroscopiques. Ce problème reste temporaire car la précision des capteurs
augmente de plus en plus et l’iris est suffisamment varié pour qu’il ne soit pas indispensable
de recueillir toutes les informations qu’il contient. [9]

Figure II.4 : Images de 4 différents types de texture d’iris. [10]

4.3 Les avantages et les inconvénients :


¾ Avantages :

• Organe interne de l’œil très bien protégé

• Visible à distance

• Haut degré d’aléatoire dans sa formation

• 244 degrés de liberté

• entropie: 3.2 bits par millimètre carré

• Unicité obtenue par une grande complexité combinatoire

• Distincts même pour de vrais jumeaux (phénotypiques)

• morphogenèses Pré-natal (7th mois de gestation)

31
Chapitre II Iris

• Patterns apparemment stables au long de la vie

¾ Inconvénients :

• Petite cible (1 cm) à acquérir à une distance de 1 m)

• Cible mouvante

• Localisée sur une surface courbe, humide et réfléchissante

• Occlusions possibles par les cils, les lentilles et la réflexion

• Partiellement masqué par la paupière, souvent tombante

• Déformation non-élastique quand la pupille change de taille

• Illumination gênante [11]

5. Conception générale d’un système de reconnaissance par l’iris :


Un système de reconnaissance de l’iris est un système automatique de reconnaissance de
formes qui se peut composer de plusieurs modules comprenant:

5.1 Module d’acquisition : L’iris sera capturé et stocké sous forme d’image.

5.2 Module segmentation : L’image de l’œil qui est acquise ne comporte pas
uniquement l’information de l’iris. Il est alors nécessaire de segmenter et isoler cette
information du reste de l’image. Ce qui revient à isoler l’iris du blanc de l’œil et des
paupières, ainsi qu’à détecter la pupille à l’intérieur du disque de l’iris. Généralement, l’iris et
la pupille sont approximés par des cercles et les paupières par des ellipses.

5.3 Module normalisation : L’iris est un disque percé à l’intérieur par un autre disque
plus petit, la pupille. Les deux cercles que constituent les frontières de l’iris avec le blanc de
l’œil, ainsi que les frontières de la pupille avec l’iris ne sont pas parfaitement concentriques.
De plus, avec les contractions et les dilatations de l’iris ainsi que la variation des distances
d’acquisition entre les personnes et l’objectif, la taille du disque de l’iris n’est pas toujours
constante. (La normalisation permet de transformer le disque irrégulier de l’iris en une image
rectangulaire de taille constante).

32
Chapitre II Iris

5.4 Module d’extraction du gabarit de l’iris : Il s’agit d’extraire de l’image


normalisée de l’iris des points, des vecteurs ou des coefficients caractéristiques de la
personne.
5.5 Module de mise en correspondance : Les caractéristiques acquises sont
comparées avec les caractéristiques stockées dans une base de données et à partir du résultat
de cette comparaison une décision est prise. [3]

Figure II.5 : Conception d’un système biométrique basé sur l’iris [12]

6. Fonctionnement d’un système de reconnaissance d’iris :

6.1 Principe général :


Un système automatique de vérification de l’iris est une chaîne de processus qui à partir du
l’œil d’un utilisateur en entrée renvoie un résultat en sortie, permettant ainsi à l’utilisateur
d’accéder ou non à des éléments nécessitant une protection. La réalisation d'un tel système a
fait l'objet de très nombreuses recherches et des méthodes très différentes de traitement ont été
proposées. Un système de reconnaissance par iris peut se décomposer en deux unités
principales (Figure III.4) :

Figure III.6 : Schéma général d’un système de reconnaissance par iris. [10]

33
Chapitre II Iris

1. une unité optique de capture de l’image de l’iris (dispositif de vision),


2. une unité de traitement des données (extraction et comparaison des informations
discriminantes avec celles stockées préalablement lors de l’enrôlement).

Le terminal biométrique (1) qui permet la saisie des images d’iris a fait l’objet de nombreux
développements et recherches [13] [14] [15] [16] [17] [18]. La partie algorithmique de
traitement des données (2) est constituée des processus suivants :
D’enrôlement (2.1) par lequel l’identité d’une personne et son image biométrique (image de
l’iris) sont utilisées pour constituer une base de données (2.3), de matching (2.2) qui quantifie
la ressemblance entre deux gabarits (signatures numériques dont l’une provient de la base de
données et l’autre créée au cours de l’enrôlement présent).

6.1.1 Système d’acquisition :


L’acquisition s’effectue généralement avec une caméra monochrome dans le domaine du
proche infrarouge (entre 650 nm et 900 nm, non visible, donc non éblouissant pour
l’utilisateur). Idéalement, le diamètre de l’iris au sein de l’image acquise doit être
approximativement compris entre 200 et 300 pixels pour s’assurer d’un minimum de détail au
cœur même de l’iris. Notre étude porte davantage sur la partie algorithmique de traitement des
données (2), constituées des processus suivants :
(i) apprentissage par lequel l’identité d’une personne et son image biométrique (image de
l’iris) sont utilisées pour constituer une base de données, et (ii) comparaison qui quantifie la
ressemblance entre deux gabarits (signatures numériques dont l’une provient de la base de
données et l’autre créée au cours de l’apprentissage présent). [19]

6.1.2 Traitement des données :


Toutes les méthodes proposées de reconnaissance de l’iris reposent sur le même principe :
(i) localisation de l’iris au sein de l’image.
(ii) normalisation des dimensions des données.
(iii) extraction des caractéristiques discriminantes.
(iv) comparaison des informations. On constate que l’étape (iii) est un élément clef du
traitement, dans la mesure où le choix des procédés à employer pour les autres étapes
est souvent fixé par la manière de coder l’information [19].

34
Chapitre II Iris

6.2 Fonctionnement du système:


En général, la vérification biométrique consiste en deux étapes : inscription (enrôlement)
et authentification. Durant l’inscription, la biométrie de l’utilisateur est capturée (acquisition)
et les caractéristiques extraites (Template ou signature) sont sauvegardées sur une base de
données. Durant l’authentification, la biométrie de l’utilisateur est de nouveau capturée et les
attributs extraits sont comparés avec ceux qui existent déjà dans la base de données pour
déterminer la correspondance. L’enregistrement spécifique choisit pour la comparaison est
déterminé en fonction de l’identité acclamée par l’utilisateur. (Figure II.7)

35
Chapitre II Iris

Enrôlement

Enregistrement
Capture
Extraction des des données dans
d’image d’iris
caractéristiques BDD
d’un utilisateur

Au moyen d’une * Projection de l’image dans Comparaison


camera sensible dans un repère de taille fixe
le proche infrarouge
l’éblouissement de * Codage binaire par un
l’utilisateur (camera filtre ondelette de Gabor 2D
CCD) Elle repose sur un test
* Résultat: un code d’iris de
statistique d’indépendance.

La comparaison des codes


permet de quantifié le taux de
similarité de deux images
différentes d’iris: on compare
chacun des bits issus des 2
codes et on compte le nombre
de bits qui diffèrent Distance
Hamming(DH)

Identification Suivant le type de comparaison avec:


« 1-parmi-N » * un seul gabarit de référence
Décision
Vérification * plusieurs gabarits de référence
Il y a « 1-pour-1 »
authentification
de la personne
ou ce dernier est
un imposteur.

Figure II.7 : Fonctionnement d’un système de reconnaissance d’iris. [10]

36
Chappitre II Iris

6.2.1 Laa phase d’eenrôlementt (inscriptioon) [20]:

Au couurs de l’enrrôlement, laa caractéristtique bioméétrique est tout


t d’abordd mesurée grâce
g au
disposittif d’acquisiition. Cette capture n’est pas direectement sttockée, des transformaations lui
sont apppliquées. En
E effet, le signal conttient de l’in
nformation inutile à laa reconnaisssance et
seuls les paramètrees pertinentts sont extraaits. Le mo
odèle (gabarrit, signaturre), ainsi ex
xtrait, est
une repprésentationn discriminaative compacte du sig
gnal qui peermet de faaciliter la phase
p de
reconnaaissance, maais aussi de diminuer la quantité de
d données à stocker. L
Le modèle peut
p être
stocké dans
d une basse de donnéées ou de façon distribu
uée sur un support tellee une carte à puce.

Lors dee l'acquisitioon de l'iris, l'image obbtenue contiient souvennt beaucoupp de parasittes ayant
des origgines diverses :
• L
L'environne
ement où see produit l'aacquisition (la
( distance entre la perrsonne et lee capteur
d l’iris).
de
• L présencee de mascarra.
La
• L
L'orientatio
on de l’œil lors
l de l'acqquisition.
• L personnee peut mettrre des lunetttes ou des lentilles.
La l
• L différeentes capturres utiliséess durant l’aacquisition de l’imagee (Utilisatio
Les on d’une
c
caméra infrrarouge ou bien
b d’une caméra
c trad
ditionnelle) .

lumièree visible infraroouge

Pour peermettre unee reconnaissance fiablee, un prétraaitement estt alors néceessaire pourr extraire
mation utile de l’image permettant d’éliminer de possiblees fausses innformations.
l’inform

37
7
Chapitre II Iris

6.2.2 La phase d'appariement[21]:

La phase d'appariement est l'étape critique du système. Elle reçoit en entrée deux signatures
issues de deux acquisitions différentes de l’iris et renvoie en sortie un résultat binaire
indiquant si oui ou non les deux signatures proviennent du même iris. Bien entendu deux iris
provenant de la même personne ne seront jamais identiques en raisons (sont décrits dans le
paragraphe 6.2.1). Ceci est caractéristique des systèmes biométriques. La phase d'appariement
va donc calculer le degré de similarité (taux d'appariement) entre les deux signatures et
décider si elles peuvent être considérées identiques en fonction d'une valeur seuil.

6.2.3 Phase d’identification :


L’identification d’un utilisateur fournit un échantillon biométrique qui va être comparé à tous
les échantillons biométriques contenus dans la base de données biométriques du système. Si
l’échantillon correspond à celui d’une personne de la base, on renvoie son numéro
d’utilisateur (ainsi ses informations personnelles), sinon l’identification échoue.

7. Niveau de décision dans une vérification d’iris :


Le problème de vérification peut être formulé comme suit :
Soit la représentation de l’iris de la base de données par T (pour template) et celle à identifier
par I (pour input) on aura les hypothèses suivantes :

• H0 : I ≠ T ; l’iris en entrée n’existe pas dans la base de données.


• H1 : I = T ; l’iris en entrée existe dans la base de données.

Les décisions associées respectivement seront les suivantes :

• D0 : la personne est un imposteur


• D1 : la personne est véritable
L’appariement entre T et I utilisera, bien sur, les mêmes métriques, si le score d’appariement
MS (matching score) et au dessous d’un seuil S on décidera D0, sinon c’est D1.
Les hypothèses formulées ici nous mènerons à deux types d’erreurs :
• Fausse acceptation : D1 est décidé quand H0 est vrai, qui nous donnera le taux de
fausse acceptation (TFA)
• Faut rejet : D0 est décidé quand H1 est vrai, qui nous donnera le taux de faux rejets
TFR.

38
Chapitre II Iris

Les différentes applications peuvent avoir de différentes restrictions sur ces taux d’erreurs
TFA et TFR, qui sont réunis dans une courbe réceptrice de caractéristiques de fonctionnement

ROC (Receiver Operating Charcteristics) elle trace le TFR contre TFA dans différents seuils
de décision.
Remarque : TEE Taux d’Erreur Egal => TFR = TFA, sur le graphe c’est l’intersection de la
première bissectrice avec la courbe. Il est fréquemment utilisé pour donner un aperçu de la
performance d’un système.

Le seuil S doit donc être ajusté en fonction de l’application ciblé : haute sécurité, basse
sécurité ou compromis entre les deux.

Figure II.8 : La courbe ROC

39
Chapitre II Iris

8. Techniques de reconnaissance par iris :


Le caractère exceptionnel de la texture de l’iris réside dans le fait que les processus de
génération de ces textures sont complètement aléatoires mais stable. En conséquence, dans le
but d’utiliser l’iris comme un outil biométrique, l’extraction des caractéristiques doit être
capable de capturer et d’encoder cette particularité aléatoire présente dans la texture de l’ris.
Les méthodes de traitement algorithmique reposent donc sur une analyse du relief et de strie
de l’iris (Figure III.6).

Figure II.9 : Illustration du relief de l’iris.

Nous avons classifié les systèmes de reconnaissance par iris en trois catégories selon la
technique par laquelle les caractéristiques sont extraites de la texture de l’iris pour des buts de
comparaisons. Ces trois catégories sont : les techniques basées sur l’apparence, les techniques
basées sur la texture et les techniques basées sur l’extraction des caractéristiques.
• Les techniques basées sur l’apparence [22] [23] font usage d’approches statistiques
classiques telles que l’analyse en composantes principales (ACP) ou l’analyse en
composantes indépendantes (ACI) pour représenter les images d’iris.
• Les techniques basées sur la texture [24] [25] [26] [27] [28] font quant à elles usage de
filtres pour le traitement des images et l’extraction de quelques propriétés des images
filtrées afin de quantifier les images d’iris données.
• Les techniques basées sur l’extraction des caractéristiques [29] font usage des
caractéristiques locales présentes dans l’image (blocs ou taches) et enregistrent leurs
localisations et caractéristiques (propriétés) pour distinguer les différentes images. Les
différentes approches de reconnaissance par iris sont détaillées ci-dessous.

40
Chapitre II Iris

9. Quelques méthodes connues de reconnaissance par iris :


9.1 Méthode de John Daugman :
En 1992, J. Daugman [30] fut le premier à publier ses recherches sur la mise au point d’un
procédé d’analyse de texture de l’iris. Il repose sur la détection précise des centres et rayons
respectifs de l’iris et de la pupille par des opérateurs intégro-différentiels sur des arcs de
cercle, exploitant le fort contraste aux frontières de la pupille et de l’iris, une conversion de
l’image circulaire de l’iris en un équivalent rectangulaire (conversion polaire à angle
constant), le codage binaire de la phase locale extraite par un banc de filtres passe-bande en
quadratures (filtres de Gabor), dont certaines zones où se situent le reflet de la diode et la
paupière sont supprimées et le calcul du taux de similarité entre deux codes d’iris par
comptage de la proportion de bits qui diffèrent (opération du type XOR).
L’implémentation de l’algorithme sur SUN Sparc-Station en code entier optimisé requiert
100ms pour déterminer un iris-code de 256 octets [31]. A partir d’une base de données
d’environ 1770 images (3 images de 592 yeux) fournie par l’Ophtalmology Associates of
Connecticut, le taux EER est estimé à 1/128 000 par extrapolation des distributions des
imposteurs et authentiques relevées. Cependant lors de l’évaluation des algorithmes de J.
Daugman dans des conditions réelles d’utilisation pour leur commercialisation par la société
IriScan, The Sandia National Laboratories [32] présentait des résultats beaucoup plus
modestes : avec 199 yeux enrôlés provenant de 122 personnes, on enregistrait un FRR de 10%
(878 essais d’identification en groupe fermé) et un temps moyen d’identification de 14
secondes.

9.2 Méthode de Wildes :


Près de 2 ans plus tard, R.P.Wildes [33] propose un système concurrent. Les pourtours de
l’iris sont extraits par transformée de Hough, appliquée à la détection de cercle sur les
contours de l’image, et les paupières sont modélisées par des arcs paraboliques. L’alignement
spatial entre deux images d’iris à comparer (rotation et adaptation d’échelle) est réalisé par
une technique de registration d’image (résolution par une procédure de minimisation
itérative). Ensuite la texture de l’iris est représentée par une pyramide Laplacienne,
comparable à une décomposition en ondelettes (4 bandes) par des filtres passe-bande
isotropes (filtres gaussiens). L’étape de comparaison est basée sur le calcul d’un facteur
normalisé de corrélation par sous-bloc de 8 x 8 pixels. Pour chaque bande fréquentielle on

41
Chapitre II Iris

conserve une seule valeur via la médiane : le score est donc représenté par une série de 4
indices de similitudes.
La décision finale est prise par un classificateur du type discriminant linéaire de Fisher. La
vérification d’un individu prend approximativement 10 secondes [34] sur SUN Sparc-Station
20, avec un code C non-optimisé. Le test du système proposé par R.P.Wildes n’a produit
aucune erreur de faux rejet ou de fausse acceptation sur une base de données comprenant 60
iris de 40 personnes.

9.3 Méthode de Boles :


En 1996, W.W.Boles [35] introduit une nouvelle technique basée sur une transformée en
ondelettes monodimensionnelles. Le traitement commence par localiser le centre de la pupille
par détection des contours circulaires, puis de la même manière le diamètre extérieur de l’iris.
En fonction du ratio entre le diamètre de l’iris de référence et celui de l’iris à identifier, on
définit un ensemble de n cercles virtuels de centre celui de la pupille, sur lesquels on extrait n
signaux caractéristiques du relief de l’iris (signaux normalisés à 256 points par
souséchantillonnage).
Une représentation zero-crossing est alors générée par une transformée en ondelettes
(décomposition sur 8 niveaux, mais on conserve uniquement les 4 ème, 5 ème et 6 ème). Il
s’agit en fait d’un codage des points d’inflexion des n signatures de l’iris pour différents
niveaux de résolution ; ce codage est obtenu en utilisant une onde mère spécifique du type
dérivée seconde d’une fonction de lissage [36]. Enfin la comparaison est traitée par quatre
fonctions de dissimilitude (par exemple : mesure de différence d’énergie, coefficient
normalisé de corrélation croisée) entre 2 représentations zero-crossing. Le score final est la
moyenne des résultats fournis par ces fonctions de dissimilitude. Mais l’efficacité de cette
technique n’a toujours pas été démontrée sur plus de 2 iris différents [37].

9.4 Méthode de Sanchez-Reillo & Al. :


En 1999, l’approche de Sanchez-Reillo & Al. [38] reprend dans l’ensemble celle de
J.Daugman. La texture de l’iris est partiellement transformée en un équivalent rectangulaire,
puis codée en rendant binaires les résultats de filtrage avec la partie imaginaire de filtres
complexes de Gabor. La comparaison consiste à calculer la distance de Hamming entre deux
codes. A partir d’une base de données de plus de 200 images (au moins 10 images de 20

42
Chapitre II Iris

yeux), l’étude de Sanchez-Reillo & Al. montre que leur système atteint un EER de 3.6% pour
une taille de code d’iris de 1860 bits.

9.5 Méthode de Y. Wang & Al. :


La même année, Y. Wang & Al. [39] [40] brevètent une nouvelle méthode d’extraction des
caractéristiques à partir de la représentation rectangulaire de l’iris (proposée par J. Daugman).
On commence par filtrer l’image rectangulaire d’iris soit par filtrage de Gabor suivant 4
directions et pour 6 fréquences différentes, soit par transformée en ondelettes 2D (ondelettes
de Daubechies du 4ème ordre) sur 5 niveaux de faible résolution uniquement. On obtient alors
n images résultats (n = 24 pour le cas, et n = 13 pour le cas). La signature d’un iris est alors
constituée de la série de n vecteurs [moyenne écart type], extraits de ces n images. Pour
effectuer la comparaison, Y. Wang & Al. suggèrent la distance euclidienne pondérée. Sur 160
images (10 images de 16 yeux), le meilleur taux de classification (identification en groupe
fermé) est de 93.8%. En 2002, une amélioration [41] au système est apportée : le vecteur
caractéristique comprend 384 valeurs, qui correspondent à l’écart absolu moyen (somme sur
l’image des différences entre l’intensité des pixels et la moyenne de l’image) de 384 blocs de
8x8 pixels appartenant à la texture de l’iris (texture préalablement filtrée par un filtre
passebande symétrique circulaire) ; un classificateur plus avancé (Nearest Feature Line [42])
est utilisé pour la comparaison. Lors de nouvelles expérimentations sur une population de 134
iris (de 7 à 25 images par oeil), le taux de classification atteint 99,85% (ou FAR=0.1% et
FRR=0.83% en mode vérification).

9.6 L’approche IriTech : L’utilisation de l’ondelette de Haar :


La société Iritech est l’un des rares concurrents de la société Iridian à avoir proposé une
solution alternative à la méthode Daugman . L’approche utilise l’ondelette de Haar comme un
moyen d’analyse mutli-résolution. 1024 coefficients de Haar sont calculés sur différentes
zones de l’iris comme indiqué sur la figure 3-6. Les coefficients sont comparés entre eux en
calculant une différence entre les coefficients des hautes fréquences et ceux des basses
fréquences qui n’ont pas été générés par des paupières ou des cils.[3]

43
Chapitre II Iris

Figure II.10 : Le découpage de l’iris en secteurs par Iritech. [3]

10. Conclusion :
La biométrie par l’iris est la technologie la plus fiable à travers le monde. Et on voit fleurir
des solutions de plus en plus abordables et performantes.
Les informations stockées ne sont jamais les images d’origines de l’iris mais un modèle
mathématique des éléments qui distinguent l’échantillon biométrique d’un autre. Ce modèle
est appelé un " gabarit " ou " signature ". De cette manière, on obtient alors des fichiers de très
petite taille.

44
Chapitre3 La conception algorithmique

Chapitre III
1. Introduction :

La conception d’un système biométrique peut être projetée sur deux niveaux différents : la
conception du système et la conception des algorithmes implantés sur le système. La plupart
des difficultés recensées lors de la conception du système sont en relation avec le choix de la
biométrie la plus adaptée à l’environnement concerné, l’architecture générale du système, le
port de l’information biométrique (base de données ou carte a puce ?), Ayant les
spécifications du système et les exigences expérimentales, les taches principales lors de la
conception des algorithmes sont : (i) l’extraction des caractéristiques et (ii) l’appariement.

2. Structure modulaire du système:


On s’intéresse dans cette partie à décrire avec précision la structure interne du système, ses
composantes (ses modules) et les interactions entre celles-ci.

2.1 Modules du processus d’apprentissage :


2.1.1 Module d’acquisition des images de l’œil:
Le rôle de ce module est de récupérer les images d’iris que le capteur prend automatiquement
à chaque enclenchement de la fonction de capture.

Figure III.1 : Image capturée.

45
Chapitre3 La conception algorithmique

2.1.2 Module de prétraitement des images :

L’image capturée d’un œil n’est pas exploitable telle quelle, un des buts de cette étape est de
l’améliorer afin qu’on puisse plus facilement détecter les points qui nous intéressent.
A. Lissage :
¾ Le filtre de convolution médiane (moyenneur) :
Après que l’image soit capturée, la première étape de pré-traitement consiste à réduire le bruit
occasionné par le capteur et à toute l’électronique de transfert. Pour ce faire, on appliquera un
filtre moyenneur sur l’image. L’application d’un tel filtre entraînera malheureusement
l’altération des contours de l’image. [1]

Figure III.2 : Application du filtre moyenneur sur l’image

Le filtre moyenneur est un filtre passe-bas. Un filtre passe bas à la propriété de laisser passer
les fréquences spatiales faibles, mais supprime les fréquences hautes. L’analogie la plus
simple à faire pour ce type de filtre est la diminution du niveau des hautes fréquences sur une
chaîne stéréo. On peut aussi constater que les filtres passe-bas possèdent des noyaux de
convolution dont tous les coefficients sont positifs.

Son application réside à l’attribution, au pixel d’intérêt, d’une valeur moyenne en considérant
le voisinage du pixel. La valeur de gris d’un pixel est modifiée en tenant compte des valeurs
de gris des pixels voisins.

Cela est obtenu en appliquant une matrice de calcul appelée noyau de convolution qui définit
le nombre de voisins concernés et la pondération à appliquer sur leur valeur de gris.

46
Chapitre3 La conception algorithmique

La figure III.3 illustre un filtre moyenneur simple de noyau de convolution 3x3 qui implique
les 8 voisins immédiats d’un pixel d’intérêt et permet d’affecter au pixel concerné le
neuvième de la somme des valeurs de gris de lui-même ainsi que de ses voisins. [2]

Figure III.3 Exemple d’un filtre moyenneur de dimension 3x3

Ainsi, pour un noyau de convolution de grandeur n x n, le pixel concerné prendra la valeur de

Formule III.1 Exprimant la moyenne d’un pixel d’intérêt.

Où xi représente le ième voisin du pixel.


N : (dans l’exemple on choisi N=9)
Il est à noter que plus la dimension du noyau de convolution est élevée, plus l’adoucissement
engendré par le traitement sera prononcé.
Dans notre implémentation, le choix de dimension du noyau de convolution du filtre
moyenneur a été fixé à 3x3 dans la plupart des cas. [3]
B. Le filtre de Gausse :
C’est un filtre basé sur la convolution médiane et qui utilise la formule suivante :

Formule III.2 Représentation du filtre gaussien.


47
Chapitre3 La conception algorithmique

• (X,Y) : Les paramètres de filtre de Gausse(chaque pixel de l’image capturé )


• : cansante définit par l’utilisateur (on a utilisé pixel/3.0).[2]

L’échelle spatiale, ou la résolution à laquelle une image peut être observée, dépend du
paramètre Y. La convolution du noyau gaussien de résolution Y sur une image I peut être
obtenue de la façon suivante.

Formule III.3 Convolution d’un filtre gaussien sur une image.

G (x,y): le résultat obtenu après l’application de la fonction de Gausse (Formule III.3)


I(x,y) : Matrice de convolution

sigma
(radius)=3.0

Image capturée Image lissée par le filtre de Gausse


Figure III.4 : Application de filtre de Gausse avec un radius =3.0

B. Conversion en niveau gris :


La seconde étape de pré traitement est nécessaire afin de convertir l’image adoucit RGB en
image en niveaux de gris. Cette conversion permet de tirer profit de la rapidité des différents
algorithmes subséquents, car ils ne sont pas basés sur la couleur, mais sur les niveaux de gris.
Puisque un pixel de teinte grise quelconque possède ses trois composantes RGB de même
valeur, une manière simple de convertir chaque pixel couleur en niveaux de gris serait
simplement d’appliquer une moyenne sur la somme des composantes RGB du pixel, comme
ceci : [4]
Y[x, y] = 0.299 R[x, y] + 0.578 G[x, y] + 0.114 B[x, y]
Formule III.4 : Conversion en niveau gris d’un pixel RGB
Avec R : rouge, G : vert, B : bleu.
48
Chapitre3 La conception algorithmique

Figure III.5 : Transformation en niveaux gris.

2.1.3 Modules de détection des coordonnées de la pupille et de l’iris :


Les modules de détection des coordonnées de l’iris et de la pupille comprennent les étapes
suivantes :
A. Détection de Bord :
¾ Filtre de Sobel[1] :

Est un algorithme utilisé pour le traitement d’image dans le but de détecter les contours. C’est
une matrice de convolution 3x3 dont la formule est :

Puis ensuite :
Formule III.5: Le filtre de sobel

G : est la valeur du pixel retournée.


A : la matrice donc l'image obtenue après lissage

49
Chapitre3 La conception algorithmique

FigureIII.6 : Image lissée puis passe au filtre de sobel

On constate bien que les contours sont bien détectes, mais dans ce cas quels contours revoie à
l’iris et quels renvoie à la pupille ? Et pour répondre à cette question on va appliquer le filtre
de canny qu’on va le décrire ci-dessous:

9 Directions des contours :

La direction des gradients est obtenue en calculant l’arc tangente entre la matrice des points
atteints par la convolution du filtre de Sobel en Y ainsi que la matrice des points touchés par
le filtre de Sobel en X. Il est important de garder le résultat des convolutions dans une matrice
afin de s’assurer de conserver la possible négativité des opérations.

arctan Si (Gx et Gy 0)

Formule III.6 Arc tangente des filtres de Sobel.

Remarque :
Si Gx =0 ou Gy=0 :
Si Gx =0 alors /2
Si Gy =0 alors 2

B. Détection du Bord d’iris et de la pupille :


¾ Filtre de canny :[1]
Ce filtre est complexe puisqu’il offre le meilleur compromis possible entre la réduction de
bruit et la localisation des contours, A titre indicatif, notons qu’une réduction de bruit masque
certains contours intéressants, mais qu’une utilisation en résulterait par la localisation des
contours qui ne sont pas significatifs.

50
Chapitre3 La conception algorithmique

L’algorithme de canny se sectionne en plusieurs phases :


1. La phase de réduction des bruits s’effectue par la convolution d’un filtre passe_bas
Gaussien. Qui utilise la matrice de convolution suivante :

1.0 /5.0

a= 1.0f/9.0f
f=Floue
En entrée on a l’image obtenue par le filtre de sobel ,
En sortie une image convole par le filtre de Gausse passe-bas

2. Détection de bord de la pupille :


Utiliser un filtre de convolution dont la matrice est la suivante :
0.0 1.0 0.0
1.0 9.0 1.0
0.0 1.0 0.0

En entrée : L’image convolé par le filtre de gausse


En sortie : image filtrée
3. Détection de bord de l’iris :
Utiliser un filtre de convolution dont la matrice est la suivante :
0.0 1.0 0.0
1.0 9.0 1.0
0.0 1.0 0.0

En entrée : L’image convolé par le filtre de gausse


En sortie : image filtrée
4. Seuillage : le seuillage n’est rien de plus binarisation de l’image. Le principe ici est de
mettre à 0 un pixel inférieur à notre seuil et 1 sinon.
Des seuils devraient être intelligemment calculés basés sur le pourcentage noir au pixel
blanc pour pouvoir sélectionner l’iris ou la pupille.
Dans notre application on a choisi un seuil= 50 pour l’iris et 150 pour la pupille.[1]

51
Chapitre3 La conception algorithmique

Figure III.7 : Application de filtre de canny


Les contours sont très distincts ici on va donc exploiter cette image mais il faut un algorithme
qui détecte les cercles, c’est a partir de la qu’entre en jeu la transformée de Hough.

c. Détection des centres :


La détection des centres repose sur les résultats des deux dernières étapes. Pour chaque point
de contours de l’image de Canny, on trace une droite en fonction de la direction calculée par
le biais de l’application des filtres de Sobel à l’étape précédente ( ).

On trace une droite dans l’accumulateur en fonction des points de contours de l’image de
Canny tel qu’elle est exposé dans la figure III.8. [3]

Figure III.8 Traçage d’une droite en fonction d’un contour.

Tracer une droite dans un accumulateur revient à incrémenter chaque cellule d’une matrice de
un aux endroits où elle passe.

52
Chapitre3 La conception algorithmique

Figure III.9 Traçage d’une droite dans l’accumulateur.


Le fait de tracer deux droites en fonction des directions des gradients dans l’accumulateur
incrémente de un chacune des cellules touchées. Ainsi, comme on peut le voir dans la figure
III.10, la rencontre de deux droites produit un résultat supérieur à un (1 +1).
L’utilisation de cette méthode est très utile dans notre cas puisque les valeurs maximales dans
l’accumulateur identifieront les centres des cercles potentiels. Ainsi, si on trace des droites
perpendiculaires au contour d’un cercle, le point de rencontre de ces droites identifiera
nécessairement le centre de celui-ci. La figure1 III.10 illustre ce propos. [3]

Figure III.10 Centre d’un cercle dans un accumulateur.


La figure III.11 synthétise la théorie énoncée

1
Source : http://www.vieartificielle.com/article/index.php?action=article&id=188

53
Chapitre3 La conception algorithmique

Figure III.11 Traçage de lignes dans l’accumulateur en fonction de l’image de Canny et


de la matrice de directions.

4. Seuillage :

L’application d’un seuil permet de se désencombrer de toutes les informations superflues qui
engorgent notre accumulateur. Ainsi, pour une valeur de seuil donnée, tous les pixels ayant
une valeur inférieure seront mis à zéro pour préserver uniquement l’information d’intérêt, soit
les centres potentiels. L’application d’un tel seuil a été automatisée de façon à la fixer à la
moitié de la valeur maximale d’une cellule dans l’accumulateur. [3]

(valeur (pixel actuel) > 0.5 * max (valeur (pixels de l'image)))

Ainsi, à partir de l’accumulateur, l’application d’un seuil aura pour effet de conserver
uniquement les cellules comportant des valeurs maximales, telles qu’elles indiqué par la
figure III.12.

54
Chapitre3 La conception algorithmique

Figure III.12 Application d’un seuil dans l’accumulateur

5. Isoler les centres potentiels :


Afin d’isoler les points correspondants le plus au centre des cercles, la combinaison d’un filtre
Gaussien (formule 4.3) avec un filtre Laplacien sera effectuée. C’est grâce à la linéarité ainsi
que l’invariabilité de ces filtres qu’une combinaison est possible. [3]

Formule III.7 Représentation d’un Laplacien de Gaussien.

C. Recherche des cercles : [3]

La dernière étape repose sur les coordonnées des centres potentiels identifiés dans
l’accumulateur ainsi que les contours localisés par l’application du filtre de Canny. Pour ce
faire, l’utilisation des transformées de Hough2 a été jumelée avec les informations dont nous
disposions sur les coordonnées des centres potentiels.
La transformée de Hough s’appuie sur un principe d’accumulateurs, analogue à l’étape de
détection des centres potentiels des cercles. Pour un cercle de rayon inconnu, l’utilisation
d’accumulateurs en trois dimensions sera de mise. Les deux premières dimensions expriment
les coordonnées du cercle tandis que la troisième lie ces coordonnées à un rayon r.
La figure III.13 nous donne un exemple.

2
La transformée de Hough est une technique de reconnaissance de formes inventée en 1962 par Paul
Hough. Cette technique nous permet de reconnaître les lignes (droite), les cercles ou n'importe quelle
forme présente dans une image. http://www2.ifi.auf.org/rapports/stages-promo12/stage-phan_viet_anh.pdf

55
Chapitre3 La conception algorithmique

Figure III.13 : Accumulateur de Hough en trois dimensions. [3]

Si nous voulons trouver des cercles de rayons de 8, 9 et


10 unités, nous aurons à construire un accumulateur comprenant trois niveaux, chacun en
deux dimensions.

Une fois nos accumulateurs de Hough initialisés, à partir de l’image de contours de Canny,
on trace littéralement des cercles dans un des accumulateurs en faisant le centre du cercle
avec les coordonnées du pixel de contour pour un rayon donné. Afin de tracer les cercles le
plus efficacement possible dans l’accumulateur de Hough.
Comme on peut l’observer dans la figure III.14, plusieurs cercles sont tracés (dans un
accumulateur de rayon r) en suivant les contours (cercle gris foncé) de l’image de Canny. Une
fois tous les cercles tracés dans les accumulateurs, on réalise que les cellules qui contiennent
des valeurs maximales, sont des centres potentiels.

Figure III.14 : Traçage des cercles avec l’image de contours. [3]


Enfin, on divise la tâche finale en deux parties. Cette fission est établie en fonction des
dimensions de la région d’intérêt à analyser. Cette région d’intérêt représente une partie du

56
Chapitre3 La conception algorithmique

visage qui arbore les yeux du sujet. Afin de localiser le mieux possible les iris et pupilles du
sujet.

Figure III.15: Application de transformée de Hough

Pour chacune de ces parties, on applique un seuil permettant de conserver uniquement les
coordonnées et rayons de centres potentiels de cercle et on s’assure en même temps qu’ils font
parti de l’accumulateur de cercles potentiels identifiés à une étape antérieure.

En terminant, on fait la moyenne des positions et des rayons des cercles restants et on
identifie, à gauche et à droite, les cercles entourant les iris et pupilles. On isole les cercles les
plus petits qui s’avèrent être les pupilles.

2.1.4 Module de normalisation de l’iris :


Le dépliage de l’iris s’effectue comme suit :
-Découpage de l’iris en zones circulaires, le nombre de cercles dépend de la taille en pixels de
l’image d’iris et de celle des zones circulaires, à titre d’exemple : 32 zones circulaires sur les
images de taille 280 x 320 pixels.
-Choix d’un nombre de points fixes équidistants dans chaque cercle (à titre d’exemple : 240
points), sur lesquels une interpolation linéaire est appliquée. Cette transformation est faite
conformément au modèle de normalisation de John Daugman [4]. Elle permet le passage
d’une représentation par coordonnées cartésiennes vers une représentation polaire ( , ) où
est dans l’intervalle [0,1] et est dans l’intervalle [0,2π].[4]

57
Chapitre3 La conception algorithmique

Figure III.16 : Modèle de transformation polaire rectangulaire de John Daugman. [5]

Le passage de la représentation cartésienne à la représentation polaire rectangulaire est


modélisé par la formule :

Avec
Où I(x,y )est la région de l’image d’iris, (x ,y)sont les coordonnées cartésiennes initiales,( , )
sont leurs coordonnées polaires correspondantes dans l’image normalisée ,xp ,yp et xi ,yi sont
les coordonnées des contours de la pupille et de l’iris respectivement le long de la direction .


Où le déplacement du centre de la pupille par rapport au centre de l’iris est donné par ox ,oy ,r

la distance entre le contour de la pupille et celui de l’iris dans une certaine direction autour
de la région d’iris et le rayon de l’iris.

Ci =OY
Cp=Ox

58
Chapitre3 La conception algorithmique

Figure III.17 : Résultat du processus de normalisation de l’iris avec une résolution


angulaire de 40 pixels et une résolution radiale de 10 pixels.[1]

Ci : centre iris
Cp : centre pupille
P1 et P2 : des points de la pupille
P3 et P4 : des points de l'iris
Le principe est consiste à créer pour chaque point de la pupille (P1), un point de l'iris (P3)
correspondant. Il suffit ensuite d'extraire tous les points qui sont sur la ligne formée par ces
deux points et de les recopier non pas sur une ligne mais sur une colonne de l'image cible.
Donc en sortie on obtient la matrice suivante :
1

3 4

59
Chapitre3 La conception algorithmique

On obtient le résultat suivant :

Figure III.18 : Illustration du procédé de normalisation de l’image d’un iris après localisation
De l’iris et de la pupille.

2.1.5 Module d’extraction des caractéristiques [4] :

Plusieurs approches sont susceptibles d’être utilisées dont celle basée sur la texture, qui
consiste en une quantification statistique de l’information texturale présente dans la zone
d’intérêt. Les critères statistiques calculés constitueront une identité statistique pour chaque
image d’iris. L’intérêt d’une telle approche est d’arriver à substituer l’image de l’iris
normalisée par un vecteur dont les valeurs caractérisent d’une manière plus ou moins précise
l’agencement des différents pixels de l’image d’iris, l’avantage est donc d’arriver à
compresser les valeurs de pixels de l’image, et à ne manipuler qu’un maximum de 10% de
l’ensemble de départ, et ce dans un but de discrimination entre individus.

¾ Etapes de calcul du vecteur caractéristique d’une image d’iris :

Les étapes de calcul de ce vecteur sont différentes selon la méthode d’analyse que l’on
choisit, la première est celle de l’analyse statistique directe, c'est-à-dire une analyse opérant
directement sur l’ensemble des pixels représentant l’image normalisée de l’iris. Cette méthode
prend en considération tous les détails d’une image d’iris normalisée, y compris l’information
inutile pour un problème tel que la discrimination, d’où la nécessité d’analyse approfondie.
La deuxième méthode découle naturellement de l’inconvénient de la première méthode : le
filtrage de l’image normalisée. Ce traitement permettra de ne garder que l’information
essentielle pour la discrimination. C’est pour cela qu’on utilisé la deuxième méthode qui est
nommée le filtre de Gabor (Gabor Wavelets).

60
Chapitre3 La conception algorithmique

9 Filtre de gabor2D :
J. Daugman, le Père de l'iriscode a trouvé un algorithme adapté à l'extraction des
caractéristiques de l'iris. Cet algorithme se nomme le filtre de Gabor a pour but de mettre en
valeur les zones intéressantes de l’iris normalise.
• Les paramètres de filtre de Gabor :
Ce filtre est constitué de plusieurs composants ainsi ce filtre fait parti de la famille des
ondelettes. Une ondelette est une courbe ayant plusieurs propriétés et formes bien spécifiques.
Elles sont souvent utilisées dans le domaine audio afin de caractériser des fréquences / sons,
mais elles sont aussi usitées en imagerie.
La formule de Gabor peut se définir comme suit : [6]

Formule III.6 : la formule de Gabor

Où x et y correspondent à chaque point de l'image de l'iris normalise (Matrice de


normalisation de l’iris)

Cette fonction que nous avons implémentée possède cinq paramètres qui sont :
• λ: représente la longueur d'onde En modifiant cette variable, on joue sur la taille de
notre filtre.

.
λ:5 λ:10 λ:15
• θ représente l'orientation
En modifiant cette variable on va changer la direction du filtre.

61
Chapitre3 La conception algorithmique

θ= 0degre θ= 45degre θ=90degre

• φ représente la phase φ représente la phase En modifiant cette variable on va changer


la variation des paramètres du filtre
• γ représente le ratio : En modifiant ce paramètre, on va changer le ratio spatial du filtre

Pour extraire les caractéristiques de l’iris, nous allons donc jouer sur ces paramètres et
appliquer une convolution par ce filtre (filtre de gabor), La réponse impulsionnelle d’un filtre
de Gabor est complexe (Pour rappel, un nombre complexe est composé d'une partie réelle et
d'une partie imaginaire) qu’il serait judicieux d’exploiter en s’intéressant à la phase des
coefficients de l’image filtrée. C’est cette idée qui a été proposée par Daugman, nous allons
coder la phase des coefficients complexes de l’image filtrée. Le cercle trigonométrique est
divisé en quatre quarts auxquels sont affectés les codes binaires 00, 01,10 et 11. En fait, cette
opération revient à coder les signes de la partie réelle et de la partie imaginaire des
coefficients de Gabor obtenus. Cette opération est appliquée sur plusieurs points d’analyse
situés sur 9 cercles équidistants autour de la pupille, suivant plusieurs résolutions et
orientations des filtres de Gabor. Ceci fournit un vecteur de signature composée de 2240 bits.
En plus de ce code, chaque iris admet un code masque qui indique, pour chaque bit, s’il faut
ou non le prendre en considération. Les bits ignorés proviennent généralement des points
d’analyse couverts par les paupières et les cils.

62
Chapitre3 La conception algorithmique

2.2 Modules du processus d’identification :


2.2.1 Module de calcul des distances[6] :
La comparaison de deux iris revient à comparer leurs vecteurs de signatures obtenues après
l’extraction des caractéristiques. Nous avons utilisé la distance de Hamming.

(CodeA ⊗ codeB)( maskA ∩maskB)


HD=
mskA∩ maskB

• codeA et codeB : sont deux codes calculés à partir de deux images d’iris par le
procédé précédemment décrit
• maskA et maskB : représentent leurs masques associés.

2.2.2 Module d’identification :

• Calcul la distance de hamming entre le modèle de chaque individu avec le vecteur à


identifier.

• Choix de la classe dont la distance calculée est la plus petite.

• Si le modèle de chaque individu doit se calculer lors de la phase d’identification, alors


on calculera le modèle de chaque individu au moyen du vecteur à identifier. Ensuite,
on récupérera la classe correspondante à la distance minimale trouvée

2.3 Modules du processus de vérification :

2.3.2 Module de prise de décision :

Ce module permet de se « prononcer » sur la véracité de l’identité présumée d’un individu.

• Calcul de la distance entre le modèle construit grâce à l’image de référence dont


l’identité doit être vérifiée et une image de l’identité proclamée.
• Comparaison avec le seuil de décision de l’individu dont le modèle a été construit
précédemment

63
Chapitre3 La conception algorithmique

• Une personne est identifiée si la distance de Hamming de la comparaison des deux


images capturées de l’œil (iris) est comprise entre 0 et 0,39. Au delà de ce nombre, on
considère que les deux iris appartiennent à des individus différents. [7]

3. Conclusion:

Pour l’instant nous avons défini tous les concepts de base utiles dans le domaine
d’authentification et identification biométrique basé sur la modalité de l’iris. Ces concepts
nous aiderons durant l’analyse et la conception ainsi que la réalisation de notre système.

64
Chapitre IV Analyse & Conception

Chapitre IV
1. Introduction :

Après avoir abordé dans les chapitres précédents les différents concepts nécessaires à
l’accomplissement de notre travail, nous passons a présent à la partie conception du système.
Pour une meilleure organisation et une bonne maitrise d’un projet informatique, il est
important de suivre une méthodologie rigoureuse, nous avons choisi comme langage de
modélisation UML (Unified Modeling Language), en raison de son formalisme relativement
simple. Le but de la conceptualisation est de comprendre et de structurer les besoins. UML est
un bon langage qui permet une meilleure compréhension du système et qui désigne l’interface
entre les différents acteurs d’un projet commun.

2. Etapes du cycle de vie d'une application :


Afin de mettre en œuvre un logiciel, il faux d’abord étudier son cycle de vie (en anglais
software lifecycle), qui désigne toutes les étapes du développement d'un logiciel, de sa
conception à sa disparition. L'objectif d'un tel découpage est de permettre de définir des jalons
intermédiaires permettant la validation du développement logiciel, c'est-à-dire la conformité
du logiciel avec les besoins exprimés, et la vérification du processus de développement, c'est
à-dire l'adéquation des méthodes mises en œuvre. Notre conception et réalisation sera
conforme à la démarche RUP.

2.1 Définition [1] :

Rational Unified Process (RUP) Fonde en 1999 par la société IBM Rational Software, RUP
(Rational Unified Process) est un processus de conception/développement de logiciel qui se
base sur le langage UML et qui comprend quatre phases que l’on décrit ci dessous :

65
Chapitre IV Analyse & Conception

2.2 L’architecture RUP [1] :

2.2.1 Phase Initialisation : dans cette étape on définit :

• l'étendue du projet c’est t-a dire Poser le problème : Quel est le système dont
l'utilisateur a besoin ?
• Identifier les acteurs : utilisateurs, gestionnaires du système, plates-formes, interfaces
avec autres applications
• Identifier les cas d'utilisations : Préciser les cas d'utilisation les plus importants, en
Fonction du risque, sous forme de scénarios (itération sur les scénarios

2.2.2 Phase Analyse : qui comprend :

• Analyse du domaine : Modèle Objet statique (Diagramme de séquences)

• Définition de l'Architecture : L’architecture est la façon d'organiser les objets pour


qu'ils réalisent les fonctionnalités de l'application par leurs collaborations

• Planification du Développement Vue Cas d'utilisation : Décrit le système comme un


ensemble de transactions du point de vue de l'utilisateur Créée lors de la phase
d’initialisation (diagramme de collaboration).

2.2.3 Phase conception : La conception a pour but de définir l'architecture du système par :

• Une Vue Logique : Contient une collection de conteneur, classes et associations Créée
lors de la phase d'analyse et raffinée lors de la phase de développement (diagramme de
classe.

2.2.4 Phase réalisation : Le déploiement (réalisation) consiste à :

• représenter les éléments de réalisation (fichiers, modules, composants, …).


• décrire l’environnement d’exécution et le déploiement du code exécutable.
• UML propose pour modéliser le déploiement : Des diagrammes de composants et
Des diagrammes de déploiement qui montrent la disposition physique des différents
nœuds qui le composent.[1]

66
Chapitre IV Analyse & Conception

Remarques :

• RUP est L’ensemble des activités de modélisation du système développé s’appuie sur
UML.
• Dans la démarche RUP :
9 Les objets (et donc leur classes), comme les méthodes, sont découverts en
documentant les scénarios
9 C'est une démarche guidée par les scénarios.
• Nous avons vu qu’une méthode (de type Unified Process UP) qui s’appuie sur UML,
permettait d’avoir une démarche d’analyse et de conception qui nous amène de
manière continue du problème du client, vers le système qu’il désire.[1]

3. Application de la démarche RUP sur notre projet :

3.1 Phase initialisation :

3.1.1 Étude de l’existant:

A. Analyse des besoins :

L’étape d’initialisation commence par l’étude des cas d’utilisation et de leurs scénarios ainsi
que Les besoins fonctionnels du système (ce que le système doit faire en réponse à une
requête d’un utilisateur), qui aboutira à un ensemble de diagrammes représentant le modèle
d’analyse.
B. Problématique :
On distingue deux manières classiques d’authentification (et identification). La première est
basée sur une connaissance comme un mot de passe, alors que la deuxième est basée sur une
possession comme un badge. Ces deux méthodes présentent quelques inconvénients. En effet,
le mot de passe peut être oublié ou espionné et un badge risque d’être volée ou perdue. En
outre, ces deux méthodes ne permettent pas de différencier entre un client authentique et un
imposteur.

67
Chapitre IV Analyse & Conception

c. L’objectif de notre application


Le principal objectif de notre application est de concevoir une application de reconnaissance
biométrique par l’iris, qui comprend :
(i) Inscription.
(ii) Authentification
Durant l’inscription, la biométrie de l’utilisateur est introduite (capturée) et les
caractéristiques extraites (template) sont sauvegardées sur une base de données. Durant
l’authentification, la biométrie de l’utilisateur est de nouveau introduite (capturée) et les
attributs extraits sont compares avec ceux qui existent déjà dans la base de données pour
déterminer la correspondance. La figure IV.1 suivante montre l’architecture d’un système de
vérification biométrique

Figure IV.1: Architecture générale d’un système de vérification biométrique.

D. Identification des acteurs :

Un acteur représente l’abstraction d’un rôle joué par des entités externes qui interagissent
directement avec le système étudié. Les différents acteurs que nous avons pu identifier dans
ce système.

• Administrateur : C’est celui qui gère l’application.

68
Chapitre IV Analyse & Conception

• Client : toute personne qui interagit avec notre système en chargeant une image
capturé de son iris et en lançant les traitements : localisation, normalisation,
segmentation, extraction des caractéristiques…..

3.1.2 Identification des tâches:

Chacun des acteurs que nous avons définis précédemment, effectuent un certain nombre de
tâches :

Acteur Tâches
Client Le client peut faire :
• Une demande d’inscription.
• Une demande d’identification.
• Une demande d’authentification
Administrateur L’administrateur a pour mission de :
• Exécuter une demande d’inscription (enrôlement).
• Exécuter une demande d’identification.
• Authentification
• La gestion de la base de données y compris les tables (iris,
client…………).
• Recherche une personne
Tableau IV.1 : Tableau des répartitions des tâches.

3.1.3 Spécification des cas d’utilisation :

Un cas d’utilisation est une narration qui décrit un scenario appliqué à une utilisation
particulière, dans lesquels un acteur fournit des entrées et pour lequel le système produit une
sortie observable.
Un cas d’utilisation doit exprimer ce que le système doit faire, sans préjuger de la façon dont
cela sera fait .il décrit le comportement du système vue de l’extérieure.

69
Chapitre IV Analyse & Conception

A. Représentation textuel :

9 Identification d’un Client

Description du cas d’utilisation identification d’un client


Titre : Identification d’un client
Acteur : administrateur.
Résumé : Ce cas d’utilisation permet à un client d’identifier. Dans cette phase le client
introduit l’image de son œil (image capturé), Le modèle biométrique de l’iris introduite est
généré et une comparaison avec les modèles stockés sur la base de données s’effectuée. Une
prise de décision d’acceptation ou de rejet est alors retournée par le système.

9 Inscription d’un client (Enrôlement) :

Description du cas d’utilisation inscription d’un client (Enrôlement)

Titre : inscription d’un client


Acteur : administrateur.
Résumé : Ce cas d’utilisation permet à l’administrateur d’ajouter un nouveau client. Lors de
cette phase le client introduit l’image de son œil, le modèle biométrique du client est généré à
partir de ses caractéristiques extraites de son iris et les enregistrer dans la base de donnée
ainsi Les informations personnelles (nom, prénom, adresse, photo d’identité…)

9 Gérer les clients :

Description du cas d’utilisation gérer les clients


Titre : gérer les clients.
Acteur : l’administrateur.
Résumé : Ce cas d’utilisation permet à l’administrateur de faire la suppression et la
consultation de la liste des clients existant dans la base de données ainsi l’ajout de nouveaux
clients.

70
Chapitre IV Analyse & Conception

9 Changer login :
Description du cas d’utilisation changer login
Titre : changer login administrateur.
Acteur : l’administrateur.
Résumé : Ce cas d’utilisation permet à l’administrateur de modifier son login.

9 Authentification de client :

Description du cas d’utilisation authentification de l’administrateur


Titre : authentification de client.
Acteur : l’administrateur.
Résumé : Ce cas d’utilisation permet à l’administrateur d’authentifier un client. Lors de cette
Phase le client effectuer une demande d’authentification de son identité : proclame son code
d’inscription, alors le système biométrique doit déterminer si l’identité proclamé par le client
est accepter ou rejeter.

9 Rechercher un client :

Description du cas d’utilisation rechercher un client


Titre : rechercher un client.
Acteur : l’administrateur.
Résumé : Ce cas d’utilisation permet à l’administrateur de rechercher un client selon certains
critères.
B. Diagramme de cas d’utilisation générale :

• La relation include :
Une relation inclusion d’un cas d’utilisation A par rapport à un cas d’utilisation B, signifie
Qu’une instance de A contient le comportement décrit dans B, le cas d’utilisation A Ne pas
être utilisé seul.
• Relation extend :
Une relation d’extension d’un cas d’utilisation A par rapport à un cas d’utilisation B, signifie
qu’une instance de A peut être étendue par le comportement décrit dans B.

71
Chapitre IV Analyse & Conception

Rechercher une personne


Consulter client
Changer login
« extend »
« extend » « extend »

S’authentifier « entend » Gérer la


BDD
« extend »
Administrateur « extend »

Ajouter Supprimer client


S’identifier client

« extend »
Client « extend »
Ajouter iris
Charger iris

« extend » « extend »
« extend » Normalisation
« extend »

Extraction des Comparaison


caractéristiques
Segmentation

Figure IV.2.: Diagramme du cas d’utilisation générale

3.2 Phase analyse : permet de détailler les cas d’utilisation et procéder à une première
répartition de comportement de système entre divers objet on utilisant les diagrammes de
séquence et de collaboration.

3.2.1 Diagramme de séquence :

Les diagrammes de séquences sont la représentation graphique d’une interaction entre les
acteurs et le système selon un ordre chronologique, ces interactions sont décrite dans le cadre
d’un scenario d’un diagramme de cas d’utilisation.ces diagrammes sont :

72
Chapitre IV Analyse & Conception

9 Extraction des caractéristiques :


Fenêtre Page Extraction
Extraction
principale : extraction iris: caractéristique
iris:

Administrateur

2. sélectionne
1. saisir login
2. Charger œil client
3. affiche
Filtre deGausse

Filtre de Canny

Seuil
Hough
tonsform

4. Atteint
Centre de la
pupille et de l’iris

Normalisation

5. Atteint

Filtre

Gabor

Figure IV.3: diagramme de séquence du cas d’utilisation « extraction des caractéristiques »

Description des Scénarios :


1. L’administrateur atteint l’interface de l’application et s’authentifier par la
saisis de son login et le mot de passe.
2. L’administrateur sélectionne le lien charger œil et introduit l’image de l’œil de
client et clique sur le lien extraction iris.
3. Le système affiche la page charger iris et effectuer l’extraction de l’iris par
utilisation des filtres (gausse,canny)et un seuillage ainsi transformé de Hoogh
pour la détection des cercles.
4. L’extraction de l’iris est effectuée, les centres de l’iris et de la pupille sont
affichée ce qui permet au système d’effectue une normalisation.
5. Le système extrait les caractéristiques de l’iris par l’utilisation du filtre de Gabor.

73
Chapitre IV Analyse & Conception

9 Authentification client :

Fiche
Page Page extraction Page extraction
BD personnel:
authentification iris: caractéristique

1. sélectionne

1. saisir code client

2. charger l’image œil


Segmentation

Normalisation
3. Extraction des caractéristiques

5. vérification
4.Afficher
Vérification

4. Atteint

6.Afficher

Figure IV.4: Digramme de séquence de cas d’utilisation : authentification client.

Description des Scénarios :


1. L’administrateur atteint la page authentification et saisir le code du client a authentifier
2. L’administrateur atteint la page extraction iris et clique sur le lien charger œil, pour introduire
l’image de son œil .le système effectuer la segmentation et la normalisation de l’iris.
3. L’administrateur clique sur le lien extraction caractéristiques.
4. La page extraction caractéristiques sera affichée.
5. Le système compare le code de l’iris à ceux qui présente dans la base de données.
6. Si l’image de l’œil (code de l’iris) est conforme a celle présente dans la base alors le client et
authentifier et la fiche personnel seras afficher.

74
Chapitre IV Analyse & Conception

9 changer login :

Espace Formulaire
Page
administrateur: changé login: BD
confirmation :

1 Atteint

Administrateur

2. saisir login

3. vérification

Modificat

Enregistrer
nouveau
login

4. construit

Afficher

Figure IV.5: diagramme de séquence de cas d’utilisation « changer login »

75
Chapitre IV Analyse & Conception

Description des Scénarios :


1. L’administrateur accède à son interface.
2. L’administrateur sélectionne le formulaire de changer le login et saisit le nouveau
login.
3. Le système modifie le login dans la base de données.
4. Le système affiche un message de confirmation.

9 Identification d’un client :

Espace Identification Page Fiche


BD
administrateur: extraction iris: personnel:

Administrateur
2. Atteint
1. Atteint
3. charger œil
client

Segmentation

Normalisation

Extraction des
caractéristiques
4. vérification

Vérification

5. Atteint

6. Afficher

Figure IV.6: diagramme de séquence de cas d’utilisation « Identification d’un client»

76
Chapitre IV Analyse & Conception

Description des Scénarios :


1. L’administrateur accède à son interface.
2. L’administrateur sélectionne le lien identification.
3. L’administrateur sélectionne le lien pour le chargement l’image d’œil du client.
4. Le système effectuer une vérification entre le modèle biométrique extraire de
l’image de l’œil introduite et les modèles biométriques enregistre dans la base de
données
5. . Si l’identification est réussite alors une page de confirmation sera affichée ainsi la fiche
personnel de la personne.

9 Inscription d’un client (Enrôlement):

Espace Page Inscription: Page


BD
administrateur confirmation :
:

Administrateur

1. atteint

2. sélectionne

3. Ajout les informations


personnelles
charger l’image de
l’œil

Segmentation

Normalisation

Extraction des
caractéristiques

4. enregistrer

Afficher

Figure IV.7 : diagramme de séquence de cas d’utilisation « inscription d’un client »

77
Chapitre IV Analyse & Conception

Description des Scénarios :


1. L’administrateur accède à son interface.
2. L’administrateur sélectionne le lien inscription.
3. Un formulaire seras affichée, ce dernier est remplir par l’administrateur qui contient au plus
des informations relatives au client : un lien pour le chargement de l’image de son œil et sa
photo d’identité.
4. Le système extraire le modèle biométrique de l’image de l’œil en suite ,l’enregistre dans la
base de données ainsi les informations personnelles de client.
5. Un message de confirmation sera affiché.

9 Rechercher une personne :

Espace Formulaire
BD Fiche
administrate recherche:
personnel :

Administrateur

1 Atteint
2. saisir

3. envoyer

Vérification

4. Afficher

Figure IV.8 : Diagramme de séquence du cas d’utilisation « Rechercher une personne »

78
Chapitre IV Analyse & Conception

Description des Scénarios :


1. L’administrateur accède à son espace.
2. L’administrateur clique sur le bouton recherche et saisit un formulaire selon certains
critères.
3. Le système lance une recherche sur la personne.
4. Le système affiche le résultat de la recherche.

3.2.2 Diagramme de collaboration :

Si l’un des diagrammes d’interaction UML utilisé pour illustrer comment les objets
interagissent entre eux en échangeant des messages.

9 extraction des caractéristiques

1.1. lissage
Système app:

Page extraire iris

1.2. Extraire iris

1. Charger l’image de Système app : 1.3. Normalisation


l’œil de client
Espace
administrateur :
Administrateur
1.4. Extraction
caractéristique

Figure IV.9: Diagramme de collaboration du cas d’utilisation « extraction caractéristique »

79
Chapitre IV Analyse & Conception

9 Authentification client :

User validator:

3.2Valider

1. Charge l’image de l’œil


2. Saisir code client
Système app :

User interface
DB :
3. Extraction des
caractéristiques 3.1. La comparaison

Figure IV.10: Diagramme de collaboration du cas d’utilisation


« authentification de client »

9 Identification d’un client :

Système app:

1.3. Normalisation Authentificatio

1. Charger l’image de l’œil


Système app : 1.4. Comparaison

Espace
1.2. Segmentation

2. Vérifier

Validate user :

Fiche personnel

Figure IV.11 : Diagramme de collaboration du cas d’utilisation


« Identification d’un client »

80
Chapitre IV Analyse & Conception

9 Inscription d’un client :

1.1. Saisir les infos personnelles


Système app:

1.3. Normalisation Authentification

1. Charger l’image de
l’œil Système app :
1.4. Calculer le code
Espace de l’iris
1.2. Segmentation

2. Enregistrer 2.1 valider

Validate user :

Figure IV.12 : Diagramme de collaboration du cas d’utilisation « Inscription d’un client »

9 Recherche d’un client :

Système app:
1.1. Choisir le critère de
recherche Rechercher

1. Rechercher personne
2. fiche personnel Système app :

Espace
administrateur :

2.2. Vérifier 2.3. recherche

Système
BD : validator:

Fiche personnel

Figure IV.13: Diagramme de collaboration du cas d’utilisation « recherche d’un client »

81
Chapitre IV Analyse & Conception

3.3 Phase de conception : Définit la structure statique du système sous forme de sous
système classes et interfaces.

3.3.1 Digramme de classe :

Le diagramme de classe a pour objet de mettre en évidence les classes d'un système avec les
relations qui les associent. En se basant sur ce qui précède, une solution conforme aux besoins
exprimés et aux objectifs déjà fixés se résume dans un diagramme composé des classes
suivantes :

9 Changer login :

Client page Formulaire


« Espace Server page
administrateur » «Charger login»
« vérifier/modifier
« input » anicienne « submit login»
login

« Input »nouveau login

« Submit » envoyé
Vérifier ()

Modifier ()

« build»

Client page

« Page confirmation »

Figure IV.14: Diagramme de classe du cas d’utilisation « Changer login »

82
Chapitre IV Analyse & Conception

9 Extraction des caractéristiques :

Server page Server page Server page

« Fenêtre principale » « Authentification» «Charger oeil»

« link

« input » charger oeil « input » img.oiel

« submit » envoyer « Submit » extraction


iris

Filtre de gausse()

Sobel()

Canny()

Hough()

« link

Server page

« Extraction iris»

Server page «Extraction img.iris


des caracterstiques»
centre de l’iris(x,y)
Code_iris « submit»
centre de la pupille(x,y)

Rayon de l’iris

Rayon de la pupille

« Submit » extraction caractéristique

Normalisation ()

Filtre de Gabor ()

Figure IV.15: Diagramme de classe du cas d’utilisation « extraction des caractéristiques »

83
Chapitre IV Analyse & Conception

9 Authentification client :

Server page Formulaire Formulaire

« Fenêtre principale » « Authentification» «Charger l’image de


« link l’œil »
« input » charger
l’image de l’œil « input » img.oeil

« input »code_client « Submit » suivant

« submit » envoyer

« link »

Server page Sever page

« Normalisation» « extarction iris »


« submit »
img.nomalisé Img.segmmenté

« Submit » suivant

Filtre de gabor ()

« submit»
Formulaire
Server page
Server page
«Fiche personnel»
« Vérifier iris»
«Extraction caractéristiques»
Nom
« submit» « build
Code_iris
Prénom

Photo
Vérifier ()

BDD
Figure IV.16 : diagramme de classe « authentification client »

84
Chapitre IV Analyse & Conception

9 Identification d’un client

Server page Formulaire Formulaire

« Espace administrateur» «Identification» «Charger oeil»

« input » charger « link » img.oeil


l’image de l’œil
« Submit » suivant
« submit » envoyer

« link

Server page
Server page
« Normalisation »
« Segmentation»
« link »

img.normalis
img.ségmenté
« Submit » suivant
« Submit » suivant
Filtre de Gabor ()

« submit»
Server page

«Extraction caractéristique» Formulaire

Code_iris «Fiche personnel»

« build Nom

Calculer () Prénom

Verifier() Photo

BD

Figure IV.17: Digramme de classe du cas d’utilisation « Identification d’un client »

85
Chapitre IV Analyse & Conception

9 Rechercher une personne

Client page Formulaire


Server page
« Espace «Recherche»
« Recherche»
administrateur »
« submit»

« input » critère de
recherche

« Submit » envoyé
Rechercher ()

« build»

BD
Client page

« Page confirmation »

Résultat de recherche

Figure IV.18 : Diagramme de classe du cas d’utilisation « Rechercher une personne »

3.3.2 Conception de la base de données :

A. Le Modèle conceptuel(le modèle E/S):

Le modèle conceptuel de données est une représentation statique qui met en Évidence sa
sémantique. Il a pour but d'écrire de façon formelle les données. Il s'agit donc d'une
représentation des données facilement compréhensibles.

86
Chapitre IV Analyse & Conception

Personne
Iris
id_pers
Num_iris
Nom Code_iris
(1.1)
(1.1)
Prénom Posséder

Date_naiss

Adresse

Sex

Photo

Figure IV.19 : le modèle E/A

B. Le modèle relationnel :
Les tables:
L’application dans tous ces cas d’utilisation manipule des données stockées dans la base de
données et elle contient les tables suivantes :
9 La table administrateur :

Nom de champ Type de donnée description clef


Login Varchar(15) Login d’administrateur
Password Varchar(20) Mot de passe
Num_iris entier L’identifiant iris Etrangère

9 La table client :

Nom de champ Type de donnée description Clef


Id_clt Décimal (20,0) CIN Primaire
Nom Varchar(15)
Prénom Varchar(15)
Sexe Varchar(15)
Sit.Fam Varchar(15)
Date_Nais Varchar(10)
Adresse Varchar(50)
Num_iris entier L’identifiant iris Étrangère

87
Chapitre IV Analyse & Conception

9 La table iris :

Nom de champ Type de donnée description clef


Num_iris Varchar(15) Login d’administrateur primaire
Code_iris Tableau entier [] Code_iris

4. Conclusion :

Nous avons présenté dans ce chapitre l’étude conceptuelle du futur système en suivant la
démarche RUP qui s’appuie sur le langage de modélisation UML pour spécifier les cas
d’utilisation, concevoir les diagrammes de séquence et élaborer les diagrammes de classes.
A la fin de ce chapitre, nous avons défini les différentes tables de la base de données avec
leurs relations ainsi que le schéma conceptuel de données.

Dans ce qui va suivre, nous entamerons la phase de réalisation où nous exposerons nos choix
concernant la technologie qui a servi à la réalisation de notre système (environnement de
développement).

88
Chapitre V Réalisation

Chapitre V
1. Introduction :
Après avoir présenté dans les chapitres précédents les différentes étapes nécessaires à la
réalisation de notre système. Dans cette partie, nous mettrons en évidence les raisons de nos
choix techniques (langage de programmation et les outils utilisés). Ensuite, nous allons citer
les principales classes développées et décrire les différentes fenêtres de l’application.

2. Diagramme de déploiement :
Le diagramme de déploiement permet de représenter l’environnement de développement
d’une application. Notre solution se base sur une architecture client/serveur qui compose de
deux niveaux :

Le premier est le niveau applicatif (logique applicative) qui se compose de langage java
implémenté par Netbeans.

Le deuxième niveau, qui fournit au niveau intermédiaire les données dont il a besoin, est pris
en charge dans notre cas par le SGBD Postgre.

SQL Serveur :
PC:
Navigateur Postgere

Figure V.1 : diagramme de déploiement

3. Outils de développement :
Le choix du bon environnement de programmation est très important pour le développement
des projets. Cela se fait suivant plusieurs facteurs: la puissance de compilation, la facilité
d’utilisation, la disponibilité de plusieurs fonctionnalités, la communication avec d’autres
environnements, etc.
89
Chapitre V Réalisation

A fin de réaliser notre système et ses interfaces, Nous avons eu recours aux outils :

3.1 Java :

Java est un langage développé par Sun. L’objectif de Java est d’offrir : un langage permettant
une exécution «standardisée» des programmes sans réécriture ni recompilation, ainsi qu’une
maintenance «simplifiée» des programmes écrits.

3.2 Pourquoi choisir JAVA :


Le choix d’un outil de programmation est une tâche critique sur laquelle repose le bon
déroulement de l'étape de conception. Pour la réalisation de ce projet, nous avons choisi la
plate-forme de développement Java. Ce choix est justifié par le fait que ce langage :
9 utilise le concept orienté objet ;
9 portable sur plusieurs systèmes d’exploitation ;
9 intègre des bibliothèques standard qui simplifient la création des interfaces
graphique.(IJ…ect)
9 En plus de sa portabilité, Java offre d'innombrables paquetages permettant par
exemple de se connecter à une base de données, de communiquer avec un réseau IP,
de réaliser des interfaces graphiques, etc. c’est pourquoi nous avons choisi Java
comme langage de programmation notre application.
3.3 Netbeans:

NetBeans est un environnement de développement intégré (EDI), placé en Open Source par
Sun. En plus de Java, NetBeans permet également de supporter différents autres langages,
comme C, C++, JavaScript, PHP, HTML … Il comprend toutes les caractéristiques d'un IDE
moderne (éditeur en couleur, projets multi-langage, refactoring, éditeur graphique d'interfaces
et de pages Web).
Conçu en Java, NetBeans est disponible sous Windows, Linux, Solaris, Mac OS X ou sous une version
indépendante des systèmes d'exploitation (requérant une machine virtuelle Java). Un environnement
Java Développement Kit (JDK) est requis pour les développements en Java., L’IDE Netbeans
s'enrichit à l'aide de plugins.

90
Chapitre V Réalisation

Figure V.2 : interface de Netbeans

3.4 Image J (IJ):

ImageJ est un logiciel libre de traitement d'images écrit en Java par le National Institute of
Health (NIH).
ImageJ fonctionne selon deux modes:
• en tant qu'applet dans un navigateur web,
• en tant qu'application sur n'importe quelle plate-forme supportant Java.
(On peut le télécharger à partir du site http://rsb.info.nih.gov/ij/download.html)

La première version, NIH-image, écrite en langage Pascal a été développée pour le système
d'exploitation Macinstosh.
• ImageJ est maintenant écrit en Java et est multiplateforme (Mac, Windows, Linux).
• C'est un logiciel du domaine public («disponible gratuitement» ; «domaine public» est
un terme légal qui signifie que le logiciel n’est pas «soumis au copyright»).[1]

91
Chapitre V Réalisation

3.5 Java Advanved Imaging (JAI):

Java Advanced Imaging est une solution de traitement d'images pour Java,
maintenue par SUN (le créateur de Java). La bibliothèque semble assez lourde à
utiliser, mais certains plugins ImageJ sont développés avec.[2]

3.6 Postgres :

3.6.1 Définition :
PostgreSQL est un système de gestion de bases de données relationnelles objet (ORDBMS)
fondé sur POSTGRES, Ce dernier a été développé à l'université de Californie au département
des sciences informatiques de Berkeley. POSTGRES est à l'origine de nombreux concepts qui
ne seront rendus disponibles au sein de systèmes de gestion de bases de données
commercialesque bien plus tard.
PostgreSQL™ est un descendant OpenSource du code original de Berkeley. Il supporte une
grande partie du standard SQL tout en offrant de nombreuses fonctionnalités modernes :
• requêtes complexes
• clés étrangères
• triggers
• vues
• intégrité transactionnelle
• contrôle des versions concurrentes (MVCC ou multiversion concurrency control).
De plus, PostgreSQL™ peut être étendu par l'utilisateur de multiples façons. En ajoutant, par
exemple :

• de nouveaux types de données ;


• de nouvelles fonctions
• de nouveaux opérateurs ;
• de nouvelles fonctions d'agrégat ;
• de nouvelles méthodes d'indexage ;
• de nouveaux langages de procédure.

92
Chapitre V Réalisation

Figure V.3 : interface de PostgreMySQL

4. Présentation des bases d’images:

La reconnaissance par iris a été un sujet de recherche actif de l'Institut d'Automatisation de


l'Académie Chinoise de Sciences (CASIA) [1]. Afin de pallier le manque des images d'iris
pour le test d’algorithmes, la base de données CASIA a été développée. En plus du fait qu’elle
est la plus ancienne, cette base est la plus connue, elle est largement utilisée par la majorité
des chercheurs. Elle présente peu de défauts (images prises sous lumière proche infrarouge,
pas de reflet sur l’image, etc.) et des caractéristiques très proches et homogènes.
CASIA-IrisV3 inclut trois bases nommées CASIA-IrisV3-Interval, CASIA-IrisV3-Lamp et
CASIA-IrisV3-Twins. CASIA-IrisV3 contient un total de 22051 images d'iris prises à partir
de plus de 700 individus. Toutes les images d'iris sont au format JPEG Gray-level 8 bits,
Presque tous les individus sont chinois sauf quelques-uns de la base CASIA-IrisV3-Interval.
[3]

93
Chapitre V Réalisation

Concernant le domaine de reconnaissance par iris, il y a actuellement, six bases de données


publiques d’images d'iris disponibles.

4.1 Base de données BATH :

La base de données des images d’iris de l’université BATH [1] est en constante évolution et à
présent contient plus de 16000 images d'iris prises à partir des deux yeux de 400 personnes. Il
résulte d'un projet qui vise à construire une ressource d’images d'iris de haute qualité. La
majorité de la base de données comprend des images prises d'étudiants et du personnel de
l'Université Bath.
Les images sont de très haute qualité, prises avec un appareil photo professionnel, et montées
sur un appareil d’ajustement de position d’hauteur réglable. [4]

Figure V.4 : Exemples d’images d’iris de la base de données BATH.

4.2 Base de données ICE :

La base de données ICE (The Iris Challenge Evaluation (ICE)) [5] est composée de 2954
images, avec un nombre variable d'images par personne. De la même façon que les bases de
données d'iris publiques restantes, ses images ont été capturées, avec comme préoccupation
principale la qualité des images, celle ci simule clairement la coopération des utilisateurs dans
l'image capturée. En conséquence, les facteurs de bruit que la base de données ICE contient
sont liés presque exclusivement avec les obstructions de la mauvaise position de l’iris par
rapport au capteur. D’autant plus qu’il y a quelques images qui ont délibérément subi des
rotations et d'autres ont été partiellement capturées.

Figure V.5 : Exemples d’images d’iris de la base de données ICE.[5]

94
Chapitre V Réalisation

4.3 Base de données MMU :


The Multimedia University a développé une petite base de données (MMU) [6] composée de
450 images d'iris.

Figure V.6 : Exemples d’images d’iris de la base de données MMU.[6]

4.4 Base de données UPOL :

La base de données d'images d'iris UPOL [7] a été construite au sein de l'Université de
Palacki. Olomuc. La base de données contient 384 images extraites des deux yeux de 64
personnes (trois images par oeil). Comme illustré dans la figure V.4, ses images sont d'une
homogénéité maximale et la segmentation est facilitée. Evidemment, ces caractéristiques font
de cette base de données la moins appropriée pour la recherche biométrique dans le cas non
coopératif.

Figure V.7 : Exemples d’images d’iris de la base de données UPOL.[7]

4.5 Base de données WVU :

The West Virginia University a développé une base de données d'images d'iris (WVU)
composée de 1852 images de 380 yeux différents. Le nombre d’images capturées de chaque
oeil est compris entre trois et six. Les images de la base de données WVU ont été capturées
dans des conditions de prise d'images peu contraignantes, d’où, la mauvaise qualité d’images
comportant des obstructions de l'iris, mauvaise localisation de l’iris dans l’image avec une
position angulaire fermé, quelques unes complètement affectées par le reflet des paupières et
des cils, ce qui leur vaut d’être les images les plus hostiles au processus de reconnaissance.

95
Chapitre V Réalisation

Figure V.8 : Exemples d’images d’iris de la base de données WVU.[8]

4.6 Base de données UBIRIS :

La base de données UBIRIS [6] est composée de 1877 images recueillies à partir de 241
personnes au sein de l’Université de Beira Interior, elle est scindée en deux sessions
distinctes. Sa caractéristique principale est le fait qu’à l’heure actuelle c’est la base de
données publique et gratuite (CASIA et UPOL) la plus large qui existe, elle comporte des
images avec plusieurs facteurs de bruit, permettant ainsi l'évaluation de la robustesse des
méthodes de reconnaissance de l'iris.

Figure V.9 : Exemples d’images d’iris de la base de données UBIRIS. [9]

5. Structure de données et implémentation :


Notre système fait appel à plusieurs classes décrites dans le tableau ci-dessous :

Classes Signification et rôle


Normalisation Permet d’effectuer la transformation polaire
rectangulaire nécessaire à la standardisation
des images en dimensions.
Identification Permet de déterminer l’identité d’un individu
grâce à ses images d’iris.
Vérification Permet de se prononcer sur la véracité d’une
identité présumée.

Tableau VI.1 : Les différentes classes composant notre système

96
Chapitre V Réalisation

Acumulateur : permet de générer des cercles pour les ajouter (Coordonnées et rayons de
l’iris et de la pupille) à l’espace de Hough suivant la transformée de Hough.
Entrées :
• h : tableau de 2 dimensions représentant l’espace de Hough.
• c : coordonnées [x, y] du centre d’un cercle.
• radius : le rayon du cercle.
Sortie :
• h : espace de Hough mis à jour.

canny() : permet la détection des contours de « canny » dans une image.


Entrées :
• im : image à traiter.
• sigma : écart type du filtre Gaussien de lissage (généralement égale à 1).
• scaling : facteur de réduction de l’image en entrée par :
• vert : poids pour les gradients verticaux.
• horz : poids pour les gradients horizontaux.
Sorties :

• gradient : amplitudes des contours de l’image.


• or : orientation de l’image (en degrés de 0 à 180, sens positif des eguilles).

CircleList : prend la carte des contours d’une image et exécute la transformée de Hough pour
la détection des cercles dans une image.
Entrée :
• edgeim : la carte des contours d’une image à traiter.
• rmin, rmax : les valeurs minimales et maximales des rayons des cercles à rechercher.
Sortie :
• h : la transformée de Hough.

97
Chapitre V Réalisation

IrisFinder : retourne les coordonnées d’un cercle dans une image en utilisant la transformée
de Hough et l’algorithme de détection des contours de Canny pour la création de la carte des
contours.
Entrées :
• image : l’image contenant des cercles à repérer.
• lradius : le rayon le plus petit du cercle à rechercher dans l’image.
• uradius : le rayon le plus grand du cercle à rechercher dans l’image.
• sigma : amplitude du lissage Gaussien à appliquer pour la création de la carte des
contours.
• hithres : seuil pour la création de la carte des contours.
• lowthres : seuil pour la connexion des contours.
• vert : indice de contribution du contours vertical (0-1).
• horz : indice de contribution du contours horizontal (0-1).

Sorties :
• circleiris : coordonnées du centre et le rayon des limites de l’iris détecté.
• circlepupil : coordonnées du centre et le rayon des limites de l’iris détecté.

98
Chapitre V Réalisation

UnWrapper :

Exécute la normalisation de la région d’iris en transformant les pixels choisis d’une


représentation circulaire vers une représentation en bloc rectangulaire de dimensions
constantes.
Entrées :

• image : l’image d’iris en entrée dont les informations sur la région d’iris doivent être
extraites.
• x_iris : les abscisses des contours du cercle de l’iris.
• y_iris : les ordonnées des contours du cercle de l’iris.
• r_iris : le rayon du cercle de l’iris.
• x_pupil : les abscisses des contours du cercle de la pupille.
• y_pupil : les ordonnées des contours du cercle de la pupille.
• r_pupil : le rayon du cercle de la pupille.
• eyeimage_filename : le nom initial de l’image de l’oeil en entrée
• unwrWidth: la résolution radiale qui fixe la dimension verticale de la représentation
normalisée.
• unwrHeight : résolution angulaire qui fixe la dimension horizontale de la
représentation normalisée.
Sorties :
• unwrapped: un tableau de 2 dimensions représentant la forme normalisée de l’iris.

99
Chapitre V Réalisation

6. Présentation de l’application :
6.1 Page d’accueil :
Pour accéder à la page d’accueil du notre application, il suffit de saisir le login et le mot de
passe, Dans la page suivante

Figure V.10 : Page d’accueil.


6.2 La page enrôlement :
Cette interface permet à l’administrateur d’inscrire un nouveau client par la saisir d’un
formulaire qui contient les informations relatifs du client, ainsi l’extraction de l’iris du client
et les enregistrer :

Figure V .11: page inscription client


Ensuite clique sur le bouton extraction iris pour extraire l’iris

100
Chapitre V Réalisation

Figure V.12 : interface extraction iris

Pour extraire les caractéristiques cliquer sur le bouton extraction caractéristique ensuite sur
valider pour enregistre le formulaire inscription ainsi le vecteur iris.

Figure V.13 : page enregistrement client

101
Chapitre V Réalisation

6.3 La page identification :

Cette page permet à un administrateur de vérifier l’identité d’un client par la comparaison de
son iris avec tout les iris stoker dans la base de données (comparaison de type 1_N).par
l’utilisation de la distance de hamming :

Figure V.14 : Page identification client


Cliquer sur le bouton extraction de l’iris :

Figure V.15: page extraction iris

102
Chapitre V Réalisation

Cliquer sur valider pour vérifier l’identité :

Figure V.16 : interface de validation de l’identité client

Après la validation la page suivante sera affichée :

Figure V.17 : page confirmation de l’identification (fiche personnelle)

103
Chapitre V Réalisation

On regarde que le système a retourne la distance de haming(calculer entre le code d’iris de


client identifier et les autres codes stoker dans la BD),ici hd=0 ce qui indique que
l’identification est réussite 100% .en plus la fiche personnelle du client seras afficher.
6.4. Page authentification client:
Cette page permet a l’administrateur d’authentifier un client par la saisi de code
d’inscription de ce dernier, le système ensuite compare le code d’iris du client à authentifier
a celui exister dans la BD (comparaison de type 1-1) :

Figure V.18: page saisir code client pour l’authentifier

Figure V.19: Authentification client

Cette page permet à l’administrateur de trouver un client par la saisi de son code :
104
Chapitre V Réalisation

Figure V.20: Page chercher personne

La fiche personnelle sera affichée :

Figure V.21 : interface fiche personnelle client

105
Chapitre V Réalisation

Conclusion :

Dans ce chapitre nous avons, en premier lieu, présenté les différents outils et langages que
nous avons utilisé pour implémenter notre application. Par la suite, nous avons présenté
quelques interfaces de l’application.

106
Conclusion générale
L’objectif de notre travail était la conception et la réalisation d’un système automatique de
reconnaissance par l’iris

Pour mener à terme notre application, nous avons donné un aperçu général sur la biométrie et
plus précisément l’iris ainsi que les méthodes qui permet de détecter l’iris et l’extraction des
caractéristiques de l’iris.

Les critiques du système :


• Interface simple et rapide :
C’est une interface que toute personne ayant peu de connaissances sur la biométrie peut
utiliser. Un autre avantage : la rapidité des opérations d’identification.

• Absence d’un système d’acquisition des images :


Faute de la disponibilité d’un système d’acquisition, les seules données utilisées par le
système proviennent des bases. Cela rend les opérations d’identification et de vérification de
simples simulations.

Les perspectives :
Le fait d’utiliser Java™ comme outil principal de développement a affecté directement les
performances globales du système. Il est impensable de considérer une implémentation en
temps réel sur cette plateforme. Il aurait été particulièrement agréable de voir la différence
avec une implémentation en C++.

Beaucoup de recherches sont encore effectuées aujourd’hui dans ce domaine. Plusieurs


d’entre elles utilisent moins d’étapes (donc moins de temps de calcul) que l’algorithme
présenté. L’intégration de celles ci au projet présenté permettrait sûrement une nette
amélioration de la précision et performance.

107
Annexe A Lexique biométrique

Annexe A

Lexique de la biométrie :

Les deux types d’accès :

• L’accès physique qui désigne tout ce qui est physiquement accessible comme un
bâtiment, une salle de laboratoire, un bureau...
• L'accès logique qui désigne tout ce qui est virtuellement accessible comme un site
internet, un fichier informatique, une application informatique... [anexe]

AFIS : Automated Fingerprint Identification System. Système automatisé de recherche


d’empreintes utilisé principalement pour des applications policières

Authentification :( 1 contre 1) Procédé permettant de vérifier l’identité d’une personne. Il


comprend deux étapes :

1. L’utilisateur fournit un identifiant « Id » au système de reconnaissance (par exemple


un numéro d’utilisateur)
2. L’utilisateur fournit ensuite un échantillon biométrique qui va être comparé à
l’échantillon biométrique correspondant à l’utilisateur « Id » contenu dans la base de
données biométrique du système. Si la comparaison correspond, l’utilisateur est
authentifié

Identification : (1 contre N) Procédé permettant de déterminer l’identité d’une personne. Il ne


comprend qu’une étape :

1. L’utilisateur fournit un échantillon biométrique qui va être comparé à tous les


échantillons biométriques contenus dans la base de données biométriques du système. Si

108
Annexe A Lexique biométrique
l’échantillon correspond à celui d’une personne de la base, on renvoie son numéro
d’utilisateur. Sinon l’identification échoue.

CIP/NIP : Code/Numéro d’Identification Personnel. En anglais PIN « Personnal


Identification Number ». Combinaison de chiffres et/ou de lettres destinés à l’identification
d’une personne. Le CIP est unique ; il ne peut qualifier qu’un seul individu.

Capteur biométrique : Dispositif d’acquisition permettant d’obtenir une représentation


numérique d’un élément du corps humain
Capture : méthode de collecte d’un échantillon biométrique d’un utilisateur

Caractéristique Biométrique : La plupart des systèmes biométriques ne compare pas


directement les données acquises (image, son, etc.). On utilise plutôt différentes méthodes
mathématiques pour extraire une quantité de données moins importante, mais contenant
l’essentiel de l’information permettant de différencier deux individus (par exemple les
minuties dans le cas de l’empreinte digitale). Ces données sont des éléments caractéristiques.

Classification : Ce procédé permet d’affecter une donnée biométrique à une classe donnée.
La classification est utilisée par exemple par certains systèmes de reconnaissance
d’empreintes digitales (avec des classes telles que : boucles, arches ou tourbillons), dans le
but d’accélérer les identifications. En effet, la séparation des données en plusieurs classes
permet de réduire la taille de la base de recherche et donc d’accélérer le processus

Comparaison : Processus d’évaluation de correspondance d’un échantillon biométrique avec


un ou plusieurs modèle(s) de référence précédemment stocké(s)

Donnée biométrique : Information extraite d’un échantillon biométrique et utilisé soit pour
construire un modèle de référence ou pour comparer à des modèles existants

Échantillon biométrique : Représentation sous forme numérique d’un élément du corps


humain. On obtient un échantillon biométrique à l’aide d’un capteur biométrique

109
Annexe A Lexique biométrique
Enrôlement : Étape initiale au cours de laquelle sont capturées les données biométriques qui
serviront de références lors des authentifications ou identifications futures. C’est aussi lors de
cette étape qu’un identifiant est associé aux données biométriques de chaque personne. Un
soin tout particulier doit être apporté à cette première capture, car c’est sa qualité qui
déterminera les performances futures du système

Échec à l’enrôlement : Événement ayant lieu lorsqu’une personne ne réussit pas à s’enrôler.
Ceci inclut les cas où la personne ne peut pas fournir l’échantillon biométrique demandé, les
cas où la qualité de l’échantillon est insuffisante, etc

Taux d’échec à l’enrôlement : Evaluation statistique de la partie de la population ne pouvant


pas être enrôlée sur un système donné. Ce taux dépend de la méthode de capture, du capteur et
de l’algorithme utilisé ainsi que des caractéristiques de la population étudiée

Extraction : Processus de conversion d’un échantillon biométrique capturé en donnée


biométrique pouvant être comparée au modèle de référence

Gabarit : En anglais : Template. Modèle initial créé au cours de l’enrôlement. Modèle


mathématique décrivant certaines caractéristiques physiques ou comportementales d’un
individu. On comparera par la suite les demandes de reconnaissance à ce modèle

Matching (Algorithme de) : Procédé mathématique permettant d’effectuer la comparaison de


deux échantillons biométriques

Moteur biométrique : Ensemble d’algorithmes permettant l’enrôlement, le matching, ainsi


que toutes les étapes intermédiaires du procédé de reconnaissance d’un élément biométrique
(amélioration des images, détermination de la qualité, extraction des caractéristiques
discriminantes, etc)

ROC Curve (Receiver Operating Caracteristics curve) : Dans le cadre biométrique, cette
courbe représente l’évolution du FRR en fonction du FAR. L’étude de cette courbe permet de
déterminer les performances d’un système biométrique

110
Annexe A Lexique biométrique
Fausse Acceptation : Événement ayant lieu lorsqu’un système biométrique accepte une
personne alors qu’elle n’est pas dans sa base d’utilisateurs. Cet événement doit être le plus
rare possible pour assurer la sécurité d’un système biométrique

Faux Rejet : Événement ayant lieu lorsqu’un système biométrique refuse une personne alors
qu’elle est dans sa base d’utilisateurs. Cet événement est souvent dû à une mauvaise
acquisition des données biométriques et est perçu comme une gène par l’utilisateur

TFA - Taux de fausse acceptation : Indique la probabilité qu’un utilisateur inconnu soit
identifié comme étant un utilisateur connu. Ce taux définit la sécurité du système biométrique

TFR - Taux de faux rejet : Indique la probabilité qu’un utilisateur connu soit rejeté par le
système biométrique. Ce taux définit en partie le confort d’utilisation du système biométrique

Seuil de décision : L’acceptation ou rejet d’une donnée biométrique dépend du passage du


score de correspondance au-dessus ou au-dessous du seuil. Ce dernier est ajustable pour
rendre le système biométrique plus ou moins strict, cela dépend des éléments requis par tout
système application biométrique

Seuil de rejet : Score minimum en dessous duquel un algorithme biométrique rejettera une
authentification/identification

Seuil d'acceptation : Score au dessus duquel un algorithme biométrique acceptera une


authentification/identification

Système Biométrique : Dispositif automatisé permettant de :


1. Acquérir des données biométriques
2. Extraire des informations discriminantes à partir de données
3. Comparer ces informations avec celles contenues dans un ou plusieurs gabarits servant
de référence.
4. Décider s’ils correspondent
5. Indiquer à l’utilisateur si l’authentification ou l’identification a réussi ou échoué

111
Annexe A Lexique biométrique
Système multimodal : Système utilisant différents moyens d’authentification (biométriques
ou non) pour vérifier l’identité d’une personne

Temps de réponse : Période temporelle requise par un système biométrique pour retourner
une décision sur l’authentification d’un échantillon biométrique

Utilisateur : Personne interagissant avec un système biométrique pour enregistrer ou faire


vérifier son identité (différent de l’opérateur).

112
Annexe B UML

Annexe B

UML (unified modling language) :

1. Historique :
C’est a la fin de l’année 1994 que lames rembauche et Grady Booch décident de travailler
ensemble a l’élaboration d’une méthode unifier d’analyse et de conception objet.
En 1995, Ivar Jacobson les rejoints en apportant notamment le concept des cas d’utilisation,
les premiers bases d’UML résulte de l’union de trois méthodes OMT (James
rembauche).OOD (grady booch) et OOSE (Ivar Jacobson). [2]

2. Définition :
UML (Unified Modeling Language) est un langage unifié pour la modélisation dans le Cadre
de la conception orienté objet. Il s’agit d’un langage graphique de modélisation objet
Permettant de spécifier, de construire, de visualiser et de décrire les détails d’un système
Logiciel. Il est issu de la fusion de plusieurs méthodes dont « Bootch » et « OMT » et adapté à
La modélisation de tous types de systèmes. Il devint aujourd’hui un standard dans le domaine

D’analyse et de conception orientée objet. [1]

3. Présentation des modèles et diagrammes d’UML :


UML définit plusieurs modèles pour la représentation des systèmes :
• Le modèle des classes : le modèle de classe n’est plus utile c’est un formalisme pour
représenter les concepts.
• Le modèle des cas d’utilisation : le modèle de cas d’utilisation décrit les besoins des
utilisateurs.
• Le modèle des états : le modèle des états permet de représenter la dynamique des
objets.

113
Annexe B UML
• Le modèle d’interaction : il représente de point de vue dynamique l’évolution des
objets au cours de temps.
• Le modèle de réalisation : ce modèle moins important que les autres modèles
d’UML, il montre les unitéss du travail.
• Le modèle de déploiement : il précise la préparation des processus.

Remarque :
Les modèles sont regarder et manipule par les utilisateurs au moyen de vues graphique, a
chaque vue correspondant un ou plusieurs diagrammes. UML définit neuf diagrammes :
¾ Vue statique :
• Les diagrammes de classes
• Les diagrammes D’objet
• Les diagrammes De cas d’utilisation
• Les diagrammes De composants
• Les diagrammes De déploiement
¾ Vue dynamique :
• Les diagrammes de séquence
• Les diagrammes de collaboration
• Le diagramme d’état de transition
• Les diagrammes d’activités

114
Annexe B UML

4. Les diagrammes d’UML :


Un diagramme UML donne a l’utilisateur un moyen de visualiser et manipuler des éléments
de modélisation.UML définit neufs sorte de diagramme pour représenter les différents points
de vue de modélisation.

Figure B.1 : Les diagrammes d’UML

Voici les différents diagrammes :


4.1 Diagramme des cas d'utilisation :
4.1.1 Définition :
Les diagrammes des cas d'utilisation identifient les fonctionnalités fournies par le système
(cas d'utilisation), les utilisateurs qui interagissent avec le système (acteurs), et les interactions
Entre ces derniers. Les cas d'utilisation sont utilisés dans la phase d'analyse pour définir les
Besoins de "haut niveau" du système.
Les objectifs principaux des diagrammes des cas d'utilisation sont:
• fournir une vue de haut-niveau de ce que fait le système.
• Identifier les utilisateurs ("acteurs") du système.
• Déterminer des secteurs nécessitant des interfaces homme-machine.
Les cas d'utilisation se prolongent au delà des diagrammes imagés. En fait, des descriptions
textuelles des cas d'utilisation sont souvent employées pour compléter ces derniers et
représentent leurs fonctionnalités plus en détail.

115
Annexe B UML
4.1.2 Représentation Graphique : Les composants de base des diagrammes des cas
d'utilisation sont l'acteur, le cas d'utilisation, et l'association.
Définition Représentation
Acteur un acteur est un utilisateur du système, et est
représenté par une figure filaire. Le rôle de
l'utilisateur est écrit sous l'icône, Les acteurs ne sont
pas limités aux humains, Si le système communique
avec une autre application, et effectue des
entrées/sorties avec elle, alors cette application peut
également être considérée comme un acteur
Cas un cas d'utilisation représente une fonctionnalité
d'utilisation fournie par le système, typiquement décrite sous la
forme Verbe+objet, Les cas d'utilisation sont
représentés par une ellipse contenant leur nom.
Association les associations sont utilisées pour lier des acteurs
avec des cas d'utilisation. Elles indiquent qu'un
acteur participe au cas d'utilisation sous une forme
quelconque. Les associations sont représentées par
une ligne reliant l'acteur et le cas d'utilisation.
L'image suivante montre comment ces trois
éléments de base collaborent pour former un
diagramme de cas d'utilisation.

4.1.3 Représentation textuelle : Chaque cas d'utilisation, est associé à une série d'actions
représentant la fonctionnalité voulue, ainsi que les stratégies à utiliser dans l'alternative où la
validation échoue, ou des erreurs se produisent, Ces actions peuvent être également définies
dans la description de cas d'utilisation il n'y a donc aucune norme pour représenter ces cas
textuellement. Cependant, il y a quelques règles communes que vous pouvez suivre:

4.1.4 Règles communes de description textuelle des cas d'utilisation:


• Lister deux colonnes comprenant d'une part les actions de l'acteur et d'autre
part les réponses du système.

116
Annexe B UML
• Utiliser un patron identifiant les acteurs, les conditions préalables, les post
conditions, les scénarios principaux de réussite du processus, .etc.
• Rappelez-vous, le but du processus de modélisation est de pouvoir illustrer le
mieux possible.
• les besoins du système, aussi n'hésitez pas à employer toutes les méthodes qui
permettront une meilleurs compréhension des membres du projet.

4.2 Diagramme des Classes :


4.2.1 Définition :
Le diagramme des classes identifie la structure des classe d'un système, y compris les
propriétés et les méthodes de chaque classe. Le diagramme des classes est le diagramme le
plus largement répandu dans les spécifications D’UML.

4.2.2Représentation : Les éléments d'un diagramme des Classes sont les classes et les
relations qui les lient.
Définition Représentation
Classes les classes sont les modules de base de la
Nom_classe
programmation orientée objet. Une classe est
Proprites _de classe
représentée en utilisant un rectangle divisé en trois
()methodes
sections. La section supérieure est le nom de la classe.
La section centrale définit les propriétés de la classe.
Association une association est une relation générique entre deux
classes. Elle est modélisée par une ligne reliant les
deux classes. Cette ligne peut être qualifiée avec le
type de relation, et peut également comporter des
règles de multiplicité (par exemple un à un, un à
plusieurs, plusieurs à plusieurs) pour la relation.
Composition si une classe ne peut pas exister par elle-même, mais
doit être un membre d'une autre classe, alors elle
possède une relation de composition avec la classe
contenant. Une relation de composition est indiquée
par une ligne avec un "diamant" rempli.

117
Annexe B UML
Dépendance quand une classe utilise une autre classe, par exemple
comme membre ou comme paramètre d'une de ces
fonctions, elle "dépend" ainsi de cette classe. Une
relation de dépendance est représentée par une flèche
pointillée.
Agrégation les agrégations indiquent une relation de contenant
contenu. Elle décrite par une relation "possède". Une
relation d'agrégation est représentée par une ligne avec
un "diamant" creux.
Généralisation Une relation de généralisation est indiquée par une
flèche creuse se dirigeant vers la classe "parent ".

4.3 Diagramme des Objets :


4.3.1 Définition :
Les diagrammes des objets modélisent des exemples de classes. Ce type de diagramme est
Employé pour décrire le système à un instant particulier
4.3.2 Représentation : Souvent, le diagramme des objets utilise une notation plus simple que
le diagramme des classes correspondant, se focalisant sur les instances des objets et non sur
les relations entre leurs classes (héritage compris). Beaucoup de diagrammes des objets
représentent seulement les objets et les associations.
Définition Représentation
Objet des objets sont identifiés en plaçant le nom d'instance
suivi des deux points (:) devant le nom de la Objet des
objets sont identifiés en plaçant le nom d'instance suivi
des deux points (:) devant le nom de la classe. Les valeurs
de propriété sont écrites comme des paires " nom=valeur
". L'icône représentant un objet est un rectangle divisé en
sections.
Association le diagramme des objets peut contenir également des
associations. Souvent, les contraintes, le détail des
relations et les règles de multiplicité trouvées dans le
diagramme de classe ne sont pas représentés pour ne se

118
Annexe B UML
concentrer que sur les objets et leurs propriétés. Les
associations entre les objets sont représentées simplement
en utilisant une ligne les joignant.

4.4 Diagramme des composants :


4.4.1 Définition :
Le diagramme des composants est principalement employé pour décrire les dépendances entre
les divers composants logiciels tels que la dépendance entre les fichiers exécutables et les
fichiers source.
4.4.2 Représentation :
Définition Représentation
Composant un composant représente une entité logicielle d'un
système. (Fichier de code source, programmes,
documents, fichiers de ressource .etc.). Un
composant est représenté par une boîte rectangulaire,
avec deux rectangles dépassant du côté gauche.
Dépendance une dépendance est utilisée pour modéliser la relation
entre deux composants. La notation utilisée pour
cette relation de dépendance est une flèche pointillée,
se dirigeant d'un composant donné au composant
dont
Il dépend

4.5 Diagramme des séquences :

4.5.1 Définition :
Les diagrammes des séquences documentent les interactions à mettre en œuvre entre les
Classes pour réaliser un résultat, tel qu'un cas d'utilisation, UML étant conçu pour la
programmation orientée objet, ces communications entre les classes sont reconnues comme
Des messages. Le diagramme des séquences énumère des objets horizontalement, et le temps
Verticalement. Il modélise l'exécution des différents messages en fonction du temps.

119
Annexe B UML
4.5.2 Représentation : Dans un diagramme des séquences, les classes et les acteurs sont
énumérés en colonnes, avec leurs lignes de vie verticales indiquant la durée de vie de l'objet.
Définition Représentation
Objet les objets sont des instances des classes, et sont
rangés horizontalement. La représentation graphique
pour un objet est similaire à une classe (un rectangle)
précédée du nom d'objet (facultatif) et d'un point-
virgule (:) .

Acteur les acteurs peuvent également communiquer avec des


objets, ainsi ils peuvent eux aussi être énumérés en
colonne. Un acteur est modélisé en utilisant le
symbole habituel: Stick man.
Ligne de vie les lignes de vie, LifeLine, identifient l'existence de
l'objet par rapport au temps. La notation utilisée pour
une ligne de vie est une ligne pointillée verticale
partant de l'objet.
Activation les activations, sont modélisées par des boîtes
rectangulaires sur la ligne de vie. Elles indiquent
quand l'objet effectue une action.
Message les messages, modélisés par des flèches horizontales
entre les activations, indiquent les communications
entre les objets.

4.6 Diagramme d'état :


4.6.1 Définition :
Les diagrammes d'état sont utilisés pour documenter les divers modes ("état") qu'une classe
peut prendre, et les événements qui causent une transition d'état.

120
Annexe B UML
4.6.2 Représentation :
Définition Représentation
Etat la notation de l'état décrit le mode de l'entité. Elle est
représentée par rectangle avec les coins arrondie,
contenant le nom de l'état.
Transition une transition décrit le changement de l'état d'un objet,
provoqué par un événement. La notation utilisée pour
représenter une transition est une flèche, avec le nom
d'événement écrit au-dessus, au-dessous, ou à côté.
Etat l'état initial est l'état d'un objet avant toutes transitions.
initial Pour des objets, ceci pourrait être l'état lors de leur
instanciation. L'état initial est représenté par un cercle
plein. Un seul état initial est autorisé sur un diagramme.
Etat final l'état final représente la destruction de l'objet que nous
modélisons. Ces états sont représentés par un cercle plein
entouré d'un cercle.

4.7 Diagramme de collaboration:


4.7.1 Définition :
La collaboration est un mécanisme compose d’éléments structurel et comportementaux. Elle
englobe deux constructions : une description de contexte statique des objets et une interaction
représentée par les messages échanger. [2]
4.7.2 Représentation :
Définition Représentation
Objet les objets, instances des classes, représentent une des
entités impliquées dans les communications. La
représentation graphique pour un objet est similaire à
une classe (un rectangle) précédée du nom d'objet
(facultatif) et d'un point virgule( :) .
Acteur les acteurs peuvent également communiquer avec des
objets, aussi peuvent ils être présents sur des
diagrammes de collaborations. Un acteur est modélisé

121
Annexe B UML
en utilisant le symbole habituel: Stick man.
Message les messages, modélisés par des flèches entre les
objets, sont affectés d'un numéro et indiquent les
communications entre les objets.

4.8 Diagramme d'activité :


4.8.1 Définition :
Les diagrammes d'activité sont utilisés pour documenter le déroulement des opérations dans
un système, du niveau commercial au niveau opérationnel (de haut en bas).
4.8.2 Représentation :
Définition Représentation
Etat l’état d'activité marque une action faite par un objet. Il
d'activité est représenté par un rectangle arrondi.

Transition quand un état d'activité est accompli, le traitement passe


à un autre état
D’activité. Les transitions sont utilisées pour marquer
ce passage. Les transitions sont modélisées par des
flèches.

Couloir Dans un diagramme d'activité, on peut placer les


(Swimlane) activité dans des couloirs (Swimlanes) qui représentent
des systèmes. Les objets sont énumérés au dessus de la
colonne, et les barres verticales séparent les colonnes
pour former les swimlanes.
Etat initial l’état initial marque le point d'entrée la première
activité. Il est représenté, comme dans le diagramme
d'état, par un cercle plein. Il ne peut y avoir qu’un seul
état initial sur un diagramme.
Etat final L’état final marque la fin du déroulement des opérations

Barre de Souvent, certaines activités peuvent être faites en

122
Annexe B UML
Synchronisat parallèle. Pour dédoubler le traitement "Fork", ou le
ion reprendre quand des activités multiples ont été
accomplies ("join"), des barres de synchronisation sont
utilisées. Celles ci sont modélisées par des rectangles
pleins, avec des transitions multiples entrantes ou
sortantes.

5. Conclusion :
UML est un moyen d'exprimer des modèles objet en faisant abstraction de leur
implémentation, c'est-à-dire que le modèle fourni par UML est valable pour n'importe quel
langage de programmation.
Les différents digrammes d’UML permettre de faire une bonne modélisation pour un projet
et une bonne structuration des données.

123
Annexe c Traitement d’image

Annexe c
Traitement d’image :

1. Quelques notions :

1.1 Qu'est-ce que la lumière?

La lumière est une forme d'énergie issue de deux composantes:

• une onde électromagnétique ondulatoire


• un aspect corpusculaire (les photons)

La lumière émise par le soleil se déplace à une vitesse d'environ 300 000 km/s, à une
fréquence d'environ 600 000 GHz.[1]

1.2 Notion de couleur :

La couleur de la lumière est caractérisée par sa fréquence, elle-même conditionnée par la


longueur d'onde et la célérité de l'onde. On caractérise généralement la longueur d'onde d'un
phénomène oscillatoire par la relation:

λ = CT où :

• λ désigne la longueur d'onde


• C désigne la célérité de l'onde
• T désigne la période de l'onde (en secondes)

On appelle rayonnement monochromatique un rayonnement comportant une seule longueur


d'onde et rayonnement polychromatique un rayonnement qui en contient plusieurs.

124
Annexe c Traitement d’image
L'ensemble des longueurs d'ondes composant un rayonnement polychromatique (et leurs
intensités lumineuses respectives) est appelé spectre.

Toutefois l'œil humain n'est pas capable de discerner les différentes composantes d'un
rayonnement et ne perçoit que la résultante, fonction des différentes longueurs d'ondes qui le
composent et de leur intensité lumineuse respective.

Il est possible de décomposer les couleurs spectrales à l'aide d'un prisme en cristal.

L'œil humain est capable de voir des rayonnements dont la longueur d'onde est comprise entre
380 et 780 nanomètres. En dessous de 380 nm se trouvent des rayonnements tels que les
ultraviolets, tandis que les rayons infrarouges ont une longueur d'onde au-dessus de 780 nm.
L'ensemble des longueurs d'ondes visibles par l'œil humain est appelé « spectre visible » :

Il est possible de décomposer les couleurs spectrales à l'aide d'un prisme en cristal.

1.3 Le codage de la couleur :

1.3.1 Les représentations de la couleur :

Afin de pouvoir manipuler correctement des couleurs et échanger des informations


colorimétriques il est nécessaire de disposer de moyens permettant de les catégoriser et de les
choisir. Ainsi, il n'est pas rare d'avoir à choisir la couleur d'un produit avant même que
celui-ci ne soit fabriqué. Dans ce cas, une palette de couleurs est présentée, dans laquelle la
couleur convenant le mieux au besoin est choisie. La plupart du temps le produit (véhicule,
bâtiment, etc.) possède une couleur qui correspond à celle choisie.

En informatique, de la même façon, il est essentiel de disposer d'un moyen de choisir une
couleur parmi toutes celles utilisables. Or la gamme de couleurs possibles est très vaste et la
chaîne de traitement de l'image passe par différents périphériques : par exemple un
numériseur (scanner), puis un logiciel de retouche d'image et enfin une imprimante. Il est
donc nécessaire de pouvoir représenter de façon fiable la couleur afin de s'assurer de la
cohérence entre ces différents périphériques
125
Annexe c Traitement d’image
On appelle ainsi «espace de couleurs» la représentation mathématique d'un ensemble de
couleurs. Il en existe plusieurs, parmi lesquels les plus connus sont :

• Le codage RGB (Rouge, Vert, Bleu, en anglais RGB, Red, Green, Blue).

• Le codage TSL (Teinte, Saturation, Luminance, en anglais HSL, Hue, Saturation,


Luminance).

• Le codage CMYK.

• Le codage CIE.

• Le codage YUV.

• Le codage YIQ.

Le spectre de couleurs qu'un périphérique d'affichage permet d'afficher est appelé gamut ou
espace colorimétrique. Les couleurs n'appartenant pas au gamut sont appelées couleurs hors-
gamme

9 Le codage RGB

Le codage RGB, mis au point en 1931 par la Commission Internationale de l'Eclairage (CIE)
consiste à représenter l'espace des couleurs à partir de trois rayonnements monochromatiques
de couleurs :

• rouge (de longueur d'onde égale à 700,0 nm),

• vert (de longueur d'onde égale à 546,1 nm),

• bleu (de longueur d'onde égale à 435,8 nm).

Cet espace de couleur correspond à la façon dont les couleurs sont généralement codées
informatiquement, ou plus exactement à la manière dont les tubes cathodiques des écrans
d'ordinateurs représentent les couleurs.

Ainsi, le modèle RGB propose de coder sur un octet chaque composante de couleur, ce qui
correspond à 256 intensités de rouge (28), 256 intensités de vert et 256 intensités de bleu,
soient 16777216 possibilités théoriques de couleurs différentes, c'est-à-dire plus que ne peut
en discerner l'œil humain (environ 2 millions). Toutefois, cette valeur n'est que théorique car
elle dépend fortement du matériel d'affichage utilisé.
126
Annexe c Traitement d’image
Etant donné que le codage RGB repose sur trois composantes proposant la même gamme de
valeur, on le représente généralement graphiquement par un cube dont chacun des axes
correspond à une couleur primaire.

1.4 La notion de pixel :

Une image est constituée d'un ensemble de points appelés pixels (pixel est une abréviation de
PICture ELement) Le pixel représente ainsi le plus petit élément constitutif d'une image
numérique. L'ensemble de ces pixels est contenu dans un tableau à deux dimensions
constituant l'image :

Etant donné que l'écran effectue un balayage de gauche à droite et de haut en bas, on désigne
généralement par les coordonnées [0,0] le pixel situé en haut à gauche de l'image, cela signifie
que les axes de l'image sont orientés de la façon suivante:

• L'axe X est orienté de gauche à droite.


• L'axe Y est orienté de haut en bas, contrairement aux notations conventionnelles en
mathématiques, où l'axe Y est orienté vers le haut

127
Annexe c Traitement d’image

1.5 Définition et résolution :

On appelle définition le nombre de points (pixel) constituant l'image, c'est-à-dire sa «


dimension informatique » (le nombre de colonnes de l'image que multiplie son nombre de
lignes). Une image possédant 640 pixels en largeur et 480 en hauteur aura une définition de
640 pixels par 480, notée 640x480.

La résolution, terme souvent confondu avec la "définition", détermine par contre le nombre
de points par unité de surface, exprimé en points par pouce (PPP, en anglais DPI pour Dots
Per Inch); un pouce représentant 2.54 cm. La résolution permet ainsi d'établir le rapport entre
le nombre de pixels d'une image et la taille réelle de sa représentation sur un support
physique. Une résolution de 300 dpi signifie donc 300 colonnes et 300 rangées de pixels sur
un pouce carré ce qui donne donc 90000 pixels sur un pouce carré. La résolution de référence
de 72 dpi nous donne un pixel de 1"/72 (un pouce divisé par 72) soit 0.353mm, correspondant
à un point pica (unité typographique anglo saxonne).

1.6 Le codage de la couleur :

Une image est donc représentée par un tableau à deux dimensions dont chaque case est un
pixel. Pour représenter informatiquement une image, il suffit donc de créer un tableau de
pixels dont chaque case contient une valeur. La valeur stockée dans une case est codée sur un
certain nombre de bits déterminant la couleur ou l'intensité du pixel, on l'appelle profondeur
de codage (parfois profondeur de couleur). Il existe plusieurs standards de codage de la
profondeur :

• bitmap noir et blanc: en stockant un bit dans chaque case, il est possible de définir
deux couleurs (noir ou blanc).
• bitmap 16 couleurs ou 16 niveaux de gris: en stockant 4 bits dans chaque case, il est
possible de définir 24 possibilités d'intensités pour chaque pixel, c'est-à-dire 16
dégradés de gris allant du noir au blanc ou bien 16 couleurs différentes.
• bitmap 256 couleurs ou 256 niveaux de gris: en stockant un octet dans chaque case,
il est possible de définir 28 intensités de pixels, c'est-à-dire 256 dégradés de gris allant
du noir au blanc ou bien 256 couleurs différentes.
• palette de couleurs (colormap): grâce à cette méthode, il est possible de définir une
palette, ou table des couleurs, contenant l'ensemble des couleurs pouvant être
128
Annexe c Traitement d’image
contenues dans l'image, à chacune desquelles est associé un indice. Le nombre de bits
réservé au codage de chaque indice de la palette détermine le nombre de couleurs
pouvant être utilisées. Ainsi en codant les indices sur 8 bits il est possible de définir
256 couleurs utilisables, c'est-à-dire que chaque case du tableau à deux dimensions
représentant l'image va contenir un nombre indiquant l'indice de la couleur à utiliser.
On appelle ainsi image en couleurs indexées une image dont les couleurs sont codées
selon cette technique.
• « Couleurs vraies » (True color) ou « couleurs réelles » : cette représentation permet
de représenter une image en définissant chacune des composantes (RGB, pour rouge,
vert et bleu). Chaque pixel est représenté par un entier comportant les trois
composantes, chacune codée sur un octet, c'est-à-dire au total 24 bits (16 millions de
couleurs). Il est possible de rajouter une quatrième composante permettant d'ajouter
une information de transparence ou de texture, chaque pixel est alors codé sur 32 bits.

1.7 Poids d'une image :

Pour connaître le poids (en octets) d'une image, il est nécessaire de compter le nombre de
pixels que contient l'image, cela revient à calculer le nombre de cases du tableau, soit la
hauteur de celui-ci que multiplie sa largeur. Le poids de l'image est alors égal à son nombre de
pixels que multiplie le poids de chacun de ces éléments.

Voici le calcul pour une image 640x480 en True color :

¾ Nombre de pixels :

640 x 480 = 307200

24 bits / 8 = 3 octets

¾ Le poids de l'image est ainsi égal à :

307200 x 3 = 921600 octets 921600 / 1024 = 900 Ko

Voici quelques exemples (en considérant que l'image n'est pas compressée) :

129
Annexe c Traitement d’image
Définition Noir et blanc 256 couleurs 65000 couleurs True color
de l'image (1 bit) (8 bits) (16 bits) (24 bits)
320x200 7.8 Ko 62.5 Ko 125 Ko 187.5 Ko
640x480 37.5 Ko 300 Ko 600 Ko 900 Ko
800x600 58.6 Ko 468.7 Ko 937.5 Ko 1.4 Mo
1024x768 96 Ko 768 Ko 1.5 Mo 2.3 Mo

Cela met en évidence la quantité de mémoire vidéo que nécessite votre carte graphique en
fonction de la définition de l'écran (nombre de points affichés) et du nombre de couleurs.
L'exemple montre ainsi qu'il faut une carte ayant au minimum 4 Mo de mémoire vidéo afin
d'afficher une résolution de 1024x768 en true color...

1.8 Les type de formats de fichier :

Il existe un grand nombre de formats de fichiers. Parmi les formats de fichiers graphiques
voici les plus utilisés :

Format Dimensions Nombre de couleurs


maximales maximal
BMP 65 536 x 65 536 16 777 216
GIF 65 536 x 65 536 256

IFF 65 536 x 65 536 supérieur à 16 777 216

JPEG 65 536 x 65 536 supérieur à 16 777 216

PCX 65 536 x 65 536 16 777 216

PNG 65 536 x 65 536 supérieur à 16 777 216

TGA 65 536 x 65 536 supérieur à 16 777 216

TIFF/TIF 232-1 supérieur à 16 777 216

130
Annexe c Traitement d’image

2. Traitement d’image :

On désigne par traitement d'images numériques l'ensemble des techniques permettant de


modifier une image numérique dans le but de l'améliorer ou d'en extraire des informations.

2.1 Histogramme :

Un histogramme est un graphique statistique permettant de représenter la distribution des


intensités des pixels d'une image, c'est-à-dire le nombre de pixels pour chaque intensité
lumineuse. Par convention un histogramme représente le niveau d'intensité en abscisse en
allant du plus foncé (à gauche) au plus clair (à droite).

Ainsi, l'histogramme d'une image en 256 niveaux de gris sera représenté par un graphique
possédant 256 valeurs en abscisses, et le nombre de pixels de l'image en ordonnées. Prenons
par exemple l'image suivante composée de niveaux de gris

2.2 Seuillage :

L'opération dite de "seuillage simple" consiste à mettre à zéro tous les pixels ayant un niveau
de gris inférieur à une certaine valeur (appelée seuil, en anglais treshold) et à la valeur
maximale les pixels ayant une valeur supérieure. Ainsi le résultat du seuillage est une image
binaire contenant des pixels noirs et blancs, c'est la raison pour laquelle le terme de
binarisation est parfois employé. Le seuillage permet de mettre en évidence des formes ou des
objets dans une image. Toutefois la difficulté réside dans le choix du seuil à adopter.

Voici une image en 256 niveaux de gris et les résultats d'une opération de seuillage avec les
valeurs respectives de seuil de 125 et 200 :

131
Annexe c Traitement d’image

2.3 Inversion :

L'opération d'inversion consiste, comme son nom l'indique, à inverser les valeurs des pixels
par rapport à la moyenne des valeurs possibles. Le résultat obtenu est appelé négatif

3. Les filtres de traitement d'images :

3.1 Filtrage

Le filtrage consiste à appliquer une transformation (appelée filtre) à tout ou partie d'une image
numérique en appliquant un opérateur. On distingue généralement les types de filtres suivants:

• les filtres passe-bas, consistant à atténuer les composantes de l'image ayant une
fréquence haute (pixels foncés). Ce type de filtrage est généralement utilisé pour
atténuer le bruit de l'image, c'est la raison pour laquelle on parle habituellement de
lissage. Les filtres moyenneurs sont un type de filtres passe-bas dont le principe est de
faire la moyenne des valeurs des pixels avoisinants. Le résultat de ce filtre est une
image plus floue.

• les filtres passe-haut, à l'inverse des passe-bas, atténuent les composantes de basse
fréquence de l'image et permettent notamment d'accentuer les détails et le contraste,
c'est la raison pour laquelle le terme de "filtre d'accentuation" est parfois utilisé.

• les filtres passe-bande permettant d'obtenir la différence entre l'image originale et celle
obtenue par application d'un filtre passe-bas.

• les filtres directionnels appliquant une transformation selon une direction donnée.

132
Annexe c Traitement d’image
On appelle filtrage adaptatif les opérations de filtrage possédant une étape préalable de
sélection des pixels.

3.2 Qu'est-ce qu'un filtre ?

Un filtre est une transformation mathématique (appelée produit de convolution) permettant,


pour chaque pixel de la zone à laquelle il s'applique, de modifier sa valeur en fonction des
valeurs des pixels avoisinants, affectées de coefficients.

Le filtre est représenté par un tableau (matrice), caractérisé par ses dimensions et ses
coefficients, dont le centre correspond au pixel concerné. Les coefficients du tableau
déterminent les propriétés du filtre. Voici un exemple de filtre 3 x 3 :

1 1 1

1 4 1

1 1 1

Ainsi le produit de la matrice image, généralement très grande car représentant l'image initiale
(tableau de pixels) par le filtre donne une matrice correspondant à l'image traitée

3.3 Notion de bruit :

Le bruit caractérise les parasites ou interférences d'un signal, c'est-à-dire les parties du signal
déformées localement. Ainsi le bruit d'une image désigne les pixels de l'image dont l'intensité
est très différente de celles des pixels voisins.

Le bruit peut provenir de différentes causes :

• Environnement lors de l'acquisition

• Qualité du capteur

• Qualité de l'échantillonnage

133
Annexe c Traitement d’image

3.4 Lissage :

On appelle "lissage" (parfois débruitage ou filtre anti-bruit) l'opération de filtrage visant à


éliminer le bruit d'une image.

L'opération de lissage spécifique consistant à atténuer l'effet d'escalier produit par les pixels
en bordure d'une forme géométrique est appelée anti-crénelage (en anglais anti-aliasing).

4 Le traitement des images par les ondelettes :

Les ondelettes peuvent être utilisées à des fins différentes dans le traitement des images. Elles
peuvent permettre de restaurer des images détériorées par le bruit ou suite à une acquisition,
ou encore peuvent permettre de compresser les données.

4.1 La découverte des Ondelettes :

La première utilisation des ondelettes fit apparaître comme des objets mathématiques. Au
même titre qu’un sinus, les ondelettes sont des fonctions. Mais des fonctions très particulières
pourtant, puisqu’elles doivent remplir de nombreuses conditions afin de pouvoir jouer leur
rôle, en quelques sortes, de « sinus amélioré ». Certains noms d’ondelettes reviennent très
souvent comme l’ondelette de Daubechies (b) ou encore l’ondelette de Haar (a) représentées
ci-dessous :

134
Annexe c Traitement d’image

4.2 Les Ondelettes en imagerie :

Appliqué les ondelettes en imagerie c’est le même principe d’appliqué un filtre à une
image, il suffit de multiplier les coefficients de l’ondelette (après l’avoir discrétisée) par la
valeur des pixels de l’image à traiter. On notera que l’ondelette peut alors être représentée
sous la forme d’un tableau (de dimension 1) de valeurs décimales. En réalité il y a 2 tableaux
qui représentent l’ondelette car une ondelette se compose de 2 filtres : un passe-bas et un
passe-haut.
Voici ci-dessous les coefficients de l’ondelette de Haar discrétisé ainsi que ceux de l’ondelette
de Daubechies :
• Ondelette de Haar :
Passe-Bas :
[0.71; 0.71]
Passe-Haut :
[-0.71 ; 0.71]
• Ondelette de Daubechies :
Passe-Bas :
[0.027 ; -0.017 ; -0.078 ; 0.267 ; 0.603 ; 0.267 ; -0.078 ; -0.017 ; 0.027]
Passe-Haut:
[0 ; 0 ; 0.046 ; -0.029 ; -0.296 ; 0.558 ; -0.296 ; -0.029 ; 0.046]

135
Bibliographie chapitre 1 :

[1]:https://www.info.unicaen.fr/M2-RADIS/promo08-09/projets/rapports/rapport
jdespomm.pdf

[2]: http://www.biontic.com/fr/content/10-la-biometrie

[3]: http://Biometrie.online.fr

[4]: http://xtremc.kelio.org/dossier-4-biometriques.html

[5]: http://www.securiteinfo.com/conseils/biometrie.shtml

[6]: http://fr.wikipedia.org/wiki/Empreinte_digitale

[7]: A.K. Jain, R. Arun, P. Salil. An Introduction to Biometric Recognition. IEEE


Transactions on Circuits and Systems for Video Technology, Special Issue on Image- and
Video-Based Biometrics, Vol. 14, No. 1, January 2004.

[8]: P.J. Phillips, H. Hyeonjoon, S. Rizvi, P. Rauss. The FERET Evaluation Methodology for
Face-Recognition Algorithms. IEEE Transactions on Pattern Analysis and Machine
Intelligence, Vo. 22, No. 10, Octobre 2000.

[9] : D.Mahmoudi « «Biométrie et Authentificatio » Rapport technique, suisse 2000.

[10]: M. Indovina, U.Uludag, R.Snelick, A.Mink, A..Jain. "Multimodal Biometric


Authentification Methods : A Cots Approach", Appeared in Workshop on MMUA, December
2003.

[11] : F.Perronnine, J.L. Dugelay. "Introduction à la Biométrie", Revue Traitement du Signal,


Vol.19, No. 4, 2002.
Bibliographie chapitre II :

[1] :
http://www.info.expoprotection.com/?IdNode=1308&Zoom=0e6728f74f9b793a12eb95abc3a
64e9e

[2] :dorzzi ou birn

http://perso.telecom-
paristech.fr/~chollet/Projets/Technolangue/TechnoVision/IV2/Rapports/IV2_Rapport_Evalua
tion.pdf

[3] : http://biometrics.itsudparis.eu/downloads/publications/krichen_PhD.pdf

[4] : http://lunettes.comprendrechoisir.com/comprendre/oeil

[5] : http://tpe-ozarhatorah2011-2012.e-monsite.com/pages/fonctionnement-de-l-oeil.html

[6] :http://www.cours-photophiles.com/index.php/le-traitement-dimage/imagerie-numerique-
.html

[7] : http://www.teteamodeler.com/sante/vue/vue6.asp

[8] : http://ophtasurf.free.fr/loeil.htm

[9] :http://lanouettetech.com/Datasheet/Alarme_Securite_CCTV/Controle_Acces_Biometrie_
index.pdf
[10] :http://hosting.eila.univ-
parisdiderot.fr/~juilliar/termino/cours6_fichiers/Presentation_AudreyRousseau.pdf

[11] : http://www.edu.upmc.fr/sdi/signal-images/biometrie/Biom%E9trie%20IRIS.ppt

[12] : http://www.isep.fr/recherche-academique/projets/113-biometrie
[13] Brevet US 5016282, ATR COMMUNICATION SYSTEMS, 14 Mai 1991.
[14] Brevet WO 98/08439, SENSAR INC., 19 Octobre 1998.
[15] Brevet JP 11047117, OKI ELECTRIC, 23 Février 1999.
[16] Brevet US 5956122, LITTON SYSTEM, 21 Septembre 1999.
[17] Brevet EP 0973122, MEDIA TECHNOLOGY INC., 19 Janvier 2000.
[18] Brevet WO 00/62239, IRITECH INC., 19 Octobre 2000.

[19] :http://documents.irevues.inist.fr/bitstream/handle/2042/2444/03%22Torres+couleur.pdf?
sequence=1

[20] : http://biometrics.it-sudparis.eu/downloads/downloads/dwn4270b559ba791.ppt

[21] : N. Yager and A. Amin, "Fingerprint verification based on minutiae features: a review",
Pattern Analysis and Applications, Vol. 7, No. 1, pp. 94-113, April 2004.

[22]: Kwanghyuk Bae, Seungin Noh, Jaihei Kim, « Iris feature extraction using independent
component analysis », Proc. 4th Intl. Conf. on Audio and Video Based Biometric
Person Authentication (AVBPA 2003), pp. 838-844, 2003.

[23] Vivekanand Dorairaj, Gamal Fahmy, Natalia Schmid, « Performance evaluation of


iris based recognition system implementing pca and ica techniques », Proc. of SPIE
Conf. on Biometric Technology for Human Identification, March 2005.

[24] Richard P. Wildes, « Iris recognition : An emerging biometric technology »,


Proceedings of the IEEE, Vol. 85, N° 9, pp. 1348-1363, September 1997.

[25] Li Ma, Yunhong Wang, Tieniu Tan, « Iris recognition using circular symmetric
filters », Proc. of 16th Intl. Conf. on Pattern Recognition, Vol. 2, pp. 805-808, 2000.

[26] Li Ma, Yunhong Wang, Tieniu Tan, « Personal identification based on iris texture
analysis », IEEE Transactions on Pattern Analysis and Machine Intelligence, Vol. 25,
N° 12, pp. 1519-1533, December 2003.

[27] Vijaya B.V.K. Kumar, C. Xie, J. Thornton, « Iris verification using correlation
filters », Proc. 4th Intl. Conf. on Audio and Video Based Biometric Person
Authentication (AVBPA 2003), pp. 697-705, June 2003.

[28] W.W. Boles, B. Boashash, « A human identification technique using images of the iris
and wavelet transform », IEEE Transactions on Signal Processing, Vol. 46, N° 4, pp.
1185-1188, April 1998.

[29] Li Ma, Tieniu Tan, Yunhong Wang, « Efficient iris recognition by characterizing key
local variations », IEEE Transactions on Image Processing, Vol. 13, N° 6, pp. 739-750,
June 2004.

[30] J. Daugman, « High confidence personal identification by rapid video analysis of iris
texture », Proc. of the IEEE for the International Conference on Security Technology,
1992.

[31] J. Daugman, « High confidence recognition of persons by rapid video analysis of iris
texture », Publication of IEE for Conf. on European Convention on Security and
Detection, 16-18 Mai, 1995.
[32] F. Bouchier, J.S. Ahrens, G. Wells, « Laboratory evaluation of the IrisScan prototype
biometric identifier », Sandia National Laboratories, Albuquerque, NM, Tech. Rep.
SAND’96-1033, 1996.

[33] R.P. Wildes, « A system for automated iris recognition », Proc. of 2nd IEEE Workshop
on Applications of Computer Vision, pp. 121-128, Décembre 1994.

[34] R.P. Wildes, « Iris recognition : an emerging biometric technology », Proc. of the
IEEE, Vol. 85, N° 9, Septembre 1997.

[35] W.W. Boles, « A wavelet transform based technique for the recognition of the human
iris », Proc. of International Symposium on Signal Processing and its Application,
Australia, 25-30 Août 1996.

[36] W.W. Boles, « A security system based on human iris identification using wavelet
transform », Proc. of the 1st International Conf. on Knowledge-based Intelligent
Electronic Systems, Adelaide, Australia, 21-23 Mai 1997.

[37] W.W. Boles, B. Boashash, « A human identification technique using images of the iris
and wavelet transform », IEEE Transactions on signal processing, Vol. 46, N° 4, Avril
1998.
[38] R. Sanchez-Reillo, C. Sanchez –Avila, A. Gonzales-Marcos, « Improving access
control Security using iris identification », Proc. of the Conf. BMES/EMBS, IEEE
Publication, Atlanta, Octobre 1999.

[39] Y. Zhu, T. Tan, Y. Wang, Chinese Patent Application N° 9911025, 1999.

[40] Y. Zhu, T. Tan, Y. Wang, « Biometric personal identification based on iris patterns »,
Proc. of IAPR, International Conf. on Pattern Recognition, Vol. II, pp. 805-808, 2000.

[41] L. Ma, Y. Wang, T. Tan, « Iris recognition using circular symmetric filters », Proc. of
ICPR’02, Québec city, Canada, 11-25 Août 2002.

[42] S.Z. Li, J. Lu, « Face recognition using the nearest geature line method », IEEE
Transactions On Neural Networks, Vol. 10, N° 2, pp. 439-443, Mars 1999.

Bibliographie chapitre III :

[1]: https://portail.info.unicaen.fr/sites/default/files/etu/229/RapportFinal.pdf

[2]:http://ftp-developpez.com/slim-boukettaya/tutoriels/traitement-images
java/traitementimagejava.pdf

[3]: http://pages.videotron.com/jeromesc/files/pd/JPD_RPT.pdf

[4]:www.scribd.com

[5]: http://www.scribd.com/doc/58227634/C17

[6]: http://taima.arts-pi.org.tn/taima2009/articles/taima-reconnaissance-de-l-iris-par-filtrage-
de-gabor-et-deux-variantes.pdf

[7]:http://hvalentin.olympenetwork.com/index.php?option=com_content&view=article&id=8
9%3Airis-partie-3&catid=25&Itemid=81
Bibliographie chapitre IV :

[1] :http://www-clips.imag.fr/geod/User/jean.caelen/transparents_fichiers/RUP-fr.ppt

Bibliographie chapitre V :

[1] : http://ufe.obspm.fr/offreFP/miniMan-IJ.pdf
[2] : http://www.pfl-cepia.inra.fr/uploads/docs/softsImage.pdf

[3] : Institute of Automation, Chinese Academy of Sciences, « CASIA iris image database »,
2004,
http://www.biometricgroup.com/reports

[4] : University of Bath, « University of Bath iris image database », 2004,


http://www.bath.ac.uk/elec-eng/pp./sipg/
[5]: Institute of Automation, Chinese Academy of Sciences, « CASIA iris image database »,
2004,
http://www.biometricgroup.com/reports
[6]: National Institute of Standards and Technology, « Iris challenge evaluation », 2006,
http://iris.nist.gov/ICE/
[7] Multimedia University, « MMU iris image database », 2004,
http://pesona.mmu.edu.my/ccteo
[8] Michal Dobes and Libor Machala, « UPOL iris image database », 2004,
http://phoenix.inf.upol.cz/iris/
[9] A. Ross, S. Crihalmeanu, L. Hornak, S. Schuckers, « A centralized web-enabled
multimodal biometric database », In Proceedings of the 2004 Biometric Consortium
Conference (BCC), U.S.A, September 2004.

Annexes :

Annexe B :

[1] :( Modéliser un site e_commerce : par : Pascal Roques. Editions Eyrolles. Années d’édition
:2002)

[2] :heg 01

Annexe C :

[1] :http://www.cours-photophiles.com/index.php/le-traitement-dimage/imagerie-numerique-.html

Vous aimerez peut-être aussi