Selmane Nadia
Selmane Nadia
PUBLIQU
UE ALGE
ERIENNE
E DEMO
OCRATIQ
QUE ET P
POPULAIIRE
M
Ministère d l’Enseignementt Supérieu
de ur et de laa Rechercche
Scientiffique
U
Universit é Moulou
ud Mamm
meri de Tizi-Ouzou
u
Faculté de
d génie électrique
é et d’informatiquee
Départem
ment Info
ormatiquee
M
Mémoir
re
En vue de l’obtenntion du diplôme
d master deuxx en inform
matique
Thème :
Concepption et
e réaalisatioon d’uun
systtème autom
a matiqu ue de
recoonnaisssancee par l’iris
Mm : F. Oughlis
O
Proomotion
n 2012
Résumé
L’authentification des personnes est une tâche qui suscite un intérêt grandissant dans la
société cybernétique d’aujourd’hui. Le but étant de restreindre les accès aussi bien physiques
que logiques (web sécurisé, accès distant).
Les facteurs d’authentification ont été placés dans trois catégories distinctes, mais qui peuvent
être utilisés de façon disjointe ou bien conjointe : ceux basés sur ce que nous connaissons
(mots de passe), ceux basés sur ce que nous possédons (carte à puce, etc.) et ceux basés sur ce
que nous sommes (Biométrie). La biométrie, par rapports aux deux autres modes, présente des
avantages de confidentialité et de non répudiation. Cependant, son caractère indéterministe
délimite sa fiabilité.
Chapitre II : L’iris………………...………………………………………….25
1. Introduction ……………………………..…………..……………………………………26
2. Historique………………...………...…………..…………………………………...……...27
3. Anatomie de l’œil ………………………..…………………………..………………….....27
4. L’iris………………………………………………………………………………………..30
4.1 Définition ……………………………………………………..…………………30
4.2 Les caractéristiques de l’iris …………………………………………..………...30
4.3 Les avantages et les inconvénients ………………………………….……..……30
5. Conception générale d’un système de reconnaissance par l’iris………………...…………32
5.1 Module d’acquisition ……………………………………..…………………….32
5.2 Module segmentation ……………………………………..……………………..32
5.3 Module normalisation ………………………………………………..………….32
5.4 Module d’extraction du gabarit de l’iris ………………………………...………33
5.5 Module mise en correspondance ………………………………………..………33
6. Fonctionnement d’un système de reconnaissance d’iris ……………………………..……33
6.1 Principe générale ………………………………………………………….……33
6.1.1 Système d’acquisition ……………...……………………………....34
6.1.2 Traitement des données ………………………................................34
6.2 Fonctionnement du système …………………………………………..…………35
6.2.1 La phase d’enrôlement (inscription) ................................................37
6.2.2 La phase d'appariement…………………………………………… 37
6.2.3 Phase d’identification…………………………………………….. ..38
7. Niveau de décision dans une vérification d’iris……………………………………………38
8. Techniques de reconnaissance par iris……………………………………………………..40
9. Quelques méthodes connues de reconnaissance par iris …………………………………..41
9.1 Méthode de John Daugman……………………………………………………..41
9.2 Méthode de Wildes………………………………………………….41
9.3 Méthode de Boles……………………………………………………42
9.4 Méthode de Sanchez-Reillo & Al…………...……………………….42
9.5 Méthode de Y. Wang & Al……………………………………………….43
1. Introduction ……………………………..…………..……………………………………45
2. Structure modulaire du système .…………………………………...……………………...45
2.1 Modules du processus d’apprentissage …………………..……………………...47
2.1.1 Modules d’acquisition des images de l’œil ………………………...47
2.1.2 Modules de prétraitement des images ………………………...........47
2.1.3 Modules de détection des coordonnées de la pupille et de l’iris…… 49
2.1.4 Module de normalisation de l’iris………………………………… ..57
2.1.5 Module d’extraction des caractéristiques …………………………...60
2.2 Modules du processus d’identification …………………..……………………...63
2.1.1 Modules de calcul des distances …………………………...……….63
2.1.2 Modules d’identification ………………………………….………...63
2.3 Modules du processus de vérification ……………………………….…………..63
2.1.2 Modules de prise de décision ………………………………..……...63
3. Conclusion .……………………………………………………………………......……...64
Partie 2 : Mise en œuvre le système :
Chapitre V : Réalisation
1. Introduction ……………………………..…………..……………………………………89
2. Diagramme de déploiement..….…...…………..…………………………………...……...89
3. Outils de développement ..………………….………………………..………………….....90
3.1 JAVA ……………………………………………………..……………………..90
3.2 Pourquoi choisir java ? …………………………………………..……………...90
3.3 Netbeans.. ……………………………………………………..…………………90
3.4 Image J () …………………………………………..…………………………….91
3.5 Java Advanved Imaging (JAI)………………………………..………………….92
3.6 Postgres………………….………………………………..……………………...92
3.6.1 Définition..........................................................................................92
4. Présentation des bases d’images……………………..………………….............................94
4.1 Base de données BATH…………….………………………………..…………...94
4.2 Base de données ICE …………….………………………………..…………….94
4.3 Base de données MMU …………….………………………………..…………..95
4.4 Base de données UPOL ………….………………………………..……………..95
4.5 Base de données WVU …………….………………………………..…………...95
3.6 Base de données UBIRIS ………….………………………………..…………...96
5. Structure de données et implémentation……..…………………………………...…….....96
6. Présentation de l’application ..………………….………………………..……………….100
6.1 Page d’accueil …………….………………………………..…………………...100
6.2 Page enrôlement …………….………………………………..………………...100
6.3 Page d’identification…………….………………………………..…………….101
6.4 Page cherche personne …………….………………………………..………….104
7. Conclusion ..………………….………………………..…………………………………105
Annexes
Figure I.4 Courbe du point d'équivalence des erreurs dans un système biométrique……..…12
Figure I.13 les biométries les plus utilisées en fonction de cout et la pression……………...22
Figure I.14 Parts des technologies utilisées dans le secteur de la biométrie estimé par
l'International Biometric Group ……………………………………………………………...23
Figure III.18 : Illustration du procédé de normalisation de l’image d’un iris après localisation
De l’iris et de la pupille……………………………………………………………………..60
Figure IV.8 : Diagramme de séquence du cas d’utilisation « Rechercher une personne »…..78
Figure IV.12 : Diagramme de collaboration du cas d’utilisation « Inscription d’un client »81
Figure IV.17: Digramme de classe du cas d’utilisation « Identification d’un client »..…….85
Figure IV.18 : Diagramme de classe du cas d’utilisation « Rechercher une personne »….....86
La biométrie est un terme dont on entend de plus en plus parler dans notre vie quotidienne.
Cependant, la biométrie n'est pas vraiment récente. En effet, son apparition remonte au 19ème
siècle. Dès lors, plusieurs modalités biométriques ont été étudiées pour la vérification de
d’identité. De nos jours, les modalités les plus employées comprennent le visage, la voix,
l’empreinte, la signature manuscrite, iris etc.
De nombreux systèmes biométriques sont envisagés dans les futurs systèmes en relation avec
la sécurité. Particulièrement, un déploiement à large échelle des passeports et des cartes
d’identités biométriques pour le contrôle de l’identité est prévu pour les années à venir au
niveau mondial. Des délais sont alors imposés par les gouvernements pour la mise en place de
ces systèmes. Dans notre pays, par exemple, il est prévu de généraliser le passeport
biométrique vers 2015.
1
Organisation des documents :
Pour faire, ce travail se déclinera sous deux aspects, l’un théorique, l’autre applicatif. Il sera
présenté relativement aux chapitres suivants :
• Le Chapitre I : est un tour d’horizon sur la biométrie en général.
• Le Chapitre II : mettra l’accent sur la modalité de l’iris, nous expliquerons ainsi
l’architecture d’un système de vérification par l’iris ainsi que les principales méthodes
d’authentification par l’iris.
• Le chapitre III : La conception algorithmique
• Le chapitre V : Analyse et conception.
• Le chapitre IV : concerne la réalisation de notre système en illustrant la
représentation modulaire du système et les différents outils de développement.
2
Chapitre1 Biométrie
Chapitre I
1. Introduction :
Depuis quelques décennies, l’explosion de l’informatique et des réseaux de communication a
fait augmenter de manière significative le besoin d’identification des personnes. Jusqu’à
présent, les méthodes usuelles d’identification étaient basées sur ce que l’on possède (carte
d’identité, carte à puce, badge magnétique) ou sur ce que l’on sait (mot de passe, code PIN).
Mais ces méthodes posent de gros problèmes de fiabilité (oubli de son code, décryptage du
mot de passe via des logiciels spécifiques, etc). Depuis l’accroissement de la cybercriminalité,
une identification fiable des personnes est devenue un problème majeur pour des raisons de
sécurité (contrôle aux frontières, accès aux données protégées, etc). Tous ces problèmes ont
ainsi provoqué un développement accru des techniques biométriques d’identification comme
en témoigne l'étude des perspectives du marché de la biométrie (Figure I.1) :
3
Chapitre1 Biométrie
2. Définition [1]:
Le mot Biométrie peut revêtir plusieurs significations ;Il désigne généralement l'étude
quantitative des êtres humains, Ce terme trouve ses origines dans le grec ancien : il est
composé de « bios », qui signifie vie, et « metron », la mesure. Lorsqu'il sera fait mention de
biométrie dans la suite de cette présentation, le terme sera utilisé dans un sens plus restrictif :
la biométrie est une science portant sur l'identification des personnes en fonction des
caractéristiques biologiques qui leurs sont propres. Plus précisément, il s'agit de l'étude des
méthodes pour la reconnaissance d'être humains basées sur un ou plusieurs aspects physiques
ou comportementaux uniques à l'individu.
Les méthodes d’authentification biométriques reposent sur deux étapes :
1. la collecte d’un échantillon de référence, appartenant à l’utilisateur,
2. la comparaison d’un échantillon de test à l’échantillon de référence.
La mesure de la correspondance entre les deux échantillons permet de déterminer une
décision d’authentification. Deux modes de fonctionnement existent en authentification
biométrique : l’identification et la vérification.
Il apparait instructif de comparer les mérites et les démérites de la biométrie et des systèmes
bases sur des mots de passe/ des clés cryptographiques. Le tableau I.1 donne un résume de
cette comparaison :
4
Chapitre1 Biométrie
Il peut y avoir plusieurs types de caractéristiques physiques, les unes plus fiables que les
autres, mais toutes doivent être :
3.1.1 Définition :
5
Chapitre1 Biométrie
Apprentissage
Base de données
Capture de la Caractéristique Extraction des paramètres
Référence/Modèles
Adaptation
Vérification
Accepte/Rejette
6
Chapitre1 Biométrie
Il suffit donc de comparer le gabarit avec un seul des modèles présents dans la base de
données.
7
Chapitre1 Biométrie
8
Chapitre1 Biométrie
b. Système de transmission :
Le système de transmission sert à transporter les données entre les différents sous-systèmes du
système biométrique. En particulier il est possible que le sous-système de collecte et le sous-
système de comparaison soient distants l’un de l’autre.
Le système de transmission qui peut être local (interne à un boîtier) ou distant (liaison
Ethernet, réseau ouvert, etc.) doit être clairement identifié afin d’en assurer la protection
contre des écoutes ou des manipulations de données.
Que ce soit dans le processus initial d'enrôlement ou dans celui de capture, il faut que
l'identification et l'authentification soient garanties en termes d'intégrité.
Le premier type de transmission intéresse la partie capteur : généralement cette partie capteur
comprend une partie analogique (empreinte, voix, morphologie signature..) qui est digitalisée
par la suite.
Ces signaux se trouvent généralement très proches du système de numérisation. Le problème
est principalement un problème d'intégrité : cette intégrité est obtenue par un échantillonnage
du signal adéquat. Le cas le plus général est la transmission entre le capteur et la base de
données où se trouve le gabarit de référence.
9
Chapitre1 Biométrie
¾ Via les données d’identification pour accéder à la référence stockée pour une
vérification
¾ Via la comparaison directe du gabarit calculé à la valeur de référence stockée
pour une identification
10
Chapitre1 Biométrie
Dans la tâche de vérification, un utilisateur final doit faire une demande d’authentification de
son identité. Par exemple : il proclame "je suis Mr Enrico", alors le système biométrique doit
déterminer si l'identité proclamée par l'utilisateur est acceptée ou rejetée.
Le test de vérification est alors défini par la fonction (I, XQ), telle que
W1 si S( XQ, Xt)>
(I, XQ)=
W2 sinon
Où w1 indique que la personne proclamée est vraie et w2 qu’elle est un imposteur. Le choix du
seuil de similarité est important car il influe directement sur les performances du système.
Un seuil trop petit entraîne l’apparition d’un grand nombre de faux rejets, tandis qu’un seuil
trop grand engendre un taux important de fausses acceptations. La statistique la plus simple
pour mesurer la performance d’un algorithme dans le contexte de la vérification est de
calculer le point d'équivalence des erreurs (Equal Error Rate - EER). Le point d'équivalence
des erreurs, ou taux d'exactitude croisée, est déterminé par le point d'intersection entre la
courbe du taux de fausses acceptations et la courbe du taux de faux rejets. Un exemple de
courbes d'erreurs croisées est donné à la figure (I.4).
11
Chapitre1 Biométrie
Figure I.4 Courbe du point d'équivalence des erreurs dans un système biométrique.
Soient XQ le vecteur de caractéristiques, pour déterminer l’identité IK, k {1, 2,..,.N, N+1},
12
Chapitre1 Biométrie
où I1,..,IN sont les identités enrôlées, IN+1 une identité rejetée XI k, la signature biométriques
qui correspond à l’identité IK , et le seuil.
Le test d'identification représente la mesure la plus couramment utilisée, mais il n’est pas
toujours suffisant. En effet, en cas d’erreur, il peut être utile de savoir si le bon choix se trouve
parmi les N premières réponses du système. On trace alors la courbe Cumulative Match
Caractéristiques (CMC) qui représente la probabilité que le bon choix se trouve parmi les N
premiers [8].Comme l’illustre la figure I.6.
Les systèmes biométriques sont généralement classés par l'industrie dans deux grandes
catégories : la biométrie morphologique ou physiologique (en anglais : physiological) et la
biométrie comportementale (en anglais : behavioral).
13
Chapitre1 Biométrie
L’empreinte digitale est la caractéristique d'un doigt. Chaque personne a ses propres
empreintes digitales avec l'unicité1 éternelle. Ainsi l’utilisation des empreintes digitales est la
méthode d’identification biométrique la plus utilisée, elle a été développée vers la fin du
19ème siècle par Alphonse Bertillon, fondateur de la police scientifique en France
1
En effet, dès 1892, il a été démontré que l’empreinte digitale est unique pour chaque individu et ne
change pas au cours de la vie.
14
Chapitre1 Biométrie
Comment ca marche ? Un capteur prend une image de la main, un logiciel repère les
coordonnées des points pertinents - le niveau de précision peut aller jusqu’a 80 points -. La
carte des empreintes digitales est gardée en mémoire pour pouvoir être comparée à une autre
carte d’empreinte.
Avantages Inconvénients
Application
15
Chapitre1 Biométrie
Le visage est certainement la caractéristique biométrique que les humains utilisent le plus
naturellement pour s’identifier entre eux, ce qui peut expliquer pourquoi elle est en général
très bien acceptée par les utilisateurs. La reconnaissance à partir du visage se base sur les
caractéristiques jugées significatives comme l’écart entre les yeux, la forme de la bouche, le
tour du visage, la position des oreilles, etc.
Avantage Inconvénient
Application
16
Chapitre1 Biométrie
L’identification biométrique de la main se présente sous deux formes : soit par une empreinte
palmaire, équivalente de l’empreinte digitale mais sur toute la surface de la main, soit par une
image en 3D de la main. La première technique procède de façon similaire à la prise
d’empreintes digitales; pour la deuxième, quelques traits caractéristiques comme la taille et la
largeur des doigts ou l’espace entre les différentes parties de la main sont gardés en mémoire.
Ces deux techniques, bien que focalisées sur la même partie du corps, sont moins
contraignantes que la reconnaissance d’empreintes digitales : la surface numérisée est plus
grande et donc la saleté ou les petites coupures n’empêchent pas l’identification
Avantage Inconvénient
Application
17
Chapitre1 Biométrie
C’est la mesure qui obtient la meilleure précision, les taux d’erreur sont de l’ordre de 10-4.
Notre iris est extrêmement complexe : jusqu’à 244 points de comparaison peuvent être
distingués. Les iris sont uniques et les deux iris d’un même individu sont différents
.L'acquisition de l'iris est effectuée au moyen d'une caméra pour pallier aux mouvements
inévitables de la pupille. La prise de vue est relativement désagréable pour l'utilisateur car
l’œil doit rester grand ouvert. Il est de plus éclairé par une source lumineuse pour assurer un
contraste correct.
La fraude étant néanmoins possible en utilisant des lentilles. De plus, ce système est mal
accepté psychologiquement par l’utilisateur à cause des problèmes d’hygiène et des
contraintes de prise de vue (coopération du sujet).Les Contraintes d'éclairage risquent aussi de
perturber la phase d’acquisition.
4.5 La rétine :
Il existe également une autre possibilité de biométrie par l'œil, en inspectant la rétine. La
rétine, couche sensorielle de l'œil, est parcourue de nombreux vaisseaux sanguins qui
présenteraient une diversité aussi grande que l'empreinte digitale. De plus l'empreinte
rétinienne est peu exposée aux blessures et la position respective des vaisseaux reste
inchangée durant toute la vie de l'individu (sauf en cas de maladies vasculaires). Ainsi une
caméra va examiner le fond de l'œil à l'aide d'un rayon lumineux.
18
Chapitre1 Biométrie
4.6 La voix :
C’est en 1962 que Lawrence Kersta un ingénieur du Bell Laboratories, établit que la voix de
chaque personne est unique et qu’il est possible de la représenter graphiquement. La voix est
constituée de composantes physiologiques et comportementales. Initialement, une table de
référence de la voix d’une personne doit être construite. Pour ce faire, celle-ci doit lire une
série de phrases ou de mots à plusieurs reprises. Plusieurs caractéristiques de la voix sont
alors extraites comme le débit, la force (pitch), la dynamique et la forme des ondes produites.
Un individu ne parle pas toujours de la même manière, ce qui nécessite l’application d’une
méthode permettant d’éliminer certaines de ces variations.
Avantage Inconvénient
Application
19
Chaapitre1 Biométrrie
Chaqque personnne a un stylee d’écriture unique. Onn peut doncc définir, à partir
de laa signaturee d’une perrsonne, un modèle quui pourra être emplo
oyé pour
effecctuer une iddentificationn. De plus, la
l signaturee est utiliséee dans beau
ucoup de
pays comme élémeent juridiquee ou adminiistratif. Ellee permet dee justifier dee la bonne foi
f d’une
personnne ou de la confondre
c d
devant des documents
d signés.
s
¾ Fonctionne
F ement :
20
0
Chapitre1 Biométrie
Trois spécimens de signature sont préalablement enregistrés par le logiciel qui est ensuite
capable d’en reconstituer tout seul les variations. Le tout prend place, en fin de parcours, au
sein d’un serveur qui intègre précieusement chaque tracé dans une énorme base de données,
chargée par la suite de certifier la signature. [4]
Avantage Inconvénient
Application
Les éléments analysés sont : vitesse de frappe, suite de lettre, temps de frappe, pauses...
Avantage Inconvénient
Application
Il existe d’autres méthodes biométriques telles celles basées sur l’A.D.N., l’odeur corporelle,
la forme de l’oreille, la forme des lèvres, la démarche, Les groupes sanguins, Les cheveux et
les poils, la géométrie de l’oreille, etc. Il est important de noter qu’il n’existe aucune
21
Chapitre1 Biométrie
Figure I.13: les biométries les plus utilisées en fonction de cout et la pression [9]
Il est aussi important de noter que la plupart des biométries sur-citées ne sont pas admissibles
en termes de loi. Seule exception faite pour les empreintes digitales qui sont utilisée dans les
milieux juridiques. La signature est aussi légalement acceptable, mais elle se situe loin
derrière les empreintes vus les problèmes engendres par l’oubli et la variabilité
comportementale des individus. Par voie de comparaison nous concluons par le fait que les
empreintes réalisent un compromis intéressant entre précision et coût.
Remarque :
22
Chapitre1 Biométrie
Figure. 1.14: Parts des technologies utilisées dans le secteur de la biométrie estimé par
l'International Biometric Group [1]
2) La multimodalité : La multi modalité est une solution qui permet d’améliorer dans toute
situation la précision et l’efficacité d’un système.
Depuis les dix dernières années, il a été démontré que la multi-modalité est une alternative qui
permet d’améliorer les performances par rapport aux dispositifs ne faisant appel qu’à une
seule modalité. Il existe différentes formes de multi modalité :
4. Instances multiples d'une même mesure : faire une capture répétée du même attribut
biométrique avec le même système d'acquisition.
23
Chapitre1 Biométrie
24
Chapitre1 Biométrie
telles que la reconnaissance de la rétine et de l’iris, elles sont couteuses et en général mal
acceptées par le grand public et ne peuvent donc être réservées qu’a des applications de très
haute sécurité. Pour les autres applications, des techniques telles que la reconnaissance du
visage ou de la voix sont très bien acceptées mais ont des performances encore trop peu
satisfaisantes. La multimodalité peut être vue comme une alternative qui permettrait
d’améliorer de façon systématique la performance de tels systèmes. Il est donc possible de
tirer profit de la complémentarité existante entre les différentes technologies biométriques.
6. Conclusion :
La biométrie est un secteur connaissant un succès croissant au fur et à mesure que les
techniques d’identification par la biométrie évoluent. Le nombre de produits utilisant des
technologies issues de la biométrie sera de plus en plus important.
Dans ce chapitre, nous avons montré c’est quoi la biométrie, d’où elle vient, les différentes
technologies biométriques et les domaines d’applications de ces techniques. Bien que
certaines technologies biométriques sont utilisées depuis plus d’un siècle pour identifier des
individus, d’autres technologies plus innovantes ne sont encore qu’à un stade purement
expérimental.
Et dans le deuxième chapitre on va présenter les techniques biométriques basées sur l’iris.
25
Chapitre II Iris
Chapitre II
1. Introduction :
1
La probabilité de trouver 2 iris suffisamment identiques est 1 sur 10 puissance 72.
26
Chapitre II Iris
2. Historique :
Le mot iris qui veut dire arc en ciel vient d’IRIS, messagère d’Héra et de Zeus,
personnification de l’arc en ciel. « Plutarque », un philosophe grec, suggère quant à lui que le
mot Iris vient de la langue égyptienne et signifie: l'œil du ciel. Quelle que soit son origine,
l’iris désigne la partie colorée de l’œil humain.
L’iris est historiquement utilisé en Iridologie pour diagnostiquer l’état de santé ou la maladie
d’une personne à partir de la couleur ou de la location des tâches de pigment, selon
l’hypothèse étrange que chaque partie du corps est représentée par une zone correspondante
dans l’iris de l’œil. Mais aucun iridologue n’a réussi jusqu’à ce jour d’examen scientifique
prouvant la fiabilité de cette théorie. L’iris est retenu pour la première fois pour des fins
d’identification personnelle par l’ophtalmologiste américain Frank Burch en 1936. En 1986,
les deux ophtalmologistes Aran Safir et Leonard Flom brevètent cette idée (Brevet N°
WO8605018A1), mais il faudra attendre 1991 pour que le professeur John Daugman de
l’Université d’Harvard développe le premier système biométrique d’identification de
personnes basé sur l’iris [3].
3. Anatomie de l’œil :
L'œil est l'organe de la vue qui permet de voir les détails d'un environnement. L'œil est
représenté par un globe oculaire composé de différents éléments.
L'œil est principalement composé de :
27
Chapitre II Iris
• la pupille : orifice de couleur noire par lequel la lumière entre dans l'oeil. La taille de
la pupille est contrôlée par l'iris ;
• la rétine : tissu cellulaire couvrant le fond de l'œil. Cette surface de cellules est
sensible à la lumière et se comporte comme le film d'un appareil photo. On distingue
les cônes, cellules sensibles aux couleurs, aux bâtonnets, cellules sensibles au
contraste de noir et blanc. Les images sont formées sur la rétine avant d'être traitées
par le cerveau.[4]
28
Chapitre II Iris
Grâce à la cornée de l'iris (qui en se fermant permet de doser la quantité de lumière), une
image se forme sur la rétine. Celle-ci est composée de petits bâtonnets (en anglais rods) et de
cônes (en anglais cones).
Ainsi, lorsqu'un type de cône fait défaut, la perception des couleurs est imparfaite, on parle
alors de daltonisme (ou dichromasie. On distingue généralement les personnes présentant
cette anomalie selon le type de cône défectueux :
D'autre part il est à noter que la sensibilité de l'œil humain aux intensités lumineuses relatives
aux trois couleurs primaires est inégales. [6]
29
Chapitre II Iris
4. L’iris :
4.1 Définition :
L'iris est la partie colorée de l'œil [7]. La couleur de l'iris est déterminée par la
présence d'un pigment, la mélanine, le même composé chimique qui donne
aussi leur couleur aux cheveux et à la peau.
L'iris est bleu si la mélanine est peu concentrée, il est plus foncé quand la concentration
augmente. Tous les nouveaux-nés ont les yeux bleus parce que la mélanine est enfouie
profondément dans le tissu de l'iris. Quelques mois plus tard cependant, ce composé peut se
rapprocher de la surface de l'iris et modifier sa teinte [8].
30
Chapitre II Iris
le motif de l’iris n’est pas relié aux gènes, c'est-à-dire à l’ADN (Acide Désoxyribonucléique),
cela signifie que ce n'est pas en fonction des gènes du père et de la mère que le motif de l'iris
est formé contrairement à la couleur des yeux. Donc deux individus, même s’ils sont parents,
peuvent avoir la même couleur mais jamais le même motif. Par ailleurs, les vrais jumeaux non
plus ne sont pas confondus, il y a assez de caractéristiques dans l'iris pour que l'on puisse les
distinguer. L'organe iridien est relativement à l’abri des lésions. S’agissant d’un tissu interne,
l’iris est protégé par la cornée et l’humeur aqueuse. Étant donné que ces deux barrières sont
transparentes, l’iris peut être facilement identifié à plus d’un mètre. On peut donc facilement
photographier l'iris, qui n'est pas pourtant exposé à d'éventuels dommages.
Cependant comme l'iris occupe une petite surface, le matériel utilisé actuellement pour
l'observer ne permet pas une étude précise au niveau des éléments du motif : on a seulement
les contours macroscopiques. Ce problème reste temporaire car la précision des capteurs
augmente de plus en plus et l’iris est suffisamment varié pour qu’il ne soit pas indispensable
de recueillir toutes les informations qu’il contient. [9]
• Visible à distance
31
Chapitre II Iris
¾ Inconvénients :
• Cible mouvante
5.1 Module d’acquisition : L’iris sera capturé et stocké sous forme d’image.
5.2 Module segmentation : L’image de l’œil qui est acquise ne comporte pas
uniquement l’information de l’iris. Il est alors nécessaire de segmenter et isoler cette
information du reste de l’image. Ce qui revient à isoler l’iris du blanc de l’œil et des
paupières, ainsi qu’à détecter la pupille à l’intérieur du disque de l’iris. Généralement, l’iris et
la pupille sont approximés par des cercles et les paupières par des ellipses.
5.3 Module normalisation : L’iris est un disque percé à l’intérieur par un autre disque
plus petit, la pupille. Les deux cercles que constituent les frontières de l’iris avec le blanc de
l’œil, ainsi que les frontières de la pupille avec l’iris ne sont pas parfaitement concentriques.
De plus, avec les contractions et les dilatations de l’iris ainsi que la variation des distances
d’acquisition entre les personnes et l’objectif, la taille du disque de l’iris n’est pas toujours
constante. (La normalisation permet de transformer le disque irrégulier de l’iris en une image
rectangulaire de taille constante).
32
Chapitre II Iris
Figure II.5 : Conception d’un système biométrique basé sur l’iris [12]
Figure III.6 : Schéma général d’un système de reconnaissance par iris. [10]
33
Chapitre II Iris
Le terminal biométrique (1) qui permet la saisie des images d’iris a fait l’objet de nombreux
développements et recherches [13] [14] [15] [16] [17] [18]. La partie algorithmique de
traitement des données (2) est constituée des processus suivants :
D’enrôlement (2.1) par lequel l’identité d’une personne et son image biométrique (image de
l’iris) sont utilisées pour constituer une base de données (2.3), de matching (2.2) qui quantifie
la ressemblance entre deux gabarits (signatures numériques dont l’une provient de la base de
données et l’autre créée au cours de l’enrôlement présent).
34
Chapitre II Iris
35
Chapitre II Iris
Enrôlement
Enregistrement
Capture
Extraction des des données dans
d’image d’iris
caractéristiques BDD
d’un utilisateur
36
Chappitre II Iris
Lors dee l'acquisitioon de l'iris, l'image obbtenue contiient souvennt beaucoupp de parasittes ayant
des origgines diverses :
• L
L'environne
ement où see produit l'aacquisition (la
( distance entre la perrsonne et lee capteur
d l’iris).
de
• L présencee de mascarra.
La
• L
L'orientatio
on de l’œil lors
l de l'acqquisition.
• L personnee peut mettrre des lunetttes ou des lentilles.
La l
• L différeentes capturres utiliséess durant l’aacquisition de l’imagee (Utilisatio
Les on d’une
c
caméra infrrarouge ou bien
b d’une caméra
c trad
ditionnelle) .
Pour peermettre unee reconnaissance fiablee, un prétraaitement estt alors néceessaire pourr extraire
mation utile de l’image permettant d’éliminer de possiblees fausses innformations.
l’inform
37
7
Chapitre II Iris
La phase d'appariement est l'étape critique du système. Elle reçoit en entrée deux signatures
issues de deux acquisitions différentes de l’iris et renvoie en sortie un résultat binaire
indiquant si oui ou non les deux signatures proviennent du même iris. Bien entendu deux iris
provenant de la même personne ne seront jamais identiques en raisons (sont décrits dans le
paragraphe 6.2.1). Ceci est caractéristique des systèmes biométriques. La phase d'appariement
va donc calculer le degré de similarité (taux d'appariement) entre les deux signatures et
décider si elles peuvent être considérées identiques en fonction d'une valeur seuil.
38
Chapitre II Iris
Les différentes applications peuvent avoir de différentes restrictions sur ces taux d’erreurs
TFA et TFR, qui sont réunis dans une courbe réceptrice de caractéristiques de fonctionnement
ROC (Receiver Operating Charcteristics) elle trace le TFR contre TFA dans différents seuils
de décision.
Remarque : TEE Taux d’Erreur Egal => TFR = TFA, sur le graphe c’est l’intersection de la
première bissectrice avec la courbe. Il est fréquemment utilisé pour donner un aperçu de la
performance d’un système.
Le seuil S doit donc être ajusté en fonction de l’application ciblé : haute sécurité, basse
sécurité ou compromis entre les deux.
39
Chapitre II Iris
Nous avons classifié les systèmes de reconnaissance par iris en trois catégories selon la
technique par laquelle les caractéristiques sont extraites de la texture de l’iris pour des buts de
comparaisons. Ces trois catégories sont : les techniques basées sur l’apparence, les techniques
basées sur la texture et les techniques basées sur l’extraction des caractéristiques.
• Les techniques basées sur l’apparence [22] [23] font usage d’approches statistiques
classiques telles que l’analyse en composantes principales (ACP) ou l’analyse en
composantes indépendantes (ACI) pour représenter les images d’iris.
• Les techniques basées sur la texture [24] [25] [26] [27] [28] font quant à elles usage de
filtres pour le traitement des images et l’extraction de quelques propriétés des images
filtrées afin de quantifier les images d’iris données.
• Les techniques basées sur l’extraction des caractéristiques [29] font usage des
caractéristiques locales présentes dans l’image (blocs ou taches) et enregistrent leurs
localisations et caractéristiques (propriétés) pour distinguer les différentes images. Les
différentes approches de reconnaissance par iris sont détaillées ci-dessous.
40
Chapitre II Iris
41
Chapitre II Iris
conserve une seule valeur via la médiane : le score est donc représenté par une série de 4
indices de similitudes.
La décision finale est prise par un classificateur du type discriminant linéaire de Fisher. La
vérification d’un individu prend approximativement 10 secondes [34] sur SUN Sparc-Station
20, avec un code C non-optimisé. Le test du système proposé par R.P.Wildes n’a produit
aucune erreur de faux rejet ou de fausse acceptation sur une base de données comprenant 60
iris de 40 personnes.
42
Chapitre II Iris
yeux), l’étude de Sanchez-Reillo & Al. montre que leur système atteint un EER de 3.6% pour
une taille de code d’iris de 1860 bits.
43
Chapitre II Iris
10. Conclusion :
La biométrie par l’iris est la technologie la plus fiable à travers le monde. Et on voit fleurir
des solutions de plus en plus abordables et performantes.
Les informations stockées ne sont jamais les images d’origines de l’iris mais un modèle
mathématique des éléments qui distinguent l’échantillon biométrique d’un autre. Ce modèle
est appelé un " gabarit " ou " signature ". De cette manière, on obtient alors des fichiers de très
petite taille.
44
Chapitre3 La conception algorithmique
Chapitre III
1. Introduction :
La conception d’un système biométrique peut être projetée sur deux niveaux différents : la
conception du système et la conception des algorithmes implantés sur le système. La plupart
des difficultés recensées lors de la conception du système sont en relation avec le choix de la
biométrie la plus adaptée à l’environnement concerné, l’architecture générale du système, le
port de l’information biométrique (base de données ou carte a puce ?), Ayant les
spécifications du système et les exigences expérimentales, les taches principales lors de la
conception des algorithmes sont : (i) l’extraction des caractéristiques et (ii) l’appariement.
45
Chapitre3 La conception algorithmique
L’image capturée d’un œil n’est pas exploitable telle quelle, un des buts de cette étape est de
l’améliorer afin qu’on puisse plus facilement détecter les points qui nous intéressent.
A. Lissage :
¾ Le filtre de convolution médiane (moyenneur) :
Après que l’image soit capturée, la première étape de pré-traitement consiste à réduire le bruit
occasionné par le capteur et à toute l’électronique de transfert. Pour ce faire, on appliquera un
filtre moyenneur sur l’image. L’application d’un tel filtre entraînera malheureusement
l’altération des contours de l’image. [1]
Le filtre moyenneur est un filtre passe-bas. Un filtre passe bas à la propriété de laisser passer
les fréquences spatiales faibles, mais supprime les fréquences hautes. L’analogie la plus
simple à faire pour ce type de filtre est la diminution du niveau des hautes fréquences sur une
chaîne stéréo. On peut aussi constater que les filtres passe-bas possèdent des noyaux de
convolution dont tous les coefficients sont positifs.
Son application réside à l’attribution, au pixel d’intérêt, d’une valeur moyenne en considérant
le voisinage du pixel. La valeur de gris d’un pixel est modifiée en tenant compte des valeurs
de gris des pixels voisins.
Cela est obtenu en appliquant une matrice de calcul appelée noyau de convolution qui définit
le nombre de voisins concernés et la pondération à appliquer sur leur valeur de gris.
46
Chapitre3 La conception algorithmique
La figure III.3 illustre un filtre moyenneur simple de noyau de convolution 3x3 qui implique
les 8 voisins immédiats d’un pixel d’intérêt et permet d’affecter au pixel concerné le
neuvième de la somme des valeurs de gris de lui-même ainsi que de ses voisins. [2]
L’échelle spatiale, ou la résolution à laquelle une image peut être observée, dépend du
paramètre Y. La convolution du noyau gaussien de résolution Y sur une image I peut être
obtenue de la façon suivante.
sigma
(radius)=3.0
Est un algorithme utilisé pour le traitement d’image dans le but de détecter les contours. C’est
une matrice de convolution 3x3 dont la formule est :
Puis ensuite :
Formule III.5: Le filtre de sobel
49
Chapitre3 La conception algorithmique
On constate bien que les contours sont bien détectes, mais dans ce cas quels contours revoie à
l’iris et quels renvoie à la pupille ? Et pour répondre à cette question on va appliquer le filtre
de canny qu’on va le décrire ci-dessous:
La direction des gradients est obtenue en calculant l’arc tangente entre la matrice des points
atteints par la convolution du filtre de Sobel en Y ainsi que la matrice des points touchés par
le filtre de Sobel en X. Il est important de garder le résultat des convolutions dans une matrice
afin de s’assurer de conserver la possible négativité des opérations.
arctan Si (Gx et Gy 0)
Remarque :
Si Gx =0 ou Gy=0 :
Si Gx =0 alors /2
Si Gy =0 alors 2
50
Chapitre3 La conception algorithmique
1.0 /5.0
a= 1.0f/9.0f
f=Floue
En entrée on a l’image obtenue par le filtre de sobel ,
En sortie une image convole par le filtre de Gausse passe-bas
51
Chapitre3 La conception algorithmique
On trace une droite dans l’accumulateur en fonction des points de contours de l’image de
Canny tel qu’elle est exposé dans la figure III.8. [3]
Tracer une droite dans un accumulateur revient à incrémenter chaque cellule d’une matrice de
un aux endroits où elle passe.
52
Chapitre3 La conception algorithmique
1
Source : http://www.vieartificielle.com/article/index.php?action=article&id=188
53
Chapitre3 La conception algorithmique
4. Seuillage :
L’application d’un seuil permet de se désencombrer de toutes les informations superflues qui
engorgent notre accumulateur. Ainsi, pour une valeur de seuil donnée, tous les pixels ayant
une valeur inférieure seront mis à zéro pour préserver uniquement l’information d’intérêt, soit
les centres potentiels. L’application d’un tel seuil a été automatisée de façon à la fixer à la
moitié de la valeur maximale d’une cellule dans l’accumulateur. [3]
Ainsi, à partir de l’accumulateur, l’application d’un seuil aura pour effet de conserver
uniquement les cellules comportant des valeurs maximales, telles qu’elles indiqué par la
figure III.12.
54
Chapitre3 La conception algorithmique
La dernière étape repose sur les coordonnées des centres potentiels identifiés dans
l’accumulateur ainsi que les contours localisés par l’application du filtre de Canny. Pour ce
faire, l’utilisation des transformées de Hough2 a été jumelée avec les informations dont nous
disposions sur les coordonnées des centres potentiels.
La transformée de Hough s’appuie sur un principe d’accumulateurs, analogue à l’étape de
détection des centres potentiels des cercles. Pour un cercle de rayon inconnu, l’utilisation
d’accumulateurs en trois dimensions sera de mise. Les deux premières dimensions expriment
les coordonnées du cercle tandis que la troisième lie ces coordonnées à un rayon r.
La figure III.13 nous donne un exemple.
2
La transformée de Hough est une technique de reconnaissance de formes inventée en 1962 par Paul
Hough. Cette technique nous permet de reconnaître les lignes (droite), les cercles ou n'importe quelle
forme présente dans une image. http://www2.ifi.auf.org/rapports/stages-promo12/stage-phan_viet_anh.pdf
55
Chapitre3 La conception algorithmique
Une fois nos accumulateurs de Hough initialisés, à partir de l’image de contours de Canny,
on trace littéralement des cercles dans un des accumulateurs en faisant le centre du cercle
avec les coordonnées du pixel de contour pour un rayon donné. Afin de tracer les cercles le
plus efficacement possible dans l’accumulateur de Hough.
Comme on peut l’observer dans la figure III.14, plusieurs cercles sont tracés (dans un
accumulateur de rayon r) en suivant les contours (cercle gris foncé) de l’image de Canny. Une
fois tous les cercles tracés dans les accumulateurs, on réalise que les cellules qui contiennent
des valeurs maximales, sont des centres potentiels.
56
Chapitre3 La conception algorithmique
visage qui arbore les yeux du sujet. Afin de localiser le mieux possible les iris et pupilles du
sujet.
Pour chacune de ces parties, on applique un seuil permettant de conserver uniquement les
coordonnées et rayons de centres potentiels de cercle et on s’assure en même temps qu’ils font
parti de l’accumulateur de cercles potentiels identifiés à une étape antérieure.
En terminant, on fait la moyenne des positions et des rayons des cercles restants et on
identifie, à gauche et à droite, les cercles entourant les iris et pupilles. On isole les cercles les
plus petits qui s’avèrent être les pupilles.
57
Chapitre3 La conception algorithmique
Avec
Où I(x,y )est la région de l’image d’iris, (x ,y)sont les coordonnées cartésiennes initiales,( , )
sont leurs coordonnées polaires correspondantes dans l’image normalisée ,xp ,yp et xi ,yi sont
les coordonnées des contours de la pupille et de l’iris respectivement le long de la direction .
’
Où le déplacement du centre de la pupille par rapport au centre de l’iris est donné par ox ,oy ,r
la distance entre le contour de la pupille et celui de l’iris dans une certaine direction autour
de la région d’iris et le rayon de l’iris.
Ci =OY
Cp=Ox
58
Chapitre3 La conception algorithmique
Ci : centre iris
Cp : centre pupille
P1 et P2 : des points de la pupille
P3 et P4 : des points de l'iris
Le principe est consiste à créer pour chaque point de la pupille (P1), un point de l'iris (P3)
correspondant. Il suffit ensuite d'extraire tous les points qui sont sur la ligne formée par ces
deux points et de les recopier non pas sur une ligne mais sur une colonne de l'image cible.
Donc en sortie on obtient la matrice suivante :
1
3 4
59
Chapitre3 La conception algorithmique
Figure III.18 : Illustration du procédé de normalisation de l’image d’un iris après localisation
De l’iris et de la pupille.
Plusieurs approches sont susceptibles d’être utilisées dont celle basée sur la texture, qui
consiste en une quantification statistique de l’information texturale présente dans la zone
d’intérêt. Les critères statistiques calculés constitueront une identité statistique pour chaque
image d’iris. L’intérêt d’une telle approche est d’arriver à substituer l’image de l’iris
normalisée par un vecteur dont les valeurs caractérisent d’une manière plus ou moins précise
l’agencement des différents pixels de l’image d’iris, l’avantage est donc d’arriver à
compresser les valeurs de pixels de l’image, et à ne manipuler qu’un maximum de 10% de
l’ensemble de départ, et ce dans un but de discrimination entre individus.
Les étapes de calcul de ce vecteur sont différentes selon la méthode d’analyse que l’on
choisit, la première est celle de l’analyse statistique directe, c'est-à-dire une analyse opérant
directement sur l’ensemble des pixels représentant l’image normalisée de l’iris. Cette méthode
prend en considération tous les détails d’une image d’iris normalisée, y compris l’information
inutile pour un problème tel que la discrimination, d’où la nécessité d’analyse approfondie.
La deuxième méthode découle naturellement de l’inconvénient de la première méthode : le
filtrage de l’image normalisée. Ce traitement permettra de ne garder que l’information
essentielle pour la discrimination. C’est pour cela qu’on utilisé la deuxième méthode qui est
nommée le filtre de Gabor (Gabor Wavelets).
60
Chapitre3 La conception algorithmique
9 Filtre de gabor2D :
J. Daugman, le Père de l'iriscode a trouvé un algorithme adapté à l'extraction des
caractéristiques de l'iris. Cet algorithme se nomme le filtre de Gabor a pour but de mettre en
valeur les zones intéressantes de l’iris normalise.
• Les paramètres de filtre de Gabor :
Ce filtre est constitué de plusieurs composants ainsi ce filtre fait parti de la famille des
ondelettes. Une ondelette est une courbe ayant plusieurs propriétés et formes bien spécifiques.
Elles sont souvent utilisées dans le domaine audio afin de caractériser des fréquences / sons,
mais elles sont aussi usitées en imagerie.
La formule de Gabor peut se définir comme suit : [6]
Cette fonction que nous avons implémentée possède cinq paramètres qui sont :
• λ: représente la longueur d'onde En modifiant cette variable, on joue sur la taille de
notre filtre.
.
λ:5 λ:10 λ:15
• θ représente l'orientation
En modifiant cette variable on va changer la direction du filtre.
61
Chapitre3 La conception algorithmique
Pour extraire les caractéristiques de l’iris, nous allons donc jouer sur ces paramètres et
appliquer une convolution par ce filtre (filtre de gabor), La réponse impulsionnelle d’un filtre
de Gabor est complexe (Pour rappel, un nombre complexe est composé d'une partie réelle et
d'une partie imaginaire) qu’il serait judicieux d’exploiter en s’intéressant à la phase des
coefficients de l’image filtrée. C’est cette idée qui a été proposée par Daugman, nous allons
coder la phase des coefficients complexes de l’image filtrée. Le cercle trigonométrique est
divisé en quatre quarts auxquels sont affectés les codes binaires 00, 01,10 et 11. En fait, cette
opération revient à coder les signes de la partie réelle et de la partie imaginaire des
coefficients de Gabor obtenus. Cette opération est appliquée sur plusieurs points d’analyse
situés sur 9 cercles équidistants autour de la pupille, suivant plusieurs résolutions et
orientations des filtres de Gabor. Ceci fournit un vecteur de signature composée de 2240 bits.
En plus de ce code, chaque iris admet un code masque qui indique, pour chaque bit, s’il faut
ou non le prendre en considération. Les bits ignorés proviennent généralement des points
d’analyse couverts par les paupières et les cils.
62
Chapitre3 La conception algorithmique
• codeA et codeB : sont deux codes calculés à partir de deux images d’iris par le
procédé précédemment décrit
• maskA et maskB : représentent leurs masques associés.
63
Chapitre3 La conception algorithmique
3. Conclusion:
Pour l’instant nous avons défini tous les concepts de base utiles dans le domaine
d’authentification et identification biométrique basé sur la modalité de l’iris. Ces concepts
nous aiderons durant l’analyse et la conception ainsi que la réalisation de notre système.
64
Chapitre IV Analyse & Conception
Chapitre IV
1. Introduction :
Après avoir abordé dans les chapitres précédents les différents concepts nécessaires à
l’accomplissement de notre travail, nous passons a présent à la partie conception du système.
Pour une meilleure organisation et une bonne maitrise d’un projet informatique, il est
important de suivre une méthodologie rigoureuse, nous avons choisi comme langage de
modélisation UML (Unified Modeling Language), en raison de son formalisme relativement
simple. Le but de la conceptualisation est de comprendre et de structurer les besoins. UML est
un bon langage qui permet une meilleure compréhension du système et qui désigne l’interface
entre les différents acteurs d’un projet commun.
Rational Unified Process (RUP) Fonde en 1999 par la société IBM Rational Software, RUP
(Rational Unified Process) est un processus de conception/développement de logiciel qui se
base sur le langage UML et qui comprend quatre phases que l’on décrit ci dessous :
65
Chapitre IV Analyse & Conception
• l'étendue du projet c’est t-a dire Poser le problème : Quel est le système dont
l'utilisateur a besoin ?
• Identifier les acteurs : utilisateurs, gestionnaires du système, plates-formes, interfaces
avec autres applications
• Identifier les cas d'utilisations : Préciser les cas d'utilisation les plus importants, en
Fonction du risque, sous forme de scénarios (itération sur les scénarios
2.2.3 Phase conception : La conception a pour but de définir l'architecture du système par :
• Une Vue Logique : Contient une collection de conteneur, classes et associations Créée
lors de la phase d'analyse et raffinée lors de la phase de développement (diagramme de
classe.
66
Chapitre IV Analyse & Conception
Remarques :
• RUP est L’ensemble des activités de modélisation du système développé s’appuie sur
UML.
• Dans la démarche RUP :
9 Les objets (et donc leur classes), comme les méthodes, sont découverts en
documentant les scénarios
9 C'est une démarche guidée par les scénarios.
• Nous avons vu qu’une méthode (de type Unified Process UP) qui s’appuie sur UML,
permettait d’avoir une démarche d’analyse et de conception qui nous amène de
manière continue du problème du client, vers le système qu’il désire.[1]
L’étape d’initialisation commence par l’étude des cas d’utilisation et de leurs scénarios ainsi
que Les besoins fonctionnels du système (ce que le système doit faire en réponse à une
requête d’un utilisateur), qui aboutira à un ensemble de diagrammes représentant le modèle
d’analyse.
B. Problématique :
On distingue deux manières classiques d’authentification (et identification). La première est
basée sur une connaissance comme un mot de passe, alors que la deuxième est basée sur une
possession comme un badge. Ces deux méthodes présentent quelques inconvénients. En effet,
le mot de passe peut être oublié ou espionné et un badge risque d’être volée ou perdue. En
outre, ces deux méthodes ne permettent pas de différencier entre un client authentique et un
imposteur.
67
Chapitre IV Analyse & Conception
Un acteur représente l’abstraction d’un rôle joué par des entités externes qui interagissent
directement avec le système étudié. Les différents acteurs que nous avons pu identifier dans
ce système.
68
Chapitre IV Analyse & Conception
• Client : toute personne qui interagit avec notre système en chargeant une image
capturé de son iris et en lançant les traitements : localisation, normalisation,
segmentation, extraction des caractéristiques…..
Chacun des acteurs que nous avons définis précédemment, effectuent un certain nombre de
tâches :
Acteur Tâches
Client Le client peut faire :
• Une demande d’inscription.
• Une demande d’identification.
• Une demande d’authentification
Administrateur L’administrateur a pour mission de :
• Exécuter une demande d’inscription (enrôlement).
• Exécuter une demande d’identification.
• Authentification
• La gestion de la base de données y compris les tables (iris,
client…………).
• Recherche une personne
Tableau IV.1 : Tableau des répartitions des tâches.
Un cas d’utilisation est une narration qui décrit un scenario appliqué à une utilisation
particulière, dans lesquels un acteur fournit des entrées et pour lequel le système produit une
sortie observable.
Un cas d’utilisation doit exprimer ce que le système doit faire, sans préjuger de la façon dont
cela sera fait .il décrit le comportement du système vue de l’extérieure.
69
Chapitre IV Analyse & Conception
A. Représentation textuel :
70
Chapitre IV Analyse & Conception
9 Changer login :
Description du cas d’utilisation changer login
Titre : changer login administrateur.
Acteur : l’administrateur.
Résumé : Ce cas d’utilisation permet à l’administrateur de modifier son login.
9 Authentification de client :
9 Rechercher un client :
• La relation include :
Une relation inclusion d’un cas d’utilisation A par rapport à un cas d’utilisation B, signifie
Qu’une instance de A contient le comportement décrit dans B, le cas d’utilisation A Ne pas
être utilisé seul.
• Relation extend :
Une relation d’extension d’un cas d’utilisation A par rapport à un cas d’utilisation B, signifie
qu’une instance de A peut être étendue par le comportement décrit dans B.
71
Chapitre IV Analyse & Conception
« extend »
Client « extend »
Ajouter iris
Charger iris
« extend » « extend »
« extend » Normalisation
« extend »
3.2 Phase analyse : permet de détailler les cas d’utilisation et procéder à une première
répartition de comportement de système entre divers objet on utilisant les diagrammes de
séquence et de collaboration.
Les diagrammes de séquences sont la représentation graphique d’une interaction entre les
acteurs et le système selon un ordre chronologique, ces interactions sont décrite dans le cadre
d’un scenario d’un diagramme de cas d’utilisation.ces diagrammes sont :
72
Chapitre IV Analyse & Conception
Administrateur
2. sélectionne
1. saisir login
2. Charger œil client
3. affiche
Filtre deGausse
Filtre de Canny
Seuil
Hough
tonsform
4. Atteint
Centre de la
pupille et de l’iris
Normalisation
5. Atteint
Filtre
Gabor
73
Chapitre IV Analyse & Conception
9 Authentification client :
Fiche
Page Page extraction Page extraction
BD personnel:
authentification iris: caractéristique
1. sélectionne
Normalisation
3. Extraction des caractéristiques
5. vérification
4.Afficher
Vérification
4. Atteint
6.Afficher
74
Chapitre IV Analyse & Conception
9 changer login :
Espace Formulaire
Page
administrateur: changé login: BD
confirmation :
1 Atteint
Administrateur
2. saisir login
3. vérification
Modificat
Enregistrer
nouveau
login
4. construit
Afficher
75
Chapitre IV Analyse & Conception
Administrateur
2. Atteint
1. Atteint
3. charger œil
client
Segmentation
Normalisation
Extraction des
caractéristiques
4. vérification
Vérification
5. Atteint
6. Afficher
76
Chapitre IV Analyse & Conception
Administrateur
1. atteint
2. sélectionne
Segmentation
Normalisation
Extraction des
caractéristiques
4. enregistrer
Afficher
77
Chapitre IV Analyse & Conception
Espace Formulaire
BD Fiche
administrate recherche:
personnel :
Administrateur
1 Atteint
2. saisir
3. envoyer
Vérification
4. Afficher
78
Chapitre IV Analyse & Conception
Si l’un des diagrammes d’interaction UML utilisé pour illustrer comment les objets
interagissent entre eux en échangeant des messages.
1.1. lissage
Système app:
79
Chapitre IV Analyse & Conception
9 Authentification client :
User validator:
3.2Valider
User interface
DB :
3. Extraction des
caractéristiques 3.1. La comparaison
Système app:
Espace
1.2. Segmentation
2. Vérifier
Validate user :
Fiche personnel
80
Chapitre IV Analyse & Conception
1. Charger l’image de
l’œil Système app :
1.4. Calculer le code
Espace de l’iris
1.2. Segmentation
Validate user :
Système app:
1.1. Choisir le critère de
recherche Rechercher
1. Rechercher personne
2. fiche personnel Système app :
Espace
administrateur :
Système
BD : validator:
Fiche personnel
81
Chapitre IV Analyse & Conception
3.3 Phase de conception : Définit la structure statique du système sous forme de sous
système classes et interfaces.
Le diagramme de classe a pour objet de mettre en évidence les classes d'un système avec les
relations qui les associent. En se basant sur ce qui précède, une solution conforme aux besoins
exprimés et aux objectifs déjà fixés se résume dans un diagramme composé des classes
suivantes :
9 Changer login :
« Submit » envoyé
Vérifier ()
Modifier ()
« build»
Client page
« Page confirmation »
82
Chapitre IV Analyse & Conception
« link
Filtre de gausse()
Sobel()
Canny()
Hough()
« link
Server page
« Extraction iris»
Rayon de l’iris
Rayon de la pupille
Normalisation ()
Filtre de Gabor ()
83
Chapitre IV Analyse & Conception
9 Authentification client :
« submit » envoyer
« link »
« Submit » suivant
Filtre de gabor ()
« submit»
Formulaire
Server page
Server page
«Fiche personnel»
« Vérifier iris»
«Extraction caractéristiques»
Nom
« submit» « build
Code_iris
Prénom
Photo
Vérifier ()
BDD
Figure IV.16 : diagramme de classe « authentification client »
84
Chapitre IV Analyse & Conception
« link
Server page
Server page
« Normalisation »
« Segmentation»
« link »
img.normalis
img.ségmenté
« Submit » suivant
« Submit » suivant
Filtre de Gabor ()
« submit»
Server page
« build Nom
Calculer () Prénom
Verifier() Photo
BD
85
Chapitre IV Analyse & Conception
« input » critère de
recherche
« Submit » envoyé
Rechercher ()
« build»
BD
Client page
« Page confirmation »
Résultat de recherche
Le modèle conceptuel de données est une représentation statique qui met en Évidence sa
sémantique. Il a pour but d'écrire de façon formelle les données. Il s'agit donc d'une
représentation des données facilement compréhensibles.
86
Chapitre IV Analyse & Conception
Personne
Iris
id_pers
Num_iris
Nom Code_iris
(1.1)
(1.1)
Prénom Posséder
Date_naiss
Adresse
Sex
Photo
B. Le modèle relationnel :
Les tables:
L’application dans tous ces cas d’utilisation manipule des données stockées dans la base de
données et elle contient les tables suivantes :
9 La table administrateur :
9 La table client :
87
Chapitre IV Analyse & Conception
9 La table iris :
4. Conclusion :
Nous avons présenté dans ce chapitre l’étude conceptuelle du futur système en suivant la
démarche RUP qui s’appuie sur le langage de modélisation UML pour spécifier les cas
d’utilisation, concevoir les diagrammes de séquence et élaborer les diagrammes de classes.
A la fin de ce chapitre, nous avons défini les différentes tables de la base de données avec
leurs relations ainsi que le schéma conceptuel de données.
Dans ce qui va suivre, nous entamerons la phase de réalisation où nous exposerons nos choix
concernant la technologie qui a servi à la réalisation de notre système (environnement de
développement).
88
Chapitre V Réalisation
Chapitre V
1. Introduction :
Après avoir présenté dans les chapitres précédents les différentes étapes nécessaires à la
réalisation de notre système. Dans cette partie, nous mettrons en évidence les raisons de nos
choix techniques (langage de programmation et les outils utilisés). Ensuite, nous allons citer
les principales classes développées et décrire les différentes fenêtres de l’application.
2. Diagramme de déploiement :
Le diagramme de déploiement permet de représenter l’environnement de développement
d’une application. Notre solution se base sur une architecture client/serveur qui compose de
deux niveaux :
Le premier est le niveau applicatif (logique applicative) qui se compose de langage java
implémenté par Netbeans.
Le deuxième niveau, qui fournit au niveau intermédiaire les données dont il a besoin, est pris
en charge dans notre cas par le SGBD Postgre.
SQL Serveur :
PC:
Navigateur Postgere
3. Outils de développement :
Le choix du bon environnement de programmation est très important pour le développement
des projets. Cela se fait suivant plusieurs facteurs: la puissance de compilation, la facilité
d’utilisation, la disponibilité de plusieurs fonctionnalités, la communication avec d’autres
environnements, etc.
89
Chapitre V Réalisation
A fin de réaliser notre système et ses interfaces, Nous avons eu recours aux outils :
3.1 Java :
Java est un langage développé par Sun. L’objectif de Java est d’offrir : un langage permettant
une exécution «standardisée» des programmes sans réécriture ni recompilation, ainsi qu’une
maintenance «simplifiée» des programmes écrits.
NetBeans est un environnement de développement intégré (EDI), placé en Open Source par
Sun. En plus de Java, NetBeans permet également de supporter différents autres langages,
comme C, C++, JavaScript, PHP, HTML … Il comprend toutes les caractéristiques d'un IDE
moderne (éditeur en couleur, projets multi-langage, refactoring, éditeur graphique d'interfaces
et de pages Web).
Conçu en Java, NetBeans est disponible sous Windows, Linux, Solaris, Mac OS X ou sous une version
indépendante des systèmes d'exploitation (requérant une machine virtuelle Java). Un environnement
Java Développement Kit (JDK) est requis pour les développements en Java., L’IDE Netbeans
s'enrichit à l'aide de plugins.
90
Chapitre V Réalisation
ImageJ est un logiciel libre de traitement d'images écrit en Java par le National Institute of
Health (NIH).
ImageJ fonctionne selon deux modes:
• en tant qu'applet dans un navigateur web,
• en tant qu'application sur n'importe quelle plate-forme supportant Java.
(On peut le télécharger à partir du site http://rsb.info.nih.gov/ij/download.html)
La première version, NIH-image, écrite en langage Pascal a été développée pour le système
d'exploitation Macinstosh.
• ImageJ est maintenant écrit en Java et est multiplateforme (Mac, Windows, Linux).
• C'est un logiciel du domaine public («disponible gratuitement» ; «domaine public» est
un terme légal qui signifie que le logiciel n’est pas «soumis au copyright»).[1]
91
Chapitre V Réalisation
Java Advanced Imaging est une solution de traitement d'images pour Java,
maintenue par SUN (le créateur de Java). La bibliothèque semble assez lourde à
utiliser, mais certains plugins ImageJ sont développés avec.[2]
3.6 Postgres :
3.6.1 Définition :
PostgreSQL est un système de gestion de bases de données relationnelles objet (ORDBMS)
fondé sur POSTGRES, Ce dernier a été développé à l'université de Californie au département
des sciences informatiques de Berkeley. POSTGRES est à l'origine de nombreux concepts qui
ne seront rendus disponibles au sein de systèmes de gestion de bases de données
commercialesque bien plus tard.
PostgreSQL™ est un descendant OpenSource du code original de Berkeley. Il supporte une
grande partie du standard SQL tout en offrant de nombreuses fonctionnalités modernes :
• requêtes complexes
• clés étrangères
• triggers
• vues
• intégrité transactionnelle
• contrôle des versions concurrentes (MVCC ou multiversion concurrency control).
De plus, PostgreSQL™ peut être étendu par l'utilisateur de multiples façons. En ajoutant, par
exemple :
92
Chapitre V Réalisation
93
Chapitre V Réalisation
La base de données des images d’iris de l’université BATH [1] est en constante évolution et à
présent contient plus de 16000 images d'iris prises à partir des deux yeux de 400 personnes. Il
résulte d'un projet qui vise à construire une ressource d’images d'iris de haute qualité. La
majorité de la base de données comprend des images prises d'étudiants et du personnel de
l'Université Bath.
Les images sont de très haute qualité, prises avec un appareil photo professionnel, et montées
sur un appareil d’ajustement de position d’hauteur réglable. [4]
La base de données ICE (The Iris Challenge Evaluation (ICE)) [5] est composée de 2954
images, avec un nombre variable d'images par personne. De la même façon que les bases de
données d'iris publiques restantes, ses images ont été capturées, avec comme préoccupation
principale la qualité des images, celle ci simule clairement la coopération des utilisateurs dans
l'image capturée. En conséquence, les facteurs de bruit que la base de données ICE contient
sont liés presque exclusivement avec les obstructions de la mauvaise position de l’iris par
rapport au capteur. D’autant plus qu’il y a quelques images qui ont délibérément subi des
rotations et d'autres ont été partiellement capturées.
94
Chapitre V Réalisation
La base de données d'images d'iris UPOL [7] a été construite au sein de l'Université de
Palacki. Olomuc. La base de données contient 384 images extraites des deux yeux de 64
personnes (trois images par oeil). Comme illustré dans la figure V.4, ses images sont d'une
homogénéité maximale et la segmentation est facilitée. Evidemment, ces caractéristiques font
de cette base de données la moins appropriée pour la recherche biométrique dans le cas non
coopératif.
The West Virginia University a développé une base de données d'images d'iris (WVU)
composée de 1852 images de 380 yeux différents. Le nombre d’images capturées de chaque
oeil est compris entre trois et six. Les images de la base de données WVU ont été capturées
dans des conditions de prise d'images peu contraignantes, d’où, la mauvaise qualité d’images
comportant des obstructions de l'iris, mauvaise localisation de l’iris dans l’image avec une
position angulaire fermé, quelques unes complètement affectées par le reflet des paupières et
des cils, ce qui leur vaut d’être les images les plus hostiles au processus de reconnaissance.
95
Chapitre V Réalisation
La base de données UBIRIS [6] est composée de 1877 images recueillies à partir de 241
personnes au sein de l’Université de Beira Interior, elle est scindée en deux sessions
distinctes. Sa caractéristique principale est le fait qu’à l’heure actuelle c’est la base de
données publique et gratuite (CASIA et UPOL) la plus large qui existe, elle comporte des
images avec plusieurs facteurs de bruit, permettant ainsi l'évaluation de la robustesse des
méthodes de reconnaissance de l'iris.
96
Chapitre V Réalisation
Acumulateur : permet de générer des cercles pour les ajouter (Coordonnées et rayons de
l’iris et de la pupille) à l’espace de Hough suivant la transformée de Hough.
Entrées :
• h : tableau de 2 dimensions représentant l’espace de Hough.
• c : coordonnées [x, y] du centre d’un cercle.
• radius : le rayon du cercle.
Sortie :
• h : espace de Hough mis à jour.
CircleList : prend la carte des contours d’une image et exécute la transformée de Hough pour
la détection des cercles dans une image.
Entrée :
• edgeim : la carte des contours d’une image à traiter.
• rmin, rmax : les valeurs minimales et maximales des rayons des cercles à rechercher.
Sortie :
• h : la transformée de Hough.
97
Chapitre V Réalisation
IrisFinder : retourne les coordonnées d’un cercle dans une image en utilisant la transformée
de Hough et l’algorithme de détection des contours de Canny pour la création de la carte des
contours.
Entrées :
• image : l’image contenant des cercles à repérer.
• lradius : le rayon le plus petit du cercle à rechercher dans l’image.
• uradius : le rayon le plus grand du cercle à rechercher dans l’image.
• sigma : amplitude du lissage Gaussien à appliquer pour la création de la carte des
contours.
• hithres : seuil pour la création de la carte des contours.
• lowthres : seuil pour la connexion des contours.
• vert : indice de contribution du contours vertical (0-1).
• horz : indice de contribution du contours horizontal (0-1).
Sorties :
• circleiris : coordonnées du centre et le rayon des limites de l’iris détecté.
• circlepupil : coordonnées du centre et le rayon des limites de l’iris détecté.
98
Chapitre V Réalisation
UnWrapper :
• image : l’image d’iris en entrée dont les informations sur la région d’iris doivent être
extraites.
• x_iris : les abscisses des contours du cercle de l’iris.
• y_iris : les ordonnées des contours du cercle de l’iris.
• r_iris : le rayon du cercle de l’iris.
• x_pupil : les abscisses des contours du cercle de la pupille.
• y_pupil : les ordonnées des contours du cercle de la pupille.
• r_pupil : le rayon du cercle de la pupille.
• eyeimage_filename : le nom initial de l’image de l’oeil en entrée
• unwrWidth: la résolution radiale qui fixe la dimension verticale de la représentation
normalisée.
• unwrHeight : résolution angulaire qui fixe la dimension horizontale de la
représentation normalisée.
Sorties :
• unwrapped: un tableau de 2 dimensions représentant la forme normalisée de l’iris.
99
Chapitre V Réalisation
6. Présentation de l’application :
6.1 Page d’accueil :
Pour accéder à la page d’accueil du notre application, il suffit de saisir le login et le mot de
passe, Dans la page suivante
100
Chapitre V Réalisation
Pour extraire les caractéristiques cliquer sur le bouton extraction caractéristique ensuite sur
valider pour enregistre le formulaire inscription ainsi le vecteur iris.
101
Chapitre V Réalisation
Cette page permet à un administrateur de vérifier l’identité d’un client par la comparaison de
son iris avec tout les iris stoker dans la base de données (comparaison de type 1_N).par
l’utilisation de la distance de hamming :
102
Chapitre V Réalisation
103
Chapitre V Réalisation
Cette page permet à l’administrateur de trouver un client par la saisi de son code :
104
Chapitre V Réalisation
105
Chapitre V Réalisation
Conclusion :
Dans ce chapitre nous avons, en premier lieu, présenté les différents outils et langages que
nous avons utilisé pour implémenter notre application. Par la suite, nous avons présenté
quelques interfaces de l’application.
106
Conclusion générale
L’objectif de notre travail était la conception et la réalisation d’un système automatique de
reconnaissance par l’iris
Pour mener à terme notre application, nous avons donné un aperçu général sur la biométrie et
plus précisément l’iris ainsi que les méthodes qui permet de détecter l’iris et l’extraction des
caractéristiques de l’iris.
Les perspectives :
Le fait d’utiliser Java™ comme outil principal de développement a affecté directement les
performances globales du système. Il est impensable de considérer une implémentation en
temps réel sur cette plateforme. Il aurait été particulièrement agréable de voir la différence
avec une implémentation en C++.
107
Annexe A Lexique biométrique
Annexe A
Lexique de la biométrie :
• L’accès physique qui désigne tout ce qui est physiquement accessible comme un
bâtiment, une salle de laboratoire, un bureau...
• L'accès logique qui désigne tout ce qui est virtuellement accessible comme un site
internet, un fichier informatique, une application informatique... [anexe]
108
Annexe A Lexique biométrique
l’échantillon correspond à celui d’une personne de la base, on renvoie son numéro
d’utilisateur. Sinon l’identification échoue.
Classification : Ce procédé permet d’affecter une donnée biométrique à une classe donnée.
La classification est utilisée par exemple par certains systèmes de reconnaissance
d’empreintes digitales (avec des classes telles que : boucles, arches ou tourbillons), dans le
but d’accélérer les identifications. En effet, la séparation des données en plusieurs classes
permet de réduire la taille de la base de recherche et donc d’accélérer le processus
Donnée biométrique : Information extraite d’un échantillon biométrique et utilisé soit pour
construire un modèle de référence ou pour comparer à des modèles existants
109
Annexe A Lexique biométrique
Enrôlement : Étape initiale au cours de laquelle sont capturées les données biométriques qui
serviront de références lors des authentifications ou identifications futures. C’est aussi lors de
cette étape qu’un identifiant est associé aux données biométriques de chaque personne. Un
soin tout particulier doit être apporté à cette première capture, car c’est sa qualité qui
déterminera les performances futures du système
Échec à l’enrôlement : Événement ayant lieu lorsqu’une personne ne réussit pas à s’enrôler.
Ceci inclut les cas où la personne ne peut pas fournir l’échantillon biométrique demandé, les
cas où la qualité de l’échantillon est insuffisante, etc
ROC Curve (Receiver Operating Caracteristics curve) : Dans le cadre biométrique, cette
courbe représente l’évolution du FRR en fonction du FAR. L’étude de cette courbe permet de
déterminer les performances d’un système biométrique
110
Annexe A Lexique biométrique
Fausse Acceptation : Événement ayant lieu lorsqu’un système biométrique accepte une
personne alors qu’elle n’est pas dans sa base d’utilisateurs. Cet événement doit être le plus
rare possible pour assurer la sécurité d’un système biométrique
Faux Rejet : Événement ayant lieu lorsqu’un système biométrique refuse une personne alors
qu’elle est dans sa base d’utilisateurs. Cet événement est souvent dû à une mauvaise
acquisition des données biométriques et est perçu comme une gène par l’utilisateur
TFA - Taux de fausse acceptation : Indique la probabilité qu’un utilisateur inconnu soit
identifié comme étant un utilisateur connu. Ce taux définit la sécurité du système biométrique
TFR - Taux de faux rejet : Indique la probabilité qu’un utilisateur connu soit rejeté par le
système biométrique. Ce taux définit en partie le confort d’utilisation du système biométrique
Seuil de rejet : Score minimum en dessous duquel un algorithme biométrique rejettera une
authentification/identification
111
Annexe A Lexique biométrique
Système multimodal : Système utilisant différents moyens d’authentification (biométriques
ou non) pour vérifier l’identité d’une personne
Temps de réponse : Période temporelle requise par un système biométrique pour retourner
une décision sur l’authentification d’un échantillon biométrique
112
Annexe B UML
Annexe B
1. Historique :
C’est a la fin de l’année 1994 que lames rembauche et Grady Booch décident de travailler
ensemble a l’élaboration d’une méthode unifier d’analyse et de conception objet.
En 1995, Ivar Jacobson les rejoints en apportant notamment le concept des cas d’utilisation,
les premiers bases d’UML résulte de l’union de trois méthodes OMT (James
rembauche).OOD (grady booch) et OOSE (Ivar Jacobson). [2]
2. Définition :
UML (Unified Modeling Language) est un langage unifié pour la modélisation dans le Cadre
de la conception orienté objet. Il s’agit d’un langage graphique de modélisation objet
Permettant de spécifier, de construire, de visualiser et de décrire les détails d’un système
Logiciel. Il est issu de la fusion de plusieurs méthodes dont « Bootch » et « OMT » et adapté à
La modélisation de tous types de systèmes. Il devint aujourd’hui un standard dans le domaine
113
Annexe B UML
• Le modèle d’interaction : il représente de point de vue dynamique l’évolution des
objets au cours de temps.
• Le modèle de réalisation : ce modèle moins important que les autres modèles
d’UML, il montre les unitéss du travail.
• Le modèle de déploiement : il précise la préparation des processus.
Remarque :
Les modèles sont regarder et manipule par les utilisateurs au moyen de vues graphique, a
chaque vue correspondant un ou plusieurs diagrammes. UML définit neuf diagrammes :
¾ Vue statique :
• Les diagrammes de classes
• Les diagrammes D’objet
• Les diagrammes De cas d’utilisation
• Les diagrammes De composants
• Les diagrammes De déploiement
¾ Vue dynamique :
• Les diagrammes de séquence
• Les diagrammes de collaboration
• Le diagramme d’état de transition
• Les diagrammes d’activités
114
Annexe B UML
115
Annexe B UML
4.1.2 Représentation Graphique : Les composants de base des diagrammes des cas
d'utilisation sont l'acteur, le cas d'utilisation, et l'association.
Définition Représentation
Acteur un acteur est un utilisateur du système, et est
représenté par une figure filaire. Le rôle de
l'utilisateur est écrit sous l'icône, Les acteurs ne sont
pas limités aux humains, Si le système communique
avec une autre application, et effectue des
entrées/sorties avec elle, alors cette application peut
également être considérée comme un acteur
Cas un cas d'utilisation représente une fonctionnalité
d'utilisation fournie par le système, typiquement décrite sous la
forme Verbe+objet, Les cas d'utilisation sont
représentés par une ellipse contenant leur nom.
Association les associations sont utilisées pour lier des acteurs
avec des cas d'utilisation. Elles indiquent qu'un
acteur participe au cas d'utilisation sous une forme
quelconque. Les associations sont représentées par
une ligne reliant l'acteur et le cas d'utilisation.
L'image suivante montre comment ces trois
éléments de base collaborent pour former un
diagramme de cas d'utilisation.
4.1.3 Représentation textuelle : Chaque cas d'utilisation, est associé à une série d'actions
représentant la fonctionnalité voulue, ainsi que les stratégies à utiliser dans l'alternative où la
validation échoue, ou des erreurs se produisent, Ces actions peuvent être également définies
dans la description de cas d'utilisation il n'y a donc aucune norme pour représenter ces cas
textuellement. Cependant, il y a quelques règles communes que vous pouvez suivre:
116
Annexe B UML
• Utiliser un patron identifiant les acteurs, les conditions préalables, les post
conditions, les scénarios principaux de réussite du processus, .etc.
• Rappelez-vous, le but du processus de modélisation est de pouvoir illustrer le
mieux possible.
• les besoins du système, aussi n'hésitez pas à employer toutes les méthodes qui
permettront une meilleurs compréhension des membres du projet.
4.2.2Représentation : Les éléments d'un diagramme des Classes sont les classes et les
relations qui les lient.
Définition Représentation
Classes les classes sont les modules de base de la
Nom_classe
programmation orientée objet. Une classe est
Proprites _de classe
représentée en utilisant un rectangle divisé en trois
()methodes
sections. La section supérieure est le nom de la classe.
La section centrale définit les propriétés de la classe.
Association une association est une relation générique entre deux
classes. Elle est modélisée par une ligne reliant les
deux classes. Cette ligne peut être qualifiée avec le
type de relation, et peut également comporter des
règles de multiplicité (par exemple un à un, un à
plusieurs, plusieurs à plusieurs) pour la relation.
Composition si une classe ne peut pas exister par elle-même, mais
doit être un membre d'une autre classe, alors elle
possède une relation de composition avec la classe
contenant. Une relation de composition est indiquée
par une ligne avec un "diamant" rempli.
117
Annexe B UML
Dépendance quand une classe utilise une autre classe, par exemple
comme membre ou comme paramètre d'une de ces
fonctions, elle "dépend" ainsi de cette classe. Une
relation de dépendance est représentée par une flèche
pointillée.
Agrégation les agrégations indiquent une relation de contenant
contenu. Elle décrite par une relation "possède". Une
relation d'agrégation est représentée par une ligne avec
un "diamant" creux.
Généralisation Une relation de généralisation est indiquée par une
flèche creuse se dirigeant vers la classe "parent ".
118
Annexe B UML
concentrer que sur les objets et leurs propriétés. Les
associations entre les objets sont représentées simplement
en utilisant une ligne les joignant.
4.5.1 Définition :
Les diagrammes des séquences documentent les interactions à mettre en œuvre entre les
Classes pour réaliser un résultat, tel qu'un cas d'utilisation, UML étant conçu pour la
programmation orientée objet, ces communications entre les classes sont reconnues comme
Des messages. Le diagramme des séquences énumère des objets horizontalement, et le temps
Verticalement. Il modélise l'exécution des différents messages en fonction du temps.
119
Annexe B UML
4.5.2 Représentation : Dans un diagramme des séquences, les classes et les acteurs sont
énumérés en colonnes, avec leurs lignes de vie verticales indiquant la durée de vie de l'objet.
Définition Représentation
Objet les objets sont des instances des classes, et sont
rangés horizontalement. La représentation graphique
pour un objet est similaire à une classe (un rectangle)
précédée du nom d'objet (facultatif) et d'un point-
virgule (:) .
120
Annexe B UML
4.6.2 Représentation :
Définition Représentation
Etat la notation de l'état décrit le mode de l'entité. Elle est
représentée par rectangle avec les coins arrondie,
contenant le nom de l'état.
Transition une transition décrit le changement de l'état d'un objet,
provoqué par un événement. La notation utilisée pour
représenter une transition est une flèche, avec le nom
d'événement écrit au-dessus, au-dessous, ou à côté.
Etat l'état initial est l'état d'un objet avant toutes transitions.
initial Pour des objets, ceci pourrait être l'état lors de leur
instanciation. L'état initial est représenté par un cercle
plein. Un seul état initial est autorisé sur un diagramme.
Etat final l'état final représente la destruction de l'objet que nous
modélisons. Ces états sont représentés par un cercle plein
entouré d'un cercle.
121
Annexe B UML
en utilisant le symbole habituel: Stick man.
Message les messages, modélisés par des flèches entre les
objets, sont affectés d'un numéro et indiquent les
communications entre les objets.
122
Annexe B UML
Synchronisat parallèle. Pour dédoubler le traitement "Fork", ou le
ion reprendre quand des activités multiples ont été
accomplies ("join"), des barres de synchronisation sont
utilisées. Celles ci sont modélisées par des rectangles
pleins, avec des transitions multiples entrantes ou
sortantes.
5. Conclusion :
UML est un moyen d'exprimer des modèles objet en faisant abstraction de leur
implémentation, c'est-à-dire que le modèle fourni par UML est valable pour n'importe quel
langage de programmation.
Les différents digrammes d’UML permettre de faire une bonne modélisation pour un projet
et une bonne structuration des données.
123
Annexe c Traitement d’image
Annexe c
Traitement d’image :
1. Quelques notions :
La lumière émise par le soleil se déplace à une vitesse d'environ 300 000 km/s, à une
fréquence d'environ 600 000 GHz.[1]
λ = CT où :
124
Annexe c Traitement d’image
L'ensemble des longueurs d'ondes composant un rayonnement polychromatique (et leurs
intensités lumineuses respectives) est appelé spectre.
Toutefois l'œil humain n'est pas capable de discerner les différentes composantes d'un
rayonnement et ne perçoit que la résultante, fonction des différentes longueurs d'ondes qui le
composent et de leur intensité lumineuse respective.
Il est possible de décomposer les couleurs spectrales à l'aide d'un prisme en cristal.
L'œil humain est capable de voir des rayonnements dont la longueur d'onde est comprise entre
380 et 780 nanomètres. En dessous de 380 nm se trouvent des rayonnements tels que les
ultraviolets, tandis que les rayons infrarouges ont une longueur d'onde au-dessus de 780 nm.
L'ensemble des longueurs d'ondes visibles par l'œil humain est appelé « spectre visible » :
Il est possible de décomposer les couleurs spectrales à l'aide d'un prisme en cristal.
En informatique, de la même façon, il est essentiel de disposer d'un moyen de choisir une
couleur parmi toutes celles utilisables. Or la gamme de couleurs possibles est très vaste et la
chaîne de traitement de l'image passe par différents périphériques : par exemple un
numériseur (scanner), puis un logiciel de retouche d'image et enfin une imprimante. Il est
donc nécessaire de pouvoir représenter de façon fiable la couleur afin de s'assurer de la
cohérence entre ces différents périphériques
125
Annexe c Traitement d’image
On appelle ainsi «espace de couleurs» la représentation mathématique d'un ensemble de
couleurs. Il en existe plusieurs, parmi lesquels les plus connus sont :
• Le codage RGB (Rouge, Vert, Bleu, en anglais RGB, Red, Green, Blue).
• Le codage CMYK.
• Le codage CIE.
• Le codage YUV.
• Le codage YIQ.
Le spectre de couleurs qu'un périphérique d'affichage permet d'afficher est appelé gamut ou
espace colorimétrique. Les couleurs n'appartenant pas au gamut sont appelées couleurs hors-
gamme
9 Le codage RGB
Le codage RGB, mis au point en 1931 par la Commission Internationale de l'Eclairage (CIE)
consiste à représenter l'espace des couleurs à partir de trois rayonnements monochromatiques
de couleurs :
Cet espace de couleur correspond à la façon dont les couleurs sont généralement codées
informatiquement, ou plus exactement à la manière dont les tubes cathodiques des écrans
d'ordinateurs représentent les couleurs.
Ainsi, le modèle RGB propose de coder sur un octet chaque composante de couleur, ce qui
correspond à 256 intensités de rouge (28), 256 intensités de vert et 256 intensités de bleu,
soient 16777216 possibilités théoriques de couleurs différentes, c'est-à-dire plus que ne peut
en discerner l'œil humain (environ 2 millions). Toutefois, cette valeur n'est que théorique car
elle dépend fortement du matériel d'affichage utilisé.
126
Annexe c Traitement d’image
Etant donné que le codage RGB repose sur trois composantes proposant la même gamme de
valeur, on le représente généralement graphiquement par un cube dont chacun des axes
correspond à une couleur primaire.
Une image est constituée d'un ensemble de points appelés pixels (pixel est une abréviation de
PICture ELement) Le pixel représente ainsi le plus petit élément constitutif d'une image
numérique. L'ensemble de ces pixels est contenu dans un tableau à deux dimensions
constituant l'image :
Etant donné que l'écran effectue un balayage de gauche à droite et de haut en bas, on désigne
généralement par les coordonnées [0,0] le pixel situé en haut à gauche de l'image, cela signifie
que les axes de l'image sont orientés de la façon suivante:
127
Annexe c Traitement d’image
La résolution, terme souvent confondu avec la "définition", détermine par contre le nombre
de points par unité de surface, exprimé en points par pouce (PPP, en anglais DPI pour Dots
Per Inch); un pouce représentant 2.54 cm. La résolution permet ainsi d'établir le rapport entre
le nombre de pixels d'une image et la taille réelle de sa représentation sur un support
physique. Une résolution de 300 dpi signifie donc 300 colonnes et 300 rangées de pixels sur
un pouce carré ce qui donne donc 90000 pixels sur un pouce carré. La résolution de référence
de 72 dpi nous donne un pixel de 1"/72 (un pouce divisé par 72) soit 0.353mm, correspondant
à un point pica (unité typographique anglo saxonne).
Une image est donc représentée par un tableau à deux dimensions dont chaque case est un
pixel. Pour représenter informatiquement une image, il suffit donc de créer un tableau de
pixels dont chaque case contient une valeur. La valeur stockée dans une case est codée sur un
certain nombre de bits déterminant la couleur ou l'intensité du pixel, on l'appelle profondeur
de codage (parfois profondeur de couleur). Il existe plusieurs standards de codage de la
profondeur :
• bitmap noir et blanc: en stockant un bit dans chaque case, il est possible de définir
deux couleurs (noir ou blanc).
• bitmap 16 couleurs ou 16 niveaux de gris: en stockant 4 bits dans chaque case, il est
possible de définir 24 possibilités d'intensités pour chaque pixel, c'est-à-dire 16
dégradés de gris allant du noir au blanc ou bien 16 couleurs différentes.
• bitmap 256 couleurs ou 256 niveaux de gris: en stockant un octet dans chaque case,
il est possible de définir 28 intensités de pixels, c'est-à-dire 256 dégradés de gris allant
du noir au blanc ou bien 256 couleurs différentes.
• palette de couleurs (colormap): grâce à cette méthode, il est possible de définir une
palette, ou table des couleurs, contenant l'ensemble des couleurs pouvant être
128
Annexe c Traitement d’image
contenues dans l'image, à chacune desquelles est associé un indice. Le nombre de bits
réservé au codage de chaque indice de la palette détermine le nombre de couleurs
pouvant être utilisées. Ainsi en codant les indices sur 8 bits il est possible de définir
256 couleurs utilisables, c'est-à-dire que chaque case du tableau à deux dimensions
représentant l'image va contenir un nombre indiquant l'indice de la couleur à utiliser.
On appelle ainsi image en couleurs indexées une image dont les couleurs sont codées
selon cette technique.
• « Couleurs vraies » (True color) ou « couleurs réelles » : cette représentation permet
de représenter une image en définissant chacune des composantes (RGB, pour rouge,
vert et bleu). Chaque pixel est représenté par un entier comportant les trois
composantes, chacune codée sur un octet, c'est-à-dire au total 24 bits (16 millions de
couleurs). Il est possible de rajouter une quatrième composante permettant d'ajouter
une information de transparence ou de texture, chaque pixel est alors codé sur 32 bits.
Pour connaître le poids (en octets) d'une image, il est nécessaire de compter le nombre de
pixels que contient l'image, cela revient à calculer le nombre de cases du tableau, soit la
hauteur de celui-ci que multiplie sa largeur. Le poids de l'image est alors égal à son nombre de
pixels que multiplie le poids de chacun de ces éléments.
¾ Nombre de pixels :
24 bits / 8 = 3 octets
Voici quelques exemples (en considérant que l'image n'est pas compressée) :
129
Annexe c Traitement d’image
Définition Noir et blanc 256 couleurs 65000 couleurs True color
de l'image (1 bit) (8 bits) (16 bits) (24 bits)
320x200 7.8 Ko 62.5 Ko 125 Ko 187.5 Ko
640x480 37.5 Ko 300 Ko 600 Ko 900 Ko
800x600 58.6 Ko 468.7 Ko 937.5 Ko 1.4 Mo
1024x768 96 Ko 768 Ko 1.5 Mo 2.3 Mo
Cela met en évidence la quantité de mémoire vidéo que nécessite votre carte graphique en
fonction de la définition de l'écran (nombre de points affichés) et du nombre de couleurs.
L'exemple montre ainsi qu'il faut une carte ayant au minimum 4 Mo de mémoire vidéo afin
d'afficher une résolution de 1024x768 en true color...
Il existe un grand nombre de formats de fichiers. Parmi les formats de fichiers graphiques
voici les plus utilisés :
130
Annexe c Traitement d’image
2. Traitement d’image :
2.1 Histogramme :
Ainsi, l'histogramme d'une image en 256 niveaux de gris sera représenté par un graphique
possédant 256 valeurs en abscisses, et le nombre de pixels de l'image en ordonnées. Prenons
par exemple l'image suivante composée de niveaux de gris
2.2 Seuillage :
L'opération dite de "seuillage simple" consiste à mettre à zéro tous les pixels ayant un niveau
de gris inférieur à une certaine valeur (appelée seuil, en anglais treshold) et à la valeur
maximale les pixels ayant une valeur supérieure. Ainsi le résultat du seuillage est une image
binaire contenant des pixels noirs et blancs, c'est la raison pour laquelle le terme de
binarisation est parfois employé. Le seuillage permet de mettre en évidence des formes ou des
objets dans une image. Toutefois la difficulté réside dans le choix du seuil à adopter.
Voici une image en 256 niveaux de gris et les résultats d'une opération de seuillage avec les
valeurs respectives de seuil de 125 et 200 :
131
Annexe c Traitement d’image
2.3 Inversion :
L'opération d'inversion consiste, comme son nom l'indique, à inverser les valeurs des pixels
par rapport à la moyenne des valeurs possibles. Le résultat obtenu est appelé négatif
3.1 Filtrage
Le filtrage consiste à appliquer une transformation (appelée filtre) à tout ou partie d'une image
numérique en appliquant un opérateur. On distingue généralement les types de filtres suivants:
• les filtres passe-bas, consistant à atténuer les composantes de l'image ayant une
fréquence haute (pixels foncés). Ce type de filtrage est généralement utilisé pour
atténuer le bruit de l'image, c'est la raison pour laquelle on parle habituellement de
lissage. Les filtres moyenneurs sont un type de filtres passe-bas dont le principe est de
faire la moyenne des valeurs des pixels avoisinants. Le résultat de ce filtre est une
image plus floue.
• les filtres passe-haut, à l'inverse des passe-bas, atténuent les composantes de basse
fréquence de l'image et permettent notamment d'accentuer les détails et le contraste,
c'est la raison pour laquelle le terme de "filtre d'accentuation" est parfois utilisé.
• les filtres passe-bande permettant d'obtenir la différence entre l'image originale et celle
obtenue par application d'un filtre passe-bas.
• les filtres directionnels appliquant une transformation selon une direction donnée.
132
Annexe c Traitement d’image
On appelle filtrage adaptatif les opérations de filtrage possédant une étape préalable de
sélection des pixels.
Le filtre est représenté par un tableau (matrice), caractérisé par ses dimensions et ses
coefficients, dont le centre correspond au pixel concerné. Les coefficients du tableau
déterminent les propriétés du filtre. Voici un exemple de filtre 3 x 3 :
1 1 1
1 4 1
1 1 1
Ainsi le produit de la matrice image, généralement très grande car représentant l'image initiale
(tableau de pixels) par le filtre donne une matrice correspondant à l'image traitée
Le bruit caractérise les parasites ou interférences d'un signal, c'est-à-dire les parties du signal
déformées localement. Ainsi le bruit d'une image désigne les pixels de l'image dont l'intensité
est très différente de celles des pixels voisins.
• Qualité du capteur
• Qualité de l'échantillonnage
133
Annexe c Traitement d’image
3.4 Lissage :
L'opération de lissage spécifique consistant à atténuer l'effet d'escalier produit par les pixels
en bordure d'une forme géométrique est appelée anti-crénelage (en anglais anti-aliasing).
Les ondelettes peuvent être utilisées à des fins différentes dans le traitement des images. Elles
peuvent permettre de restaurer des images détériorées par le bruit ou suite à une acquisition,
ou encore peuvent permettre de compresser les données.
La première utilisation des ondelettes fit apparaître comme des objets mathématiques. Au
même titre qu’un sinus, les ondelettes sont des fonctions. Mais des fonctions très particulières
pourtant, puisqu’elles doivent remplir de nombreuses conditions afin de pouvoir jouer leur
rôle, en quelques sortes, de « sinus amélioré ». Certains noms d’ondelettes reviennent très
souvent comme l’ondelette de Daubechies (b) ou encore l’ondelette de Haar (a) représentées
ci-dessous :
134
Annexe c Traitement d’image
Appliqué les ondelettes en imagerie c’est le même principe d’appliqué un filtre à une
image, il suffit de multiplier les coefficients de l’ondelette (après l’avoir discrétisée) par la
valeur des pixels de l’image à traiter. On notera que l’ondelette peut alors être représentée
sous la forme d’un tableau (de dimension 1) de valeurs décimales. En réalité il y a 2 tableaux
qui représentent l’ondelette car une ondelette se compose de 2 filtres : un passe-bas et un
passe-haut.
Voici ci-dessous les coefficients de l’ondelette de Haar discrétisé ainsi que ceux de l’ondelette
de Daubechies :
• Ondelette de Haar :
Passe-Bas :
[0.71; 0.71]
Passe-Haut :
[-0.71 ; 0.71]
• Ondelette de Daubechies :
Passe-Bas :
[0.027 ; -0.017 ; -0.078 ; 0.267 ; 0.603 ; 0.267 ; -0.078 ; -0.017 ; 0.027]
Passe-Haut:
[0 ; 0 ; 0.046 ; -0.029 ; -0.296 ; 0.558 ; -0.296 ; -0.029 ; 0.046]
135
Bibliographie chapitre 1 :
[1]:https://www.info.unicaen.fr/M2-RADIS/promo08-09/projets/rapports/rapport
jdespomm.pdf
[2]: http://www.biontic.com/fr/content/10-la-biometrie
[3]: http://Biometrie.online.fr
[4]: http://xtremc.kelio.org/dossier-4-biometriques.html
[5]: http://www.securiteinfo.com/conseils/biometrie.shtml
[6]: http://fr.wikipedia.org/wiki/Empreinte_digitale
[8]: P.J. Phillips, H. Hyeonjoon, S. Rizvi, P. Rauss. The FERET Evaluation Methodology for
Face-Recognition Algorithms. IEEE Transactions on Pattern Analysis and Machine
Intelligence, Vo. 22, No. 10, Octobre 2000.
[1] :
http://www.info.expoprotection.com/?IdNode=1308&Zoom=0e6728f74f9b793a12eb95abc3a
64e9e
http://perso.telecom-
paristech.fr/~chollet/Projets/Technolangue/TechnoVision/IV2/Rapports/IV2_Rapport_Evalua
tion.pdf
[3] : http://biometrics.itsudparis.eu/downloads/publications/krichen_PhD.pdf
[4] : http://lunettes.comprendrechoisir.com/comprendre/oeil
[5] : http://tpe-ozarhatorah2011-2012.e-monsite.com/pages/fonctionnement-de-l-oeil.html
[6] :http://www.cours-photophiles.com/index.php/le-traitement-dimage/imagerie-numerique-
.html
[7] : http://www.teteamodeler.com/sante/vue/vue6.asp
[8] : http://ophtasurf.free.fr/loeil.htm
[9] :http://lanouettetech.com/Datasheet/Alarme_Securite_CCTV/Controle_Acces_Biometrie_
index.pdf
[10] :http://hosting.eila.univ-
parisdiderot.fr/~juilliar/termino/cours6_fichiers/Presentation_AudreyRousseau.pdf
[11] : http://www.edu.upmc.fr/sdi/signal-images/biometrie/Biom%E9trie%20IRIS.ppt
[12] : http://www.isep.fr/recherche-academique/projets/113-biometrie
[13] Brevet US 5016282, ATR COMMUNICATION SYSTEMS, 14 Mai 1991.
[14] Brevet WO 98/08439, SENSAR INC., 19 Octobre 1998.
[15] Brevet JP 11047117, OKI ELECTRIC, 23 Février 1999.
[16] Brevet US 5956122, LITTON SYSTEM, 21 Septembre 1999.
[17] Brevet EP 0973122, MEDIA TECHNOLOGY INC., 19 Janvier 2000.
[18] Brevet WO 00/62239, IRITECH INC., 19 Octobre 2000.
[19] :http://documents.irevues.inist.fr/bitstream/handle/2042/2444/03%22Torres+couleur.pdf?
sequence=1
[20] : http://biometrics.it-sudparis.eu/downloads/downloads/dwn4270b559ba791.ppt
[21] : N. Yager and A. Amin, "Fingerprint verification based on minutiae features: a review",
Pattern Analysis and Applications, Vol. 7, No. 1, pp. 94-113, April 2004.
[22]: Kwanghyuk Bae, Seungin Noh, Jaihei Kim, « Iris feature extraction using independent
component analysis », Proc. 4th Intl. Conf. on Audio and Video Based Biometric
Person Authentication (AVBPA 2003), pp. 838-844, 2003.
[25] Li Ma, Yunhong Wang, Tieniu Tan, « Iris recognition using circular symmetric
filters », Proc. of 16th Intl. Conf. on Pattern Recognition, Vol. 2, pp. 805-808, 2000.
[26] Li Ma, Yunhong Wang, Tieniu Tan, « Personal identification based on iris texture
analysis », IEEE Transactions on Pattern Analysis and Machine Intelligence, Vol. 25,
N° 12, pp. 1519-1533, December 2003.
[27] Vijaya B.V.K. Kumar, C. Xie, J. Thornton, « Iris verification using correlation
filters », Proc. 4th Intl. Conf. on Audio and Video Based Biometric Person
Authentication (AVBPA 2003), pp. 697-705, June 2003.
[28] W.W. Boles, B. Boashash, « A human identification technique using images of the iris
and wavelet transform », IEEE Transactions on Signal Processing, Vol. 46, N° 4, pp.
1185-1188, April 1998.
[29] Li Ma, Tieniu Tan, Yunhong Wang, « Efficient iris recognition by characterizing key
local variations », IEEE Transactions on Image Processing, Vol. 13, N° 6, pp. 739-750,
June 2004.
[30] J. Daugman, « High confidence personal identification by rapid video analysis of iris
texture », Proc. of the IEEE for the International Conference on Security Technology,
1992.
[31] J. Daugman, « High confidence recognition of persons by rapid video analysis of iris
texture », Publication of IEE for Conf. on European Convention on Security and
Detection, 16-18 Mai, 1995.
[32] F. Bouchier, J.S. Ahrens, G. Wells, « Laboratory evaluation of the IrisScan prototype
biometric identifier », Sandia National Laboratories, Albuquerque, NM, Tech. Rep.
SAND’96-1033, 1996.
[33] R.P. Wildes, « A system for automated iris recognition », Proc. of 2nd IEEE Workshop
on Applications of Computer Vision, pp. 121-128, Décembre 1994.
[34] R.P. Wildes, « Iris recognition : an emerging biometric technology », Proc. of the
IEEE, Vol. 85, N° 9, Septembre 1997.
[35] W.W. Boles, « A wavelet transform based technique for the recognition of the human
iris », Proc. of International Symposium on Signal Processing and its Application,
Australia, 25-30 Août 1996.
[36] W.W. Boles, « A security system based on human iris identification using wavelet
transform », Proc. of the 1st International Conf. on Knowledge-based Intelligent
Electronic Systems, Adelaide, Australia, 21-23 Mai 1997.
[37] W.W. Boles, B. Boashash, « A human identification technique using images of the iris
and wavelet transform », IEEE Transactions on signal processing, Vol. 46, N° 4, Avril
1998.
[38] R. Sanchez-Reillo, C. Sanchez –Avila, A. Gonzales-Marcos, « Improving access
control Security using iris identification », Proc. of the Conf. BMES/EMBS, IEEE
Publication, Atlanta, Octobre 1999.
[40] Y. Zhu, T. Tan, Y. Wang, « Biometric personal identification based on iris patterns »,
Proc. of IAPR, International Conf. on Pattern Recognition, Vol. II, pp. 805-808, 2000.
[41] L. Ma, Y. Wang, T. Tan, « Iris recognition using circular symmetric filters », Proc. of
ICPR’02, Québec city, Canada, 11-25 Août 2002.
[42] S.Z. Li, J. Lu, « Face recognition using the nearest geature line method », IEEE
Transactions On Neural Networks, Vol. 10, N° 2, pp. 439-443, Mars 1999.
[1]: https://portail.info.unicaen.fr/sites/default/files/etu/229/RapportFinal.pdf
[2]:http://ftp-developpez.com/slim-boukettaya/tutoriels/traitement-images
java/traitementimagejava.pdf
[3]: http://pages.videotron.com/jeromesc/files/pd/JPD_RPT.pdf
[4]:www.scribd.com
[5]: http://www.scribd.com/doc/58227634/C17
[6]: http://taima.arts-pi.org.tn/taima2009/articles/taima-reconnaissance-de-l-iris-par-filtrage-
de-gabor-et-deux-variantes.pdf
[7]:http://hvalentin.olympenetwork.com/index.php?option=com_content&view=article&id=8
9%3Airis-partie-3&catid=25&Itemid=81
Bibliographie chapitre IV :
[1] :http://www-clips.imag.fr/geod/User/jean.caelen/transparents_fichiers/RUP-fr.ppt
Bibliographie chapitre V :
[1] : http://ufe.obspm.fr/offreFP/miniMan-IJ.pdf
[2] : http://www.pfl-cepia.inra.fr/uploads/docs/softsImage.pdf
[3] : Institute of Automation, Chinese Academy of Sciences, « CASIA iris image database »,
2004,
http://www.biometricgroup.com/reports
Annexes :
Annexe B :
[1] :( Modéliser un site e_commerce : par : Pascal Roques. Editions Eyrolles. Années d’édition
:2002)
[2] :heg 01
Annexe C :
[1] :http://www.cours-photophiles.com/index.php/le-traitement-dimage/imagerie-numerique-.html