MINF265
MINF265
LA RECHERCHE SCIENTIFIQUE
UNIVERSITE ABDELHAMID IBN BADIS - MOSTAGANEM
Thème :
FACTORISATION MATRICIELLE
NON NEGATIVE POUR LA
RECONNAISSANCE FACIALE
MR AMIR ABDSSAMED
REMERCIMENTS
En premier lieu, je remercie "DIEU" de m’avoir donné tant de
patience et de puissance de pouvoir réaliser ce modeste travail.
Je remercie mes encadreurs pour leurs soutient.
Je remercie les juryspour avoir accepté d’examiner mon travail.
Je dédie ce modeste travail:
Dans ce projet on a étudiéla reconnaissance des visages Qui est considéré l’un des problèmes les plus
difficiles à résoudre. Jusqu'à présent, plusieurs méthodes et approches sophistiquées ont été développés
pour obtenir les meilleurs résultats de reconnaissance en utilisant des bases de données de visage
spécifiques. Et on a étudié aussiLe traitement d’image à des applications dans pratiquement tous les
domaines. L’explosion numérique a exigé une réduction de la taille des images afin de limiter le stockage
mais aussi de permettre une transmission plus rapide dans les réseaux. La compression d’images a pour
but de réduire la taille de l’image tout en minimisant la détérioration de celle-ci. Beaucoup d’algorithmes
et de formats de compression ont été proposé. Ce rapport étudie méthode de compression basée sur la
factorisation matricielle non négative (NMF) et composition en valeurs singulières (SVD) et ses
applications.et on a aussi étudié la reconnaissance faciale basé aussi sur les deux méthodes (SVD) et
(NMF) .finalement faire les tests et afficher les résultats et faire la comparaison entre eux.Des tests ont été
effectuéssur plusieurs images, et les résultats sont satisfaisants.
Abstract :
In this project we studied the recognition of faces which is considered one of the most difficult
problems to solve. So far, several sophisticated methods and approaches have been developed to obtain
the best recognition results using specific face databases. And we also studied image processing
applications in virtually every field. The digital explosion required a reduction in the size of the images in
order to limit the storage but also to allow a faster transmission in the networks. The purpose of image
compression is to reduce the size of the image while minimizing the deterioration of the image. Many
algorithms and compression formats have been proposed. This report investigates compression methods
based on non-negative matrix factorization (NMF) and singular value composition (SVD) and its
applications, and facial recognition also based on both (SVD) and (NMF) methods. finally do the tests
and display the results and make the comparison between them. tests were performed on several images,
and the results are satisfactory.
SOMMAIRE
Introductiongénérale……………………………………………………………………………… 3
Chapitre I : La compression d'image
I.1. Introduction…………………………………………………………………..……………......... 5
I.2. Définition d’une image…………………………………………………………………..…….. 5
I.3. limage numérique…………………………………………………………………..…………... 5
I-4.Caractéristiques d’une image numérique……………………………………………………… 5
I-4-1. Pixel …………………………………………………………………..……………......... 6
I-4-2. Dimension (définition)…………………………………………………………………. 6
I-4-3. Bruit ……………………………………………………………………………………... 6
I-4-4.Résolution……………………………………………………………..……………......... 6
I-4-5. Histogramme de l’image……………………………………………………………….... 6
I-4-6. Contours et textures……………………………………………………………………... 6
I-4-7. Luminance ………………………………………………………………………………. 7
I-4-8.Contraste………………………………………………………………………………….. 8
I-4-9.Le poids de l’image…………………………………………………………………...…. 7
I-5.Les différents types d’images…………………………………………………………………... 8
I-5-1. Mode monochrome……………………………………………………………………… 8
I-5-2. Images aux Niveaux de Gris…………………………………………………………… 8
I-5-3. L’image couleur ………………………………………………………………………... 9
I-5-3-1. La représentation en couleurs réelles……………………………………………. 9
I-5-3-2. La représentation en couleurs indexées………………………………………….. 9
I-5-3-3. Autres modèles de représentation……………………………………………….. 9
I-6.Les formats d’image……………………………………………………………………………. 9
I-6-1. Principaux formats de fichiers non compressés……………………………………….… 9
I-6-2. Principaux formats de fichier compressés……………………………………………..… 10
I-7. La compression…………………………………………………………………..…………….. 11
I-7-1. La compression sans perte…………………………………………………………………... 11
I-7-2. La compression avec perte…………………………………………………………………... 11
I-7-3. Le but de la compression d'image…………………………………………………………... 11
I-7-4 .Caractéristiques des méthodes de compression…………………………………………….. 11
I-7-4-1 .Rapport et taux de compression…………………………………………………………... 10
I-7-4-2 .Entropie…………………………………………………………………..……………. 12
I-7-4-3.Mesure de distorsion…………………………………………………………………..……. 12
I-8.Conclusion…………………………………………………………………..……………........... 13
IV-1.Introduction………………………………………………………………....……………......... 39
IV-2 .Bases de données…………………………………………………………………..……......... 39
IV-2-1. La Base de donnée « ORL » ………………………………………………………......... 39
IV-2-2. La base de données ”YALE”……………………………………………………......... 41
IV-3. Aspect matériel …………………………………………………………………..…………... 42
IV-4. Outils de développement…………………………………………………..……………......... 42
IV-5.La Compression d’image …………………………………………………………………..…. 43
IV-5-1.La compression d’image par SVD……………………………………………………… 43
IV-5-2.La compression d’image par NMF……………………………………………………… 46
IV-6.La reconnaissance faciale …………………………………………………………………….. 48
IV-6-1.La reconnaissance faciale par SVD………………………………………………………….. 48
IV-6-2.La reconnaissance faciale par NMF……………………………………………………. 52
IV-7-Conclusion…………………………………………………………………..…………….......... 55
𝐂𝐑 : Compression ratio
‘ En français Ratio de compression.
NMF : Nonnegative Matrix Factorization
‘ En français Factorisation dematrice non négative
~1~
Index des notations
: La ièmeligne de lamatrice A .
Ai:
T : La matrice transposée de A dont Aij est le terme de la jème ligne et dela ièmecolonne .
A = Aji
rg(A) : Le rang de la matrice A définit la dimension du sous-espace vectoriel engendré
par les colonnesA:j
Tr(A) : La trace d’unematrice carrée A est définie comme la somme étant
de ses coefficients diagonaux.
Im(A) : L’image de la matrice A.
~2~
INTRODUCTION GENERALE
Introduction générale :
L’mage est un moyen le plus efficace pour communiquer, chacun peut analyser
l'image à sa manière, pour en dégager une impression et en extraire des informations
précises.Le traitement d’image est l’ensemble des méthodes et techniques opérant sur
l’image, dont le but est d’améliorer son aspect visuel.
~3~
CHAPITRE I LA COMPRESSION D’IMAGE
CHAPITRE I:
La Compression
D’Image
~4~
CHAPITRE I LA COMPRESSION D’IMAGE
I-1.Introduction :
L’image constitue l’un des moyens les plus utilisés par l’homme pour communiquer
avec autrui. C’est un moyen de communication universel dont la richesse du contenu permet
aux êtres humains de tout âge et de toute culture de se comprendre.
C'est aussi le moyen le plus efficace pour communiquer, chacun peut analyser l'image
à sa manière, pour en dégager une impression et en extraire des informations précises.
De ce fait, le traitement d’image est l’ensemble des méthodes et techniques opérant sur
l’image, dont le but est d’améliorer son aspect visuel. Il se définit comme l’ensemble des
taches destinées à extraire de l’image des informations qualitatives et quantitatives.
Elle peut être décrite sous la forme d’une fonction I(x,y) de brillance analogique
continue, définie dans un domaine borné, tel que x et y sont les coordonnées spatiales d’un
point de l’image et I est une fonction d’intensité lumineuse et de couleur. Sous cet aspect,
l’image est inexploitable par la machine, ce qui nécessite sa numérisation.
~5~
CHAPITRE I LA COMPRESSION D’IMAGE
I-4-1. Pixel :
Le pixel est la contraction de l’expression anglaise " picture element". Etant le plus
petit point de l’image, le pixel est une entité calculable qui peut recevoir une structure et
unequantification. Dans une image couleur (R.V.B.), un pixel peut être représenté sur trois
octets :un octet pour chacune des couleurs : rouge (R), vert (V) et bleu (B).
I-4-2. Dimension :
C’est la taille de l’image. Cette dernière se présente sous forme de matrice dont les
éléments sont des valeurs numériques représentatives des intensités lumineuses (pixels). Le
nombre de lignes de cette matrice multiplié par le nombre de colonnes nous donne le nombre
total de pixels dans une image.
I-4-3. Bruit :
I-4-4. Résolution :
L'histogramme des niveaux de gris ou des couleurs d'une image est une fonction qui
donne la fréquence d'apparition de chaque niveau de gris (couleur) dans l'image.
~6~
CHAPITRE I LA COMPRESSION D’IMAGE
Les contours représentent la frontière entre les objets de l’image, ou la limite entre
deux pixels dont les niveaux de gris représentent une différence significative. Les textures
décrivent la structure de ceux-ci. L’extraction de contour consiste à identifier dans l’image les
points qui séparent deux textures différentes.
I-4-7. Luminance :
C’est le degré de luminosité des points de l’image. Elle est définie aussi comme étant
le quotient de l’intensité lumineuse d’une surface par l’aire apparente de cette surface. Pour
un observateur lointain,le mot luminance est substitué au mot brillance, qui correspond à
l’éclat d’un objet. Une bonne luminance se caractérise par :
~7~
CHAPITRE I LA COMPRESSION D’IMAGE
I-4-8.Contraste :
C’est l’opposition marquée entre deux régions d’une image, plus précisément entre les
régions sombres et les régions claires de cette image. Le contraste est défini en fonction des
luminances de deux zones d’images. Si L1 et L2 sont les degrés de luminosité respectivement
de deux zones voisines 𝐴1 et 𝐴2 d’une image ; le contraste C est défini par le rapport :
𝑳𝟏 − 𝑳𝟐
𝑪=
𝑳𝟏 + 𝑳𝟐
Il existe différentes catégories d’images selon le nombre de bits sur lequel est codée la
valeur de chaque pixel.
Le mode monochrome est le plus simple ; chaque pixel y est soit allumé [Blanc], soit
éteint [Noir].L’image obtenue n’est pas très nuancée. Alors pour convertir une image couleur
en mode monochrome il faut d’abord passer par le mode niveaux de gris.
~8~
CHAPITRE I LA COMPRESSION D’IMAGE
Il existe plusieurs types de représentations des images couleurs, parmi celle-ci nous
trouvons :
Elle consiste à utiliser 24 bits pour chaque point de l’image. Huit bits sont employés
pour décrire la composante rouge (R), huit bits pour la composante verte (V) et huit bits pour
la composante bleu (B). Il est ainsi possible de représenter environ 16,7 millions de couleurs
différentes simultanément.
Pour réduire la place occupée par l'information de couleur, on utilise une palette de
couleurs attachée à l'image. On parle alors de couleurs indexées : la valeur associée à un pixel
ne véhicule plus la couleur effective du pixel, mais renvoie à l'entrée correspondant à cette
valeur dans une table (ou palette) de couleurs appelée look-up table (ou LUT en anglais), dans
laquelle on dispose de la représentation complète de la couleur considérée.
Le modèle RVB représentant toutes les couleurs par l’addition de trois composantes
fondamentales, n’est pas le seul possible. Il en existe de nombreux autres. L’un d’eux est
particulièrement important. Il consiste à séparer les informations de couleurs (chrominance) et
les informations d’intensité lumineuse (luminance). Il s’agit du principe employé pour les
enregistrements vidéo. La chrominance est représentée par deux valeurs (selon des modèles
divers) et la luminance par une valeur.
TIFF :
Le TIFF pour (Tagged Image File Format) a été mis au point en 1987.Le format TIFF est un
ancien format graphique, permettant de stocker des images bitmap (raster) de taille importante
(plus de 4 Go compressées), sans perdition de qualité et indépendamment des plateformes ou
~9~
CHAPITRE I LA COMPRESSION D’IMAGE
des périphériques utilisés (Device-Independant Bitmap, noté DIB). Il supporte différents types
de compression autant avec que sans perte de données.
Le format TIFF permet de stocker des images en noir et blanc, en couleurs réelles (True color,
jusqu’à 32 bits par pixels) ainsi que des images indexées, faisant usage d’une palette de
couleurs.
BMP :
Le BMP est un des formats les plus simples développés conjointement par Microsoft et IBM,
ce qui explique qu’il soit particulièrement répandu sur les plateformes Windows et OS/2.C’est
un format ouvert et non compressé. Sa taille rédhibitoire rend son utilisation en ligne difficile,
mais sa grande compatibilité en fait un format de travail efficace. En BMP la couleur est codé
en RGB (synthèse additive), le format lui-même supportant la palette 256 couleurs que le
«true color».
JPEG :
Ce format est l’un des plus complexes, son étude complète nécessite de solides bases
mathématiques, cependant malgré une certaine dégradation il offre des taux de compressions
plus qu’intéressants.
JPEG est la norme internationale (ISO 10918-1) relative à la compression d’images fixes,
notamment aux images photographiques. La méthode de compression est ”avec pertes” et
s’appuie sur l’algorithme de transformée en cosinus discrète DCT. Un mode ”sans perte” a
ensuite été développé mais n’a jamais été vraiment utilisé. Cette norme de compression a été
développée par le comité JPEG (Joint Photographic Experts Group) et normalisée par
l’ISO/JTC1 SC29. Ce type de compression est très utilisé pour les photographies, car il est
inspiré des caractéristiques de perception visuelles de l’œil humain.
Le JPEG2000 est la norme internationale (ISO 15444-1). Elle apporte quelques améliorations
au JPEG classique et notamment permet un réglage autorisant une compression sans perte ou
encore la résistance aux erreurs de transmission. JPEG2000 est relative à la compression
d’images qui s’appuie sur un mécanisme de compression par ondelettes.
GIF :GIF (Graphic Information Format) est un format léger qui peut également contenir
desanimations. Une image GIF ne peut contenir que 2, 4, 8, 16, 32, 64, 128 ou 256 couleurs
parmi 16.8 millions dans sa palette en mode RGB. Elle supporte également une couleur de
transparence.
~ 10 ~
CHAPITRE I LA COMPRESSION D’IMAGE
PNG et MNG :Le PNG pour Portable Network Graphic(ISO 15948) a été développé par
le W3C pour remplacer le GIF. Il surpasse ce dernier en ce qu’il n’est notamment pas limité à
256couleurs. De même, le format est ouvert et permet une bonne compression sans perte. Son
utilisation est recommandée à l’instar du GIF pour les petits logos. Coté photo, s’il permet
une compression sans perte, le poids de la photo n’est pas compétitif avec les formats JPEG.
Précisons que le PNG ne gère pas l’animation mais un format dérivé, le MNG, y est destiné.
Les images numériques sont des fichiers volumineux qui occupent beaucoup d'espace
sur disque ou allongent considérablement les temps de transmission sur réseau. La
compression d'images permet de réduire énormément la taille des images.
Le rapport de compression est l'une des caractéristiques les plus importantes de toutes
les méthodes de compression.Il représente le rapport entre le nombre de bits de la forme
canonique au nombre de bits après codage :
~ 11 ~
CHAPITRE I LA COMPRESSION D’IMAGE
1
𝑇𝑐 = 𝑡𝑎𝑢𝑥𝑐 = (1 − ) ∗ 100
𝑟𝑎𝑝𝑝𝑜𝑟𝑡 𝑑𝑒 𝑐𝑜𝑚𝑝𝑟𝑒𝑠𝑠𝑖𝑜𝑛
Cela indique : Qu'un fichier compressé indique à sa taille originale aura un taux de
compression de 0 %. Un fichier réduit à 0 octet, aura un taux de compression de 100%.
I-7-4-2. Entropie :
L'entropie H(S) d'une source simple [S]N associée à une loi de probabilité [P]N est
définie selon la formule suivante :
𝑁
Dans une image, l’entropie est une grandeur qui caractérise la qualité de l’information
que contient cette dernière. Par exemple, une image dont tous les pixels ont la même valeur
contient très peu d’information car elle est extrêmement redondante, son entropie est faible.
En revanche, une image dont tous les pixels ont une valeur aléatoire contient beaucoup
d’information, son entropie est forte.
Avec : P(k) est la probabilité d’apparition des niveaux de gris dans l’image, k est la valeur de
gris et R est le nombre de bits par pixels.
L’entropie H0 d’une image originale fournit le débit minimal qu’il est possible
d’atteindre par compression, pixel par pixel sans dégrader l’image, et par la même, un taux de
compression sans perte maximal.
I-7-4-3.Mesure de distorsion :
Etant donnée une image originale composée de pixels ai(i=1, ..., N)et l'image décodée
composée de pixels a’i(i=1, ..., N).
~ 12 ~
CHAPITRE I LA COMPRESSION D’IMAGE
(2ᴿ − 1)²
𝑃𝑆𝑁𝑅 = 10𝑙𝑜𝑔10
𝑀𝑆𝐸
En compression d'images, le PSNR d'une image de taille 512 par 512 pixels, chaque
pixel est codé sur 8 bits est défini par:
(255)²
𝑃𝑆𝑁𝑅 = 10𝑙𝑜𝑔10
𝑀𝑆𝐸
I-8.Conclusion :
Dans ce chapitre, nous avons présenté les généralités et les notions de base des images
numériques d’une manière générale. Nous nous sommes intéressés aux terminologies et aux
notions pertinentes dans le domaine des images numériques, Nous avons également présenté
la nécessité de compresser des images ainsi que quelques formats classiques de compressions.
Le but du chapitre suivant est d’aller plus loin dans la compression en utilisant la méthode
SVD et NMF.
~ 13 ~
CHAPITRE II LA DECOMPOSITION EN VALEURS SINGULIERES(SVD)
CHAPITRE II:
La Décomposition En
Valeurs Singulières
~ 14 ~
CHAPITRE II LA DECOMPOSITION EN VALEURS SINGULIERES(SVD)
II-1.Introduction :
La décomposition en valeurs singulières généralise la notion de valeurs propres aux
matrices rectangulaires. C’est un outil de factorisation de telles matrices, et peut être vu
comme le procédée de diagonalisation pour les matrices carrées. Nous utiliserons dans toute
la suite de ce document le sigle SVD pour parler de la décomposition en valeurs singulières
(Singular Values Decomposition pour les anglophones, acronyme largement répandu). Bien
que la SVD s’applique aussi bien aux matrices réelles que complexes, nous ne traiterons
qu’avec des matrices à coefficients réels qui sont celles rencontrées dans les divers champs
d’application de ce calcul de SVD. Néanmoins, tout théorème ou définition générale liée à la
SVD sera énoncé au sens large, et donc pour des matrices à coefficients complexes.
La réduction de matrices rectangulaires par le calcul de la SVD est assez classique
dans la littérature d’aujourd’hui, puisque traitée depuis le milieu des années 1960 par
l’informaticien Gene Howard Golub (auteur du très bon livre Matrix Computations[19]) et le
mathématicien William Morton Kahan, qui proposent en 1965 le premier algorithme pour
calculer la SVD. Cependant, le procédé d’approximation de rang faible consistant au calcul
d’une SVD tronquée, bien connu également au 20èmesiècle, permet plus récemment de fournir
des résultats en analyse de données avec par exemple la complétion de matrices aux données
manquantes. Ce travail qui revient à résoudre un problème d’optimisation convexe est plutôt à
la mode depuis le début des années 2000.
La compression d’images numériques a connu une évolution incessante,parallèlement
à celle des télécommunications et du multimédia, depuis les années 60.Elle permet de réduire
la taille d’une image dans le but d’augmenter la capacité des supports de stockages (limités en
capacité) et d’optimiser l’utilisation de la bande passante d’un réseau. Depuis la normalisation
de l’algorithme JPEG basé sur la transformée en cosinus discrète, le volume des données
multimédias (son, image, vidéo, etc.) n’a cessé d’augmenter. La norme JPEG2000 basée sur
la transformée par ondelettes a permis d’augmenter le taux de compression des images avec
une qualité supérieure à celle de JPEG.
La SV consistedécomposer une matrice en un produit de 3 matrices U, S et V(Sest
appelée matrice desvaleurs singulières). Chen ainsi qu’Abrahamsen [1]ont déjà proposé une
méthodesimple de compression d’images à niveaux de gris ne retenant que les k
premièresvaleurs singulières. Des améliorations ont été proposées en utilisant l’algorithme
SVD standard. D’autres applications de la décomposition en valeurs singulières comme la
compression et la reconnaissance faciale ont montré que la SVDestutilisée dans plusieurs
domaines de l’imagerie. En ce qui concerne les images encouleurs, Adams et Cooper[17]ont
proposé une méthode qui applique lacompression SVDà chaque composante R, V et B.
Une matrice est un tableau de nombres dont il est parfois difficile d'extraire les
caractéristiques intéressantes pour résoudre un problème donné. Une stratégie efficace pour
mettre en évidence les propriétés d'une matrice est de la décomposer (ou factoriser) en un
~ 15 ~
CHAPITRE II LA DECOMPOSITION EN VALEURS SINGULIERES (SVD)
produit de matrices plus simples et dont les caractéristiques sont clairement identifiables et
interprétables. La factorisation la plus générale, et peut-être la plus utile, est la SVD.
Le traitement d'image est une forme de traitement d'information, dans lequel l'entrée
est une image.Le traitement des images étudie comment transformer,stocker, récupérer
l'image. Image digitale,le traitement est l'utilisation d'algorithmes informatiques poureffectuer
un traitement d'image sur des images numériques.Beaucoup de techniques de traitement
d'imageont été développées avec des applications comme le traitement d’mage satellitaire à
satelliteimagerie, l’imagerie médicale, la reconnaissance d'objets,et l’amélioration de la photo.
Avec la disponibilité d'ordinateurs et de processeurs rapides pour le traitement de signal dans
lesannées 2000, le traitement numérique des images est devenula forme la plus courante de
traitement d'image,et est généralement utilisé parce que ce n’est pas seulement laméthode la
plus polyvalente, mais aussi la moins chère.
II-2-1. Principe :
L’idée essentielle de la SVD est de décomposer la matrice de données en trois
matrices simples : deux orthogonales et une diagonale. Du fait qu’elle produise une estimation
aux moindres carrés de la matrice de données de même dimension et d’un rang inférieur.
L’un des avantages de la SVD est son pouvoir de réduction des données après leur
blanchissement. En effet, cette technique fournit une description plus compacte des données
contenues dans une matrice, exprimée par les premiers modes statistiques. Elle peut être
considérée comme une méthode permettant de construire une partition de la variance d’une
base de données, c’est à dire qu’elle fournit la base orthogonale qui maximise la variance au
sens des moindres carrés.
La décomposition en valeurs singulières utilise la décomposition en valeurs propres
d’une matrice semi définie positive obtenue par la multiplication d’une matrice par sa
transposée, pour dériver une décomposition similaire applicable à toutes les matrices
rectangulaires composées de nombres réels.
𝑖=1
~ 16 ~
CHAPITRE II LA DECOMPOSITION EN VALEURS SINGULIERES (SVD)
Où S est une matrice diagonale dont lesr-premiers termes diagonaux sont positifs, tous
les autres étant nuls. Les r-termes σ𝑖 non nuls sont appelés valeurs singulières (SV) de A.
II-2-2. La décomposition :
Formellement, si A est une matrice rectangulaire, son SVD la décompose comme suit :
𝐴 = 𝑈𝑆𝑉 𝑇
U est la matrice des vecteurs propres normalisés de la matrice 𝐴𝐴ᵀ, c'est-à-dire 𝑈ᵀ 𝑈 = 𝐼.
Les colonnes de 𝑆 sont appelées les vecteurs singuliers gauches de𝐴.
𝑉 est la matrice des vecteurs propres normalisés de la matrice 𝐴𝑇 𝐴,c'est-à-dire 𝑉ᵀ𝑉 = 𝐼.
Les colonnes de 𝑉 sont appelées les vecteurs singuliers droits de𝐴.
𝑆est la matrice diagonale des valeurs singulières.
~ 17 ~
CHAPITRE II LA DECOMPOSITION EN VALEURS SINGULIERES (SVD)
Ici, 𝑆(𝑚 ×𝑛) est une matrice diagonale avec les valeurs singulières (SV) sur la diagonale.
La matrice 𝑆 peut être montrée dans la suite
σ1 0⋯ 0
𝑆= [⋮ σ2 ⋱ ⋮] (1.6)
0 0⋯ σn
~ 18 ~
CHAPITRE II LA DECOMPOSITION EN VALEURS SINGULIERES (SVD)
Puisque 𝐴ᵀ𝐴 =𝑉𝑆ᵀ𝑆𝑉ᵀ, donc 𝑉 diagonalise 𝐴ᵀ𝐴, il s’ensuit que les 𝑣𝑗 sont les vecteurs
propres de𝐴ᵀ𝐴.
Puisque 𝐴𝐴ᵀ = 𝑈𝑆𝑆ᵀ𝑈ᵀ,il en résulte que 𝑈diagonalise 𝐴𝐴ᵀ et que les 𝑢𝑗 sont les
vecteurs propres de𝐴𝐴ᵀ.
Le rang de la matrice 𝐴 est égal aunombre de ses valeurs singulières non nulles.
La norme L2 et la norme de Frobenius d’une matrice 𝐴 ∈ 𝑅 𝑚𝑥𝑛 de rang rsont
données respectivement par :
‖𝐴‖2 = 𝜎1 , (1.8)
𝑒𝑡
1
‖𝐴‖𝐹 = (∑𝑟𝑖=1 𝜎𝑖2 )2 , (1.9)
Si Aest de rang r, alorsV.1 , V.2 , . . . , V.r forment une base orthonormale pour l’espace
Im(𝐴ᵀ)et U.1 , U.2 , . . . , U.r forment une base orthonormale pour l’espace Im(A).
Le rang de la matrice A est égal au nombre de ses valeurs singulières non nulles [27].
168.3242 0 0
𝐴𝑇 𝐴 = 𝑉 [ 0 10.6758 0] 𝑉 𝑇
0 0 0
Où
−0.3024 0.9485 0.0944
𝑉 = [−0.7846 −0.1915 −0.5897] = [𝑣1 𝑣2 𝑣3]
−0.5412 −0.2524 0.8021
~ 19 ~
CHAPITRE II LA DECOMPOSITION EN VALEURS SINGULIERES (SVD)
−12.5420 −0.8361 0
𝐴=[ ]
−3.3201 3.1586 0
Donc
1 −12.5420 −0.9667 1 −0.8361 −0.2559
𝑢1 = 12.9740 [ ]= [ ] , 𝑢2 = 3.2674 [ ]= [ ]
−3.3201 −0.2559 3.1586 −0.9667
Et
−0.9667 −0.2559
𝑈 = [𝑢1 𝑢2 ] = [ ]
−02559 −0.9667
La propriété de SVD dit « Lerang de la matrice 𝐴 est égal au nombre de ses valeurs
singulières non nulles ». Dans de nombreuses applications, les valeurs singulières d'une
matrice diminuent rapidement avec un rang croissant. Cette propriété nous permet de réduire
le bruit ou compresser les données de la matrice en éliminant les petites valeurs singulières ou
les rangs plus élevés.
Quand une image est transformée en SVD, ce n’est pas compressé, mais les données
prennent une forme dans laquelle la première valeur singulière a une grande quantité
d’informations sur l'image. Avec cela, nous ne pouvons utiliser que quelques valeurs
singulières pour représenter l'image avec de petites différences par rapport à l'originale.
Pour compresser une image par SVD, nous montrons les procédures de détail :
𝑛
~ 20 ~
CHAPITRE II LA DECOMPOSITION EN VALEURS SINGULIERES (SVD)
Le nombre entier 𝑘peut être choisi moins que 𝑛 et l'image numérique correspondante reste
très proche de l'image originale.
~ 21 ~
CHAPITRE II LA DECOMPOSITION EN VALEURS SINGULIERES (SVD)
Dans ce cas, nous avons défini la matrice A en tant qu’ensemble des visages
connus.Supposons que chaque image de visage a 𝑚 × 𝑛 = 𝑀pixels et qu’elle est représentée
par un 𝑀 × 1 vecteur colonne𝑓𝑖 . Un ensemble S de N images de visages d’individus
connusforme une matrice 𝑀 × 𝑁 :
𝑆 = [𝑓1, 𝑓2, 𝑓3, … … … , 𝑓𝑁]
1
𝑓 ̅ = 𝑁 ∑𝑁
𝑖=1 𝑓𝑖 (1.12)
~ 22 ~
CHAPITRE II LA DECOMPOSITION EN VALEURS SINGULIERES (SVD)
Si 𝜀𝑓 est supérieur à un seuil prédéfini𝜀1 , alors 𝑓 n'est pas une image de visage.
Les 5 étapes peuvent être répétées. Cela peut mettre à jour le système avec plus d’instancesde
visages connus.
~ 23 ~
CHAPITRE II LA DECOMPOSITION EN VALEURS SINGULIERES (SVD)
Non Appartient
à S?
Oui
Calculer le visage Moyen f ̅
Ai = f − f,̅ créer A
Calculez le SVD de A
Calculer fp
𝜀𝑓 =‖𝑓 − 𝑓𝑝 ‖2
Oui
𝜀𝑖 =‖𝑋 − 𝑋𝑖 ‖2
Non ∀ 𝑖 𝜀𝑖 ≤ 𝜀0 Visage ∉ S
Oui
Visage ∈ S
~ 24 ~
CHAPITRE II LA DECOMPOSITION EN VALEURS SINGULIERES (SVD)
II-5.Conclusion :
~ 25 ~
CHAPITRE III FACTORISATION MATRICIELLE NON NEGATIVE (NMF)
CHAPITRE III:
Factorisation
Matricielle Non
Négative (NMF)
~ 26 ~
CHAPITRE III FACTORISATION MATRICIELLE NON NEGATIVE (NMF)
III-1.Introduction :
Le principe de la factorisation en SVD d’une matrice est largement utilisé en analyse
en composantes principales (ACP) qui utilise la décomposition en valeurs singulières de la
matrice X (SVD) pour construire des facteurs orthogonaux deux à deux. Paatero et Tapper
(1994)[21] puis Lee et Seung (1999)[8] ont proposé une autre décomposition sans contrainte
d’orthogonalité mais avec celle de non-négativité des matrices des facteurs afin d’en
simplifier l’interprétation et sur la base d’une motivation “neuronale” : les neurones ne
fonctionnent que de façon additive, pas soustractive.
Cette technique a depuis été largement utilisée dans de très nombreux domaines :
imagerie, reconnaissance de formes, fouille de textes, systèmes de recommandations,
génomique, avec pour objectif d’étudier la structure des très grandes matrices creuses.
La bibliographie s’est donc largement développée autour de ce thème en proposant
différentes versions de l’algorithme avec différentes initialisations et contraintes, par exemple
de parcimonie, dont certaines parallélisables, et tout un ensemble d’applications.
La NMF est donc une technique de réduction de dimension adaptée aux matrices
creuses contenant des données positives, par exemple des occurrences ou dénombrements de
mots, de pannes... La méthode est donc plus adaptée à certaines situations que la SVD mais
cela a un prix.
La complexité algorithmique de la SVD est polynomiale de l’ordre du produit n × p
des dimensions de la matrice. La complexité de la NMF est un problème non NP difficile;
l’existence d’un algorithme de complexité polynomiale est inconnue. En revanche, il existe
des approches itératives efficaces mais convergeant vers une solution locale sauf dans des cas
très spécifiques (Donoho et Stodden, 2003)[9] ; contrairement à la SVD qui conduit à une
solution unique (vecteurs propres et valeurs propres d’une matrice).
Lee et Seung (1999) illustre cette méthode sur la classification d’un corpus de 30991
articles de l’encyclopédie Grolier. Plutôt que de classer ces articles par thèmes choisis a
priori, ils sont classés sur la base d’un vocabulaire de 15276 mots. Chaque article se
décompose (coefficients positifs), en principe parcimonieusement, sur des “facteurs” ou
thèmes, eux-mêmes définis chacun par un sous-ensemble petit, jugé “pertinent”, de ces mots.
En traitement d’images, un corpus se classifie à partir de facteurs ou motifs élémentaires
d’images, en génomique par rapport à des “métagènes”. L’approche non supervisée est ainsi
susceptible de révéler des structures cachées ou des tendances sans a priori.
~ 27 ~
CHAPITRE III FACTORISATION MATRICIELLE NON NEGATIVE (NMF)
Par ailleurs, les facteurs de décomposition n’étant pas orthogonaux, des superpositions
apparaissent : des mêmes mots participants à plusieurs thèmes, des gènes à plusieurs
fonctions.
𝑋 ≈ 𝑊𝐻
Le choix du rang de factorisation 𝑟 << min( 𝑛, 𝑝 )assure une réduction drastique de
dimension et donc des représentations parcimonieuses. Évidemment,la qualité
d’approximation dépend de la parcimonie de la matrice initiale.
~ 28 ~
CHAPITRE III FACTORISATION MATRICIELLE NON NEGATIVE (NMF)
N.B. Non seulement la solution est locale car la fonction objectif n’est pasconvexe en 𝑊et
𝐻 mais en plus la solution n’est pas unique. Toute matrice𝐷𝑟∗𝑟 non négative et inversible
fournit des solutions équivalentes en termesd’ajustement :
𝑋 ≈ 𝑊𝐷𝐷−1 𝐻
Une fois la factorisation construite, il est ensuite facile d’utiliser ces matricesW et H
pour construire des classifications (CAH, k-means), représentations(ACP, MDS), et
prévisions à l’aide d’une des nombreuses méthodesd’apprentissage.
L’algorithme le plus populaire pour le problème NMF sont les règles multiplicatives
(Algorithme1) suggérées par Lee et Seung.
Pour formuler ces règles, nous choisissons de fixer l’un des facteurs (c’est-à-dire U ou
V)et essayons de minimiser la fonction de coût par rapport à l’autre facteur. Le
développementsuivant montre comment formuler la règle de mise à jour pour V. Nous
supposons d’abordque U et V sont positifs et nous y reviendrons plus tard.
Puisque la fonction de coût peut être découplée comme suit :
𝑛
1 1
‖𝐴 − 𝑈𝑉 𝑇 ‖2𝐹 = ∑‖𝐴:𝑖 – 𝑈(𝑉:𝑖 )𝑇 ‖22
2 2
𝑖=1
~ 29 ~
CHAPITRE III FACTORISATION MATRICIELLE NON NEGATIVE (NMF)
1
min 𝐹(𝑣) 𝑜ù 𝐹(𝑣) = 2
‖𝑎 − 𝑈𝑣‖22(3.1)
𝑣≥0
1
min 𝐹̅ (𝑣) = min [‖𝑎 − 𝑈𝑣‖22 + (𝑣 − 𝑣̅ )𝑇 𝐻𝑣̅ (𝑣 − 𝑣̅ )]
𝑣≥0 𝑣≥0 2
UT Uv
Où Hv̅ = Dx − U T U avec x = [v
̅]
Parce que nous pouvons prouver la semi-définitivité
positive de Hv̅ , nous avons F̅(v) ≤ F(v) pour tout v et surtout F̅ (v) ̅ = F(v̅). De plus, la
fonction est également convexe. Nous fixons la dérivée de F̅(v) à zéro, c'est-à-dire :
∇𝑣 𝐹̅ = 𝑈 𝑇 𝑈𝑣 − 𝑈 𝑇 𝑎 + 𝐻𝑣̅ (𝑣 − 𝑣̅ ) = 0
(𝑈 𝑇 𝑈 + 𝐹𝑣̅ )𝑣 ∗ = 𝑈 𝑇 𝑎 − 𝐻𝑣̅ 𝑣̅
[𝑈 𝑇 𝑎]
𝑣 ∗ = 𝑣̅ 𝜊 [𝑈 𝑇 𝑈 (3.2)
̅]
𝑣
~ 30 ~
CHAPITRE III FACTORISATION MATRICIELLE NON NEGATIVE (NMF)
Ou nous avons une descente sur la fonction de coût. Ceci peut être résumé à la
(FIGUREIII-1) La fonction 𝐹̅ est généralement appelée fonction auxiliaire.
La résolution pour toutes les lignes de V donne la règle de mise à jour souhaitée
pourV. La règle de mise à jour pour U peut être dérivée de la même manière. Et ces mises
àjour sont les deux étapes alternées de l’algorithme 1.
Le terme supplémentaire dans (3.7) peut également être considéré comme une
fonctionde pénalité pour : empêcher l’annulation de la solution. De plus, la matrice 𝐷𝑥 −
[𝑈 𝑇 𝑈𝑣̅ ]
𝑈 𝑇 𝑈avec𝑥 = peut être vue comme une approximation de lamatrice hessienne 𝑈 𝑇 𝑈.
[𝑣̅ ]
1: Initialiser 𝑈 0 , 𝑉 0 et k = 0
2: repeat
[𝐴𝑉 𝑘 ]
3: 𝑈 𝑘+1 = 𝑈 𝑘 𝜊 [𝑈 𝐾(𝑉 𝑘 )𝑇 𝑉 𝐾]
[𝐴𝑡 𝑈 𝑘+1 ]
4: 𝑉 𝑘+1 = 𝑉 𝑘 𝜊 [𝑉 𝐾 (𝑈 𝑘+1 )𝑇 𝑈 𝐾+1 ]
5: k = k +1
6: until Condition d’arrêt
~ 31 ~
CHAPITRE III FACTORISATION MATRICIELLE NON NEGATIVE (NMF)
Initialiser U et V
repeat
2 : Résoudre :
1
min ‖𝐴 − 𝑈𝑉 𝑡 ‖2𝐹 (3.3)
𝑉≥0 2
4 : Résoudre :
1
min ‖𝐴𝑡 − 𝑉𝑈 𝑡 ‖2𝐹 (3.4)
𝑈≥0 2
Until Condition d’arrêt
Initialiser U et V
repeat
Mais même avec l’implémentation rapide de ces algorithmes, ils ne peuvent pas
correspondreaux autres méthodes en termes de temps d’exécution. Une modification a été
faiteen remplaçant une solution exacte du problème desmoindres carrés non négatifs par la
projectionde la solution du problème des moindres carrés non contrainte dans l’orthant
nonnégatif [12] comme dans l’algorithme 3. Ceci accélère l’algorithme en sacrifiant la
propriété de convergence. La (figure III.2) est un exemple typique de la convergence des
moindres carrésen alternance et des moindres carrés en alternance inexacts. On peut voir que
même si le premier effectue toujours une mise à jour en descente, le dernier ne le fait pas. La
méthodeexacte produit également de meilleures erreurs d’approximation. Mais avec le
mêmenombre d’itérations, il passe beaucoup plus de temps que la version inexacte (3.435s
contre0.02s). Notez que le solveur du problème des moindres carrés non négatifs dans cet
exempleest la fonction standard de Matlab, ‘lsqnonneg’ . Pour un solveur plus rapide tel que
[25], ilest rapporté que la méthode exacte est encore loin derrière en terme de temps
d’exécution.En pratique, les moindres carrés alternés exacts sont rarement utilisés car ils sont
très inefficaces.Et sa version inexacte ne converge généralement pas vers un point
stationnaire. Il estsuggéré d’utiliser la version inexacte comme phase d’initialisation d’un
algorithme hybride[20].
~ 32 ~
Error
Itérations
FIGURE III-2– Alternance des moindres carrés (ALS) vs Inexact Alternance des moindres
carrés (IALS)
𝑓𝑖 = 𝑊ℎ𝑖 (3.5)
~ 33 ~
CHAPITRE III FACTORISATION MATRICIELLE NON NEGATIVE (NMF)
Une fois formé, l'ensemble des images de visage, {𝑓1 , 𝑓2 , … … 𝑓𝑚 }est représenté par un
ensemble de codages {ℎ1 , ℎ2 , … … ℎ𝑚 } de dimension réduite, r.
III-6-2. Le test :
Soit une image de face moyenne f, nous pouvons trouver un codage représentatif de f
comme suit:
ℎ = 𝑊 −1 𝑓
La (FIGUREIII-3) illustre un codage d'un visage lorsque le rang est égal à 64. Une
métrique de distance est utilisée pour calculer la similarité entre les codages d'une image
d’apprentissage ℎ𝑖 ∈ Γ 𝑇𝑟𝑎𝑖𝑛 et d'une image test h ∈ Γ 𝑇𝑒𝑠𝑡 . Le cosinus de l'angle entre les deux
vecteurs de données est pris comme mesure de similarité:
ℎ.ℎ
𝑆𝑖 = ‖ℎ‖.‖ℎ𝑖 ‖ (3.6)
𝑖
~ 34 ~
CHAPITREIII FACTORISATION MATRICIELLE NON NEGATIVE (NMF)
4. Soit une image de face moyenne f (image test), nous pouvons trouver un codage
représentatif de f comme suit:ℎ = (𝑊 ′ ∗ 𝑊)−1 𝑊′𝑓
5. calculer la similarité entre les codages d'une image d’apprentissage ℎ𝑖 ∈Γ 𝑇𝑟𝑎𝑖𝑛 et d'une
image test h∈Γ 𝑇𝑒𝑠𝑡 . Le cosinus de l'angle entre les deux vecteurs de données est pris comme
ℎ.ℎ
mesure de similarité:𝑆𝑖 = ‖ℎ‖.‖ℎ𝑖 ‖
𝑖
6. on a :𝑖 ∗ = arg max 𝑆𝑖
𝑖
7. et :𝑆𝑖∗ >e1 indiquant que le visage 𝑓𝑖∗ est identifié comme la correspondance la plus proche
pour le visage f. Par conséquent, la meilleure image formée qui convient pour une image de
test donnée est celle qui maximise 𝑆𝑖 , à condition que le score soit supérieur à un seuil, e1. S'il
n'y a pas de valeur ℎ𝑖 ∗ pour laquelle le score est supérieur au seuil, l'image est rejetée.
L’organigramme de la reconnaissance faciale avec NMF est présenté dans la figure ci-
dessous.
~ 35 ~
CHAPITRE IV :CONCEPTION ET IMPLEMENTATION
Non
appartient
à F?
Oui
Calculer ℎ𝑖 = [𝑊 𝑇 𝑊]−1 𝑊 𝑇 𝑓𝑖
Calculer ℎ = [𝑊 𝑇 𝑊]−1 𝑊 𝑇 𝑓
ℎ. ℎ𝑖
𝑆𝑖 =
‖ℎ‖. ‖ℎ𝑖 ‖
𝑖 ∗ = arg max 𝑆𝑖
𝑖
𝑖∗
Oui
Visage ∉ F
~ 36 ~
CHAPITREIII FACTORISATION MATRICIELLE NON NEGATIVE (NMF)
III-7-Conclusion :
La factorisation matricielle non négative contient des valeurs positives par contre que
SVD contient des entrées négatives eta donc du mal à interpréter. La factorisation matricielle
non négative (NMF) présente de nombreux avantages par rapport à la normeFactorisation par
SVD. Contrairement aux annulations dues à des entrées négatives dans les facteurs matriciels
en mode SVDfactorisations; la non négativité dans NMF garantit que les facteurs contiennent
des parties cohérentes des données originales (images).
~ 37 ~
CHAPITREIVCONCEPTION ET IMPLEMENTATION
CHAPITRE IV:
Conception Et
Implémentation
~ 38 ~
CHAPITRE IV CONCEPTION ET IMPLEMENTATION
IV-1. Introduction :
Ce chapitre est consacré à la conception et la réalisation d’une application qui met en
œuvre les techniques et algorithmes présentés pour la décompression d’image et la
reconnaissance faciale. La premièrepartie de ce chapitre est une application de la compression
d’image par la méthode SVD etla méthode NMF. La deuxième partie est dédiée à
l'implémentation des applications de la reconnaissance faciale avec les deux méthodes (SVD
et NMF) ainsi qu’une comparaison des méthodes. Nous présenterons également les
environnements matériel et logiciel qui ont été utilisés dans la réalisation de cette application.
IV-2.Bases de données :
Il y a plusieurs bases de donnéescontenant des informations qui permettent
l’évaluation des systèmes de reconnaissance de visages. Toutefois, ces bases de données sont
généralement adaptéesaux besoins de quelques algorithmes spécifiques de reconnaissance,
chacune d’elle a étéconstruite avec des conditions d’acquisition d’images de visages diverses
(changements d’illumination,de pose, d’expressions faciales) ainsi que le nombre de sessions
pour chaque individu.
Les bases ORL et YALE ([10],[23]) ont été les plus utilisées et ont permis de
comparer plusieursméthodes de l’état de l’art. Cependant, d’autres bases de visages sont
disponibles et destinéesà des évaluations adaptées à certaines variabilités du visage telles que
les bases (Color FERET,FRGC, CVL, AR et IV2).
La base de données ORL a été élaborée entre avril 1992 et 1994 par le Laboratoire
AT&T à l’université de Cambridge en Angleterre [10]. La base de données contient les
visagesde 40 personnes voir (FIGURE IV-1), chacune étant enregistrée dans 10 vues
différentes commele montre la (FIGUREIV-2). Les images sont à niveau de gris et de 112 ×
92 pixels (92 pixels decolonne, 112 pixels de ligne). Pour certains sujets, les images ont été
collectées à des datesdifférentes et avec des variations dans les conditions d’éclairage, les
expressions faciales etpar port des lunettes. Toutes les images ont été recueillies sur un fond
sombre. Les formes detête ont quelques différences de profondeur par rapport à la position
frontale. Cependant,ces différences ne concernent que des personnes spécifiques et sont donc
irrégulières.
~ 39 ~
CHAPITRE IV CONCEPTION ET IMPLEMENTATION
~ 40 ~
CHAPITRE IV CONCEPTION ET IMPLEMENTATION
~ 41 ~
CHAPITRE IV CONCEPTION ET IMPLEMENTATION
~ 42 ~
CHAPITRE IV CONCEPTION ET IMPLEMENTATION
Image originale
Figure IV-5. Exemples d'images utilisées pour testerla Compression d’image par SVD
La figure IV-5montre les résultats obtenus en compressant l'image d'origine avec SVD
avec différentes valeurs de K.
Nous avons trouvé quand (𝑘1 ≤ 25), les images sont floueset avec l'augmentation des
valeurs singulières on a une meilleure approche de l'image originale.
~ 43 ~
CHAPITRE IV CONCEPTION ET IMPLEMENTATION
Cette étude nous montre que les valeurs singulières contiennent les informations de l’image.
Cependant les valeurs singulières de faible amplitude contiennent peu d’information et
leurinfluence n’est visible que si on en omet un grand nombre. Dans ce cas, la présence des
valeurs singulières à forte amplitude permet la bonne compréhension de l’image.
Avec les résultats de tableau IV-1, nous avons les observations suivantes:
En utilisant une petite valeur singulière (plus petite K), le meilleur taux de
compression est atteint.
~ 44 ~
CHAPITRE IV CONCEPTION ET IMPLEMENTATION
Cependant, la valeur la plus singulière est utilisée(plus grand K), mesure de qualité
MSE estplus petit (meilleure qualité d'image), et les images reconstruites sont plus
égaux àl'original, mais en utilisant plus de stockageespace.
Pour l’image testée, l’acceptablela qualité d'image est d'environ k = 25, etLe taux de
compression est CR = 2.01.
L'image se rapproche de l'image d'origine lorsquek = 40. À ce stade, CR = 1,26
etMSE = 9,07.
Les résultats obtenus par la méthode de décomposition en valeurs singulières sont plus
ou moins satisfaisants. Certes,il est toujours possible de récupérer une image assez proche de
l’originale, mais pour cela il faut jouer sur le nombre de valeurs singulières conservées ; si on
prend en considération un nombre plus restreint de valeurs singulièresil faut alors envisager
l'utilisation d'une autre méthode.
~ 45 ~
CHAPITRE IV CONCEPTION ET IMPLEMENTATION
Image originale
Figure IV-7 : Exemples d'images utilisées pour testerla Compression d’image par NMF
La figure IV-7 montre les résultats obtenus en compressant l'image d'origine avec
NMF avec différentes valeurs de rang K.À travers les résultats obtenus, nous notons que
lorsque la valeur de K est petite,l'image compressée est plus proche de l'image d'origine.
~ 46 ~
CHAPITRE IV CONCEPTION ET IMPLEMENTATION
Espace de
K CR MSE
Stockage
~ 47 ~
CHAPITRE IV CONCEPTION ET IMPLEMENTATION
Avec les résultats de tableau IV-1, nous avons les observations suivantes :
En utilisant une valeur de K moins (plus petit K), le meilleur taux de compression est
atteint.
Cependant, la valeur de K est utilisée (plus petit K), mesure de qualité MSE est plus
petit (meilleure qualité d'image), et les images reconstruites sont plus égaux à
l'original, mais en utilisant moins d’espace de stockage.
Pour l’image testée, l’acceptable la qualité d'image est d'environ k = 5, et Le taux de
compression est CR = 10.053
La reconnaissance faciale qui est considérée comme l’un des problèmes les plus
difficiles à résoudre dans le monde. Jusqu'à présent, plusieurs méthodes et approches
sophistiquées ont été développés pour obtenir les meilleurs résultats de reconnaissance en
utilisant des bases de données de visage spécifiques.
~ 48 ~
CHAPITRE IV CONCEPTION ET IMPLEMENTATION
- ̅ S
Calcule le visage moyen 𝑓de
- on a identifier une nouvelle image d’entrée f (image test), calcule les coordonnées de son
vecteur x , la projection vectorielle 𝑓𝑝 et la distance 𝜀𝑓 .
~ 49 ~
CHAPITRE IV CONCEPTION ET IMPLEMENTATION
~ 50 ~
CHAPITRE IV CONCEPTION ET IMPLEMENTATION
~ 51 ~
CHAPITRE IV CONCEPTION ET IMPLEMENTATION
Soit F= {𝑓1 , 𝑓2 , … . , 𝑓𝑚 } ensemble d’apprentissage avec N=40 images (nombres des individus
de taille 112*92=10304 pixels.différentsConditions: toute inclinaison frontale et légère de la
tête,différentes expressions faciales.
Pour chaque face 𝑓𝑖 de l'ensemble d'apprentissage et de l'ensemble de teste, nous calculons les
coefficients de codage correspondants. Les images de base en W sont générées à partir de
l'ensemble des faces d'apprentissage Γ 𝑡𝑟𝑎𝑖𝑛 . Les encodages, ℎ𝑖 de chaque visage
d’apprentissage 𝑓𝑖 est donné par :
𝑓𝑖 = 𝑊ℎ𝑖 alors ℎ𝑖 = 𝑊 −1 𝑓𝑖 = (𝑊 𝑇 ∗ 𝑊)\(𝑊 𝑇 *𝑓𝑖 )
~ 52 ~
CHAPITRE IV CONCEPTION ET IMPLEMENTATION
On calcule :
ℎ. ℎ𝑖
𝑆𝑖 =
‖ℎ‖. ‖ℎ𝑖 ‖
~ 53 ~
CHAPITRE IV CONCEPTION ET IMPLEMENTATION
~ 54 ~
CHAPITRE IV CONCEPTION ET IMPLEMENTATION
IV-7-Conclusion :
~ 55 ~
CONCLUSION GE NERALE
Conclusion générale :
Au bout de ce projet, nous avons pu implémenter les techniques SVD et NMF pour la
compression d’image et la reconnaissance faciale. Des expériences ont été menées sur les
bases de données d’images ORL et YALE. Les résultats obtenus confirment l’intérêt des
recherches récentes en ces deux méthodes, en particulier dans la reconnaissance faciale. Les
tests menés ont été concluants mais nous pensons qu’il faut aller au-delà de ces tests simples
afin de confirmer les performances des méthodes étudiées dans le cas de bases de données
d’images de grandeur nature.
Ce projet a été une occasion d’apprentissage intense que ce soit sur le plan théorique
que pratique. En effet, la compréhension des méthodes a nécessité une revue intensive des
notions mathématiques sur lesquels sont fondées les deux techniques. Ensuite il fallait mettre
en œuvre les algorithmes en prenant en considération leur caractère numérique. Il est clair que
dans le cas d’algorithmes de calcul numérique il faut faire attention aux problèmes d’erreurs
numériques.
~ 56 ~
BIBILIOGRAPHIE
Références Bibliographiques :
[1] Abriham R. et al, « A Variation on SVD Based Image Compression », Third Workshop on
Computer Vision, Graphics, and Image Processing, 2006, 1-6.
[2] A. L. Yuille, D. S. Cohen, and P.W. Hallinan. (June 1989), Feature Extraction from Faces
Using Deformable Templates, Proc. CVPR, San Diego.
[3] C.-J. Lin. (2007), Projected gradient methods for non-negative matrix factorization,Neural
Computation, To appear.
[4] C.L. Lawson and R.J.Hanson. (1974), Solving least squares problems., Prentice-Hall
Englewood Cliffs, NJ.
[7] Guoliang Zeng. (2006), Face Recognition with Singular Value Decomposition, CISSEl,
Proceeding.
[11] Lee.D.D.,and Seung. H.S. (1999), Learning the parts of objects by nonnegative matrix
factorization., Naturel, , 401 .
[12] M. Cooper and J. Foote. (2002), Summarizing video using non-negative similarity matrix
factorization, In IEEEMultimedia Signal ProcessingWorkshop, 25 – 28.
[13] M.W. Berry, M. Browne, A.N. Langville, V.P. Pauca, and R.J. Plemmons. (2007),
Algorithms and applications for approximate nonnegative matrix factorization.,
Computational[Statistics and Data Analysis, 52(1), 155 – 173.
[14] Matthew A. Turk, Pentland P. Alex. (1991), Face Recognition using Eigenface method,
IEEE Conference on Computer Vision and Pattern Recognition, pages 586 – 591.
[15] Mrak M., Grgic S. and Grgic M. (September 2003), Picture Quality Measures in image
compression systems, IEEE EUROCON, Ljubljana,Eslovenia.
~ 57 ~
BIBILIOGRAPHIE
[16] Nom1. P1., Nom2. P2., and Nom3. P3. (2006), Document clustering using nonnegative
matrix factorization., Information Processing andManagement, 42(2), 373 – 386.
[17] Cooper I., Lorenc C., « Image Compression Using Singular Value Décomposition »,
Collège of the Redwoods, 2006, 1-22.
[18] Guoliang Zeng, “Face Recognition with Singular Value Decomposition”, CISSE
[19] H.Gene Golub et F.Charles Van Loan, Matrix Computations, Third Edition, 1996.
[20] N.-D. Ho, V. Blondel, and P. Van Dooren. (2007), Weighted nonnegative matrix
factorizationand face feature extraction. Submitted to Image and Vision Computing.
[21] Paatero.P and Tapper. U. (1994), Positive matrix factorization : a nonnegative factormodel
with optimal utilization of error estimates of data values,Environmetrics, 5(1),111 – 126.
[22] P. Smaragdis and J.C. Brown. (2003), Non-negative matrix factorization for
polyphonicmusic transcription, IEEEWorkshop on Applications of Signal Processing to
Audioand Acoustics, 177 – 180.
[23] geoghiades.AT.Yale DOT (1997), La base donnée
”YALE”,http://cvc.cs.yale.edu/cvc/projects/yalefaces/yalefaces.html
[24] R. Albright, J. Cox, D. Duling, A.N. Langville, and C.D. Meyer. (2006), Algorithms,
initializations, and convergence for the nonnegative matrix factorization., Preprint
[25] R. Bro and S. De Jong. (1997), A fast non-negativity constrained least squares algorithm.,
Journal of Chemometrics, 11(5) :, pages 393 – 401.
[26] S.Z. Li, X.W. Hou, H.J. Zhang, and Q.S. Cheng. (2001), Learning spatially localized,
parts-based representation, In Proceedings of IEEE Conf. Computer Vision and Pattern
Recognition, 1 – 6.
[27] Steve J. Leon. (1996), Linear Algebra with Applications, Macmillan Publishing Company,
New York.
[28] S.G. Kong, J. Heo, B.R. Abidi, J. Paik, and M. A. Abidi. (2005), Recent advances in
visual and infrared face recognitiona review., Computer Vision and Image
Understanding, 97(1) :, pages 103 – 135.
[29] Smith, Lindsay I. (2002), A Tutorial on Principal Component Analysis, http ://csnet.
otago.ac.nz/cosc453
[30] T. Kanade. (Nov.1973), Picture Processing System by Computer Complex and Recognition
of Human Faces,Department of Information Science, Kyoto University.
~ 58 ~
BIBILIOGRAPHIE
[32] W. Xu, X. Liu, and Y. Gong. (2003), Document clustering based on nonnegative matrix
factorization, In Proceedings of the 26th Annual International ACM SIGIR Conference
on Research andDevelopment in Informaion Retrieval, pages 267–273. ACM
Press New York, NY, USA,
[33] Y. Gao and G. Church (2005), Improving molecular cancer class discovery through
sparse non-negative matrix factorization., Bioinformatics, 21(21), 3970– 3975.
[34] C.F. Van Loan (2000), The ubiquitous Kronecker product., Journal of Computational
and AppliedMathematics, 123(1-2, pages 85 – 100
[35] A. Berman and R.J. Plemmons. (1994), Nonnegative matrices in the mathematical
sciences., Siam.
[36] Topics in matrix analysis. (1991), Cambridge, University Press. viii, 607 p.
~ 59 ~
Annexe
Annexe
Cette partie présente les résultats de base et les concepts utilisés tout au long de cette
thèse. Les résultats connus ne sont indiqués que sans preuve.
Un vecteur de colonne est une matrice d’une seule colonne. De même, un vecteurligne est une
matrice d’une seule ligne. Sauf indication explicite, un vecteur est toujoursun vecteur
colonne. L’ensemble de tous les vecteurs de taille n estℝ𝑛 . Les vecteurs sontdésignés par des
lettres minuscules, sauf lorsqu’ils font partie d’une matrice, comme décritdans le paragraphe
précédent.
On dit qu’une matrice carrée A est symétrique si 𝐴𝑖𝑗 = 𝐴𝑗𝑖 , pour tout i , j . Une matrice
diagonaleDest unematrice carrée comportant des éléments non nuls uniquement sur sa
diagonale principale (c’est-à-dire, 𝐴𝑖𝑗 = 0 pour i≠ j). Nous utilisons D𝑥 pour désigner une
matrice diagonale avec le vecteur x sur sa diagonale principale (c.-à-d. 𝐴𝑖𝑗 = 𝑥𝑖 , i = 1, . . . ,n).
Vecteurs base
𝑇
𝑖 è𝑚𝑒 𝑝𝑜𝑠𝑖𝑡𝑖𝑜𝑛
𝑒𝑖 =(0,0, … …, ⏞
1 , … … .0)
~ 60 ~
Annexe
𝐴:𝑖
𝑣𝑒𝑐(𝐴) = ⋮ ∈ ℝ𝑚×𝑛
⋮
(𝐴:𝑛 )
𝐴11 𝐵 ⋯ 𝐴1𝑛 𝐵
𝐴⊗𝐵 =( ⋮ ⋱ ⋮ )
𝐴𝑚1 𝐵 ⋯ 𝐴𝑚𝑛 𝐵
Une relation importante entre le produit matrice et le produit Kronecker est la suivante
[34] :
𝑣𝑒𝑐(𝐴𝑋𝐵 𝑇 ) =(B⊗ 𝐴)𝑣𝑒𝑐(X)
On écrit 𝐴 < 𝐵 si 𝐴𝑖𝑗 < 𝐵𝑖𝑗 pour tous i , j et ainsi pour𝐴 ≤ 𝐵 et𝐴 > 𝐵et 𝐴 > 𝐵.
On utilise 𝐴 < 𝛼, 𝐴 ≤ 𝛼 𝑒𝑡 𝐴 ≥ 𝛼, où 𝛼 ∈ ℝ, comme abréviations de 𝐴 < 𝛼𝕝𝑚×𝑛 , 𝐴 >
𝛼𝕝𝑚×𝑛 ,𝐴 ≥ 𝛼𝕝𝑚×𝑛 ,𝐴 ≤ 𝛼𝕝𝑚×𝑛 . Lamatrice absolue|𝐴|est définie comme suit :[|𝐴|]𝑖𝑗 = |𝐴𝑖𝑗 |
pour tout i , j .
Nous définissons le produit scalaire des deux vecteurs réels x, y∈ ℝ𝑛 comme un réel :
〈𝑥, 𝑦〉 = ∑ xi yi = x T y
i
Les vecteurs x, y ∈ ℝn non nuls sont dits orthogonaux si leur produit scalaire est égal à
zéro :
〈𝑥, 𝑦〉 = 0
On considère une matrice A ∈ ℝm×n et sa vectorisation :𝑣𝑒𝑐 (A)∈ ℝn×m , nous pouvons
égalementdéfinir le produit intérieur de deuxmatrices réelles de même taille :
〈𝐴, 𝐵〉 = 𝑣𝑒𝑐(𝐴)𝑇 𝑣𝑒𝑐 (B) =∑𝑖𝑗 𝐴𝑖𝑗 𝐵𝑖𝑗 = 𝑡𝑟(𝐴𝑇 𝐵)
où la trace de A (tr (A)) est la somme de tous les éléments diagonaux de A. Ceci implique
la relation utile suivante :
〈𝐼, 𝐴𝐵𝐶〉 = 〈𝐴𝑇 , 𝐵𝐶〉 = 〈𝐵 𝑇 𝐴𝑇 , 𝐶〉 = 〈𝐶 𝑇 𝐵 𝑇 𝐴𝑇 , 𝐼〉 = 𝑡𝑟(𝐴𝐵𝐶)
Une matrice carrée A est dite inversible s’il existe une matrice B telle que
~ 61 ~
BIBILIOGRAPHIE
AB = BA = I,
où B est appelé l’inverse de A et est noté B = 𝐴−1 .
La somme matricielle C = A+B est définie par 𝐶𝑖𝑗 = 𝐴𝑖𝑗 +𝐵𝑖𝑗 . Cet opération est dit élément
par élément ou par entrée puisque chaque entrée de la matrice de résultat C dépend
uniquement des entrées de A et B au même endroit. Ceci est contraire au produit matriciel
habituel C = AB où les relations ne sont plus locales. Un produit matriciel plus simple,
élément par élément, est appelé produit Hadamard ou produit Schur C = 𝐴 ∘ 𝐵 où 𝐶𝑖𝑗 =
𝐴𝑖𝑗 𝐵𝑖𝑗 et A,B et C sont des matrices m×n. Cela aide considérablement à simplifier les
formules matricielles dans de nombreux cas. Voici quelques propriétés du produit
Hadamard [36] :
𝐴∘𝐵 = 𝐵∘𝐴
𝐴𝑇 ∘ 𝐵 𝑇 = (𝐴 ∘ 𝐵)𝑇
(𝑎 ∘ 𝑏)(𝑐 ∘ 𝑑)𝑇 = (𝑎𝑐 𝑇 ) ∘ (𝑏𝑑𝑇 ) = (𝑎𝑑 𝑇 ) ∘ (𝑏𝑐 𝑇 )
E = {∑ 𝛼𝑖 𝑣𝑖 ; 𝛼𝑖 ∈ ℝ}
𝑖=1
E est également appelé l’espace engendré par V et V est appelé un ensemble générantde E.
Dans un sous-espace E, il existe de nombreux ensembles générant. Parmi eux, unensemble
dont aucun vecteur ne peut être supprimé et sans modifier l’espace engendréest dit linéaire,
indépendant et base de E. Le cardinal d’une base de E est fixé et est appeléedimension de E.
Par exemple :
E=𝑣𝑒𝑐𝑡({(1.2.1)𝑇 , (1,0,0)𝑇 }
est un sous-espace deℝ3 et dim(E) = 2 parceque({(1.2.1)𝑇 , (1,0,0)𝑇 }est linéaire indépendant.
Suite à cela, le rang d’une matrice A de taillem£n peut également être défini comme la dimension du
sous-espace engendré par les colonnes de A :est linéaire indépendant.Suite à cela, le rang d’une
matrice A de taillem£n peut également être défini commela dimension du sous-espace
engendré par les colonnes de A :
rg (A) = dim(vect (𝐴:1 ,𝐴:1 , . . . ,𝐴:3 )) ·≤ min(m,n).
Un sous-espace linéaire est fermé sous addition et multiplication scalaire, c’est-à-dire :
𝑢, 𝑣 ∈ 𝐸 ⟹ 𝑢 + 𝑣 ∈ 𝐸
𝑢 ∈ 𝐸, 𝛼 ∈ ℝ ⟹ 𝛼𝑢 ∈ 𝐸
~ 62 ~
ANNEXE
Les concepts centraux de l’analyse matricielle sont les valeurs propres et les vecteurspropres
d’une matrice carrée. Ils fournissent des informations essentielles sur la matrice.Les concepts
associés aux matrices rectangulaires sont ce qu’on appelle les valeurs singulières et les
vecteurs. Ils jouent un rôle crucial dans les approximations de rang minimalqui conservent les
caractéristiques dominantes de la matrice d’origine.
Définition Le scalaire𝜆 ∈ ℂ est un valeur propre de la matrice 𝐴 ∈ ℂ𝑛×𝑛 s’il existe unvecteur
non nul 𝑥 ∈ ℂ𝑛 tel que 𝐴𝑥 = 𝜆𝑥. Le vecteur x est appelé le vecteur propre associés àla valeur
propre ¸.
Dans cette thèse, seules les valeurs propres et les vecteurs propres de certaines
matricessymétriques sont examinés. Pour ces matrices, les résultats bien connus suivants
peuventêtre établis :
Théorème 1.1:(Théorème Spectral) Soit A une matrice réelle symétrique. Tous les vecteurs
et les valeurs propres de A sont réel.
De plus, pour une matrice réelle symétrique A, si toutes les valeurs propres de A sont
nonnégatives (respectivement non positives), A est dite semi-définie positive
(respectivementsemi-définie négative). Si toutes les valeurs propres sont positives
(respectivement négatives),A est dite définie positive (respectivement définie négative).
La décomposition en valeurs singulières définie dans le théorème suivant est un outiltrès utile
en analyse matricielle :
Théorème 4.2 Pour une matrice quelconque A ∈ ℝm×n , il existe deux matrices orthogonalU∈
ℝm×m et V∈ ℝn×n tel que :
𝐴 = 𝑈Σ𝑉 𝑇
où les valeurs singulières si sont des scalaires réels et décroissants
Une norme est utilisée pour mesurer la magnitude d’un vecteur ou d’une matrice.Unenorme
sur ℝn (où ℝm×n ) on la note ‖. ‖qui vérifié les quatre conditions suivantes :
1- ‖𝑥‖ ≥ 0, ∀𝑥 ∈ ℝn (où ℝm×n )
2- ‖𝑥‖ = 0 ⟺ 𝑥 = 0 ;
~ 63 ~
ANNEXE
‖𝑥‖𝐹 = √〈𝑥, 𝑥〉
Les matrices dont tous les éléments sont non négatifs sont appelées matrices non négatives.
Nous utilisonsℝ𝑛+ etℝ𝑚×𝑛
+ pour désigner l’ensemble des vecteurs non négatifs à ndimensions
et l’ensemble des 𝑚 × 𝑛matrices non négatives, respectivement. En effet, cessous-ensembles
sont des cônes polyédriques et sont généralement appelés orthant non-négatifs.
Une matrice non négative est appelée ”ligne admissible” si elle n’a pas de ligne nul. De la
même manière, une matrice non négative est appelée "colonne admissible" si ellen’a pas de
colonne nul. Une matrice non négative est dite stochastique colonne (ligne) sitoutes les
sommes de colonne (ligne) sont égales à 1. Une matrice non négative est ditedoublement
stochastique si elle est stochastique en colonne et stochastique en ligne.
Le résultat le plus important pour les matrices non négatives est le suivant :
~ 64 ~