Af 2
Af 2
Chapitre 3:
Analyse en
Composantes Principales
(ACP)
Souhir BOUAZIZ AFFES
[Link]@[Link]
A.U. 2024/2025
Plan
Principe de l’ACP
Motivation, Applications, Situation, Objectifs, Notion de projection
ACP et la covariance
ACP et la corrélation
Procédure de l’ACP à partir d’un exemple
Procédure de l’ACP
Combien de composantes principales?
Typologies des individus et des variables
Exercices
ISIMS 94
Principe de l’ACP : Motivation
Le but de l'ACP est de réduire la dimensionnalité d'un ensemble de
données (échantillon) en trouvant un nouvel ensemble de variables,
plus petit que l'ensemble de variables initiales, qui conserve néanmoins
la plupart des informations de l'échantillon :
Simplification de la réalité
Concentration d’une information de départ diluée
Description du maximum de variabilité dans un espace réduit
X1 X2 X3 ...
ind 1 33 12 55 ...
ind 2 25 11 50 ...
ind 3 29 11 43 ...
... ... ... ... ...
X10 X
5
X6 X
3
X1
X2
X4
Xj 95
ISIMS X X X8
Principe de l’ACP : Motivation
Dessinez c’est gagné?
Simplifier un objet 3D (réalitée) par une représentation en 2D (plan)
ISIMS 96
Principe de l’ACP : Intérêt
Les données du monde réel sont constituées de nombreuses
caractéristiques (variables), qui peuvent être redondantes.
Lorsque nous travaillons avec ces caractéristiques, nous pouvons
rencontrer plusieurs problèmes :
Sur-ajustement (ou sur-apprentissage) du modèle
Consommation du temps
Pour résoudre ces problèmes, nous pouvons appliquer la
réduction de la dimensionnalité aux données. Il existe deux types
de réduction de la dimensionnalité :
Élimination de caractéristiques
Extraction de caractéristiques – ACP
L'ACP est souvent utilisée pour réduire la dimension des
données et faciliter leur exploration et leur visualisation. 97
Principe de l’ACP : Applications
Analyses explicatives ou prédictives:
Réduction du nombres de variables explicatives (𝑋(𝑗) ) avant
modélisation
Obtention de nouvelles variables explicatives (𝐶𝑃(𝑗) ) non corrélées
Imagerie :
Compression d’image
Reconnaissance faciale
ISIMS 98
Principe de l’ACP : Situation
𝑝 variables quantitatives ont été mesurées sur 𝑛 individus :
X1 X2 ... Xj ... Xp
ind 1 x11 x11 ... x1j ... x1p
ind 2 x12 x22 ... x2j ... x2p
... ... ... ... ... ... ...
ind i xi1 xi2 ... xij ... xip
... ... ... ... ... ... ...
ind n xn1 xn2 ... xnj ... xnp
ISIMS 100
Principe de l’ACP : Notion de projection
Cas simple d’un tableau à 2 variables (𝑝 = 2, 𝑋(1) et 𝑋(2) ) et 𝑛 individus :
On pourrait résumer ce tableau par une « composante principale » 𝐶𝑃1
Projection orthogonale des individus le long de 𝐶𝑃1
CP1
CP2
+ -
+
+
+ X (1)
ISIMS 104
ACP et la covariance
Pour 𝑝 > 2, on calcule la covariance pour toutes les paires de
variables possibles : Matrice 𝐶(𝑋) de covariances
var( X (1) ) cov( X (1) , X ( 2 ) ) ... cov( X (1) , X ( j ) ) ... cov( X (1) , X ( p ) )
cov( X ( 2 ) , X (1) ) var( X ( 2 ) ) ... cov( X ( 2 ) , X ( j ) ) ... cov( X ( 2 ) , X ( p ) )
... ... ... ... ... ...
C( X )
cov( X ( j ) , X (1) ) cov( X ( j ) , X ( 2 ) ) ... var( X ( j ) ) ... cov( X ( j ) , X ( p ) )
... ... ... ... ... ...
cov( X , X ) cov( X , X ) ... cov( X ( p ) , X ( j ) ) ... var( X ( p ) )
( p) (1) ( p) ( 2)
Propriétés :
𝐶 𝑋 est une matrice carré de taille 𝑝 × 𝑝
𝐶 𝑋 est une matrice symétrique
ISIMS 105
ACP et la corrélation
Corrélation = covariance « standardisée » : réduction
Comprise entre -1 et 1, la corrélation mesure à la fois l’intensité et
la direction de la liaison linéaire entre deux variables 𝑋(1) et 𝑋(2)
Cov 𝑋 1 , 𝑋 2
𝑟 𝑋 1 ,𝑋 2 =
𝜎(𝑋 1 ) 𝜎 𝑋 2
Cov 𝑋 1 , 𝑋 1
𝑟 𝑋(1) , 𝑋(1) =
𝜎(𝑋 1 ) 𝜎 𝑋 1
Var 𝑋 1
= Var 𝑋 1
=1
ISIMS 106
ACP et la corrélation
Si l’ACP (non-normée) est basée sur la matrice de covariances,
l’ACP normée est basée sur la matrice de corrélations :
1 r ( X (1) , X ( 2 ) ) ... r ( X (1) , X ( j ) ) ... r ( X (1) , X ( p ) )
r ( X ( 2 ) , X (1) ) 1 ... r ( X ( 2 ) , X ( j ) ) ... r ( X ( 2 ) , X ( p ) )
... ... ... ... ... ...
R( X )
r ( X ( j ) , X (1) ) r ( X ( j ) , X ( 2 ) ) ... 1 ... r ( X ( j ) , X ( p ) )
... ... ... ... ... ...
r ( X , X ) r ( X , X ) ... r ( X , X ) ... 1
( p) (1) ( p) ( 2) ( p) ( j)
Propriétés :
𝑅 𝑋 est une matrice carré de taille 𝑝 × 𝑝
𝑅 𝑋 est une matrice symétrique
𝑅 𝑋 possède une diagonale de 1
ISIMS 107
ACP et la corrélation
S’il est recommandé de toujours « centrer » ses données en
ACP, la question de les « réduire » (ACP normée) dépend de
vos données :
Si vos données sont toutes dans la même unité de mesure et
varient dans des gammes de valeurs identiques : l’ACP non-
normée suffit
Si vos données sont dans des unités de mesure différentes et
varient dans des gammes de valeurs différentes : l’ACP normée est
recommandée
ISIMS 108
Procédure de l’ACP à partir d’un
exemple
Soit l’exemple : 𝐼3
𝐼5
𝐼6
𝑋(1) 𝑋(2)
𝐼1
𝐼1 2,5 2,4 𝐼4
0,5 0,7 X (1)
2,2 2,9
1,9 2,2 𝐼9
3,1 3 𝐼7
𝑋=
2,3 2,7
2 1,6 𝐼8 0,69 0,49
1 1,1 𝐼10 −1,31 −1,21
1,5 1,6 𝐼2 X (1) 0,39 0,99
𝐼10 1,1 0,9 0,09 0,29
ഥ = 1,29
𝑿− 𝑿
1,09
0,49 0,79
0,19 −0,31
𝑋(1) = 1.81 −0,81 −0,81
−0,31 −0,31
ISIMS 𝑋(2) = 1.91 −0,71 109
−1,01
Procédure de l’ACP à partir d’un
exemple
ACP non-normée matrice de covariances
1 𝑉𝑎𝑟(𝑋 1 ) = 0,5549
C 𝑋 = (𝑋 − 𝑋)𝑡 (𝑋 − 𝑋)
𝑛 𝑉𝑎𝑟(𝑋 2 ) = 0,6449
𝐶𝑜𝑣(𝑋(1) , 𝑋(2) ) = 0.5539
0.5549 0.5539
C(X)
0.5539 0.6449
ISIMS 110
Procédure de l’ACP à partir d’un
exemple
Une histoire d’algèbre linéaire et de calculs matriciels :
Détermination des 𝑝 valeurs propres 𝜆𝑗
Détermination des 𝑝 vecteurs propres 𝑉𝑗
Soit la matrice de covariances 𝐶 de taille 𝑝 𝑥 𝑝, elle admet p
valeurs propres et 𝑝 vecteurs propres associés, tels que :
𝐶𝑉𝑗 = 𝜆𝑗𝑉𝑗
Dans notre exemple à deux variables, 𝐶 admet 2 valeurs propres
et 2 vecteurs propres tels que soit vérifié les égalités suivantes :
0.5549 0.5539 v 1,1 v 1,1
λ 1
0.5539 0.6449 v 1,2 v 1,2
0.5549 0.5539 v 2,1 v 2,1
λ 2
0.5539 0.6449 v 2,2 v 2,2
ISIMS 111
Procédure de l’ACP à partir d’un
exemple
Détermination des 2 valeurs propres 𝜆1 et 𝜆2 :
Calcul du déterminant de 𝐶 – 𝜆𝐼
Résolution de l’équation det(𝐶 – 𝜆𝐼) = 0
0.5549 0.5539 1 0
C λI λ
0.5539 0.6449 0 1
0.5549 λ 0.5539
C λI
0.5539 0.6449 λ
det(C λI) 0.5549 λ 0.6449 λ 0.55392
λ 2 1.1998 λ 0.0510498 0
Δ b2 4ac 1.23532084
b Δ b Δ
λ1 1.155625 λ2 0.044175
ISIMS 2a 2a 112
Procédure de l’ACP à partir d’un
exemple
Détermination des 2 valeurs propres 𝜆1 et 𝜆2 ...
Chaque valeur propre représente la variance des données autour
d’un nouvel axe CP ou « composante principale » qui est une
combinaison linéaire des variables de départ
λ 1 λ 2 Var(X (1) ) Var(X (2) ) Valeur Pourcentage Pourcentage
propre cumulé
ISIMS 114
Procédure de l’ACP à partir d’un
exemple
Détermination des 2 vecteurs propres 𝑉1 et 𝑉2 ...
Prenons cette équation (1ère équation du 1er système)
ISIMS 116
Procédure de l’ACP à partir d’un
exemple
Une solution possible (cf. sous la contrainte que 𝑉1 et 𝑉2 soient
tout 2 des vecteurs unitaires de norme égale à 1)
0.6778734
V1 2
NB : v 1,1 v 1,2
2
1
0.7351787
0.7351786
V2 NB : v 22,1 v 22,2 1
0.6778734
𝐶𝑃1 𝐶𝑃2
𝑋(1)
0.6778734 0.7351786 1.155625 0
𝑄 = Et D C(Y)
𝑋(2) 0.7351787 0.6778734 0 0.044175
C ( X ) QDQ t Et Y XQ
ISIMS 117
Procédure de l’ACP à partir d’un
exemple
𝑋(1) 𝑋(2)
𝐼1 0,69 0,49 𝐼1 0,828 −0,175
−1,31 −1,21 −1,778 0,143
0,39 0,99 0,992 0,384
0,09 0,29 𝐶𝑃1 𝐶𝑃2 0,274 0,13
𝑋(1)
ഥ 𝑄 = 1,29 1,09 0,6778734 −0,735186 1,676 −0,209
𝑌= 𝑿− 𝑿 × =
0,49 0,79 𝑋 0,7351787 0,6778734 0,913 0,175
0,19 −0,31 (2) −0,099 −0,35
−0,81 −0,81 −1,145 0,046
−0,31 −0,31 −0,438 0,018
𝐼10 −0,71 −1,01 𝐼10 −1,224 −0,163
ISIMS 118
Procédure de l’ACP à partir d’un
exemple
𝑉1 et 𝑉2 sont les vecteurs directeur de CP1 et CP2 :
𝐼3 V2 𝐼3
V1 𝐼5
𝐼6
V2 𝐼6
𝐼4 𝐼1 𝐼2 𝐼4
𝐼8 𝐼9
V1
𝐼9
𝐼7 𝐼10 𝐼1 𝐼5
𝐼8
𝐼10
𝐼2 𝐼7
ISIMS 120
Procédure de l’ACP à partir d’un
exemple
Cas de l’ACP normée sur le même jeu de données :
1 t 1 0.93
R ( X ) Z Z
n 0.93 1
1 λ 0.93
R λI
0.93 1 λ
det(R λI) 1 λ 1 λ 0.932
λ 2 2λ 0.1351 0
Δ b2 4ac
b b
1 1.93 2 0.07
2a 2a
1 1 r 2 1 r
ISIMS 121
Procédure de l’ACP à partir d’un
exemple
Détermination des 2 vecteurs propres 𝑉1 et 𝑉2 :
Résolution des 2 systèmes d’équations 𝑪𝑽𝒋 −
𝝀𝒋𝑽𝒋 = 𝟎
ISIMS
2
v 11 v 12
2
1 Et v 221 v 222 1 122
Procédure de l’ACP à partir d’un
exemple
Détermination des 2 vecteurs propres 𝑉1 et 𝑉2 ...
Prenons cette équation (1ère équation du 1er système)
ISIMS 123
Procédure de l’ACP à partir d’un
exemple
Détermination des 2 vecteurs propres 𝑉1 et 𝑉2 ...
Prenons cette équation (1ère équation du 2ème système)
ISIMS 124
Procédure de l’ACP à partir d’un
exemple
Une solution possible (cf. sous la contrainte que V1 et V2 soient
tout 2 des vecteurs unitaires de norme 1))
1 1 1 1
1.93 0
V1 2 V 2 Q 2 2 D
1 2 1 1 1
0 0.07
2 2 2 2
v12,1 v12, 2 1 2 2
v2,1 v2, 2 1 𝑌: matrice des scores des individus
0,926 0,61 𝐼1 1,086 −0,223
−1,759 −1,506 −2,309 0,178
0,524 1,233 1,242 0,501
0,121 0,361 0,341 0,17
1,732 1,357 0,707 −0,707 2,184 −0,264
𝑌=𝑍𝑄= × =
0,658 0,984 0,707 0,707 1,161 0,23
0,255 −0,386 −0,093 −0,453
−1,087 −1,009 −1,482 0,056
−0,416 −0,386 −0,567 0,021
ISIMS −0,953 −1,258 𝐼10 −1,563 −0,215 125
Procédure de l’ACP à partir d’un
exemple
V1 et V2 sont les vecteurs directeur de CP1 et CP2 :
𝐼3 V2 𝐼3
𝐼6 𝐼5
V1
𝐼6
𝐼4 𝐼1 𝐼2 𝐼4
V2
𝐼8 𝐼9 V1
𝐼9
𝐼7 𝐼10 𝐼1 𝐼5
𝐼8
𝐼10
𝐼2 𝐼7
ISIMS 126
Procédure de l’ACP
Étape 1: Changement de repère
Utiliser les données centrées (la matrice 𝑋 − 𝑋ത au lieu de la
matrice 𝑋) ou les données centrées-réduites (la matrice 𝑍 au lieu de
la matrice 𝑋) selon vos données
Ancien repère:
chaque individu est représenté par un point de ℝ𝑝
chacun des axes de ℝ𝑝 représente une des 𝑝 variables
Nouveau repère:
nouveaux axes (droites) passant par l’origine et 𝑝 vecteurs unitaires et
deux à deux orthogonaux (𝐶𝑃1 , … , 𝐶𝑃𝑝 )
chacun des axes représente une nouvelle variable, qui est
combinaison linéaire des anciennes variables.
chaque individu est représenté sur ce nouveau repère, par sa
projection orthogonale sur ces axes
ISIMS
𝑌 = 𝑋 − 𝑋ത Q ou 𝑌 = 𝑍 𝑄 127
Procédure de l’ACP
Étape 1: Changement de repère ...
Plan d'origine
ISIMS 128
Procédure de l’ACP
Étape 2: Choix du nouveau repère
But: trouver le nouveau repère (𝐶𝑃1 , … , 𝐶𝑃𝑝 ) tel que la quantité
d’information expliquée par 𝐶𝑃1 soit maximale, puis celle expliquée
par 𝐶𝑃2 , etc.
Mesure de la quantité d’information :
Utiliser la covariance pour les données centrées ou la corrélation pour
les données centrées-réduites
Plus la variance d’une variable est grande, plus les données de cette
variable sont dispersées, et plus la quantité d’information apportée
est importante
Quantité d’information = variabilité totale des données
ACP non-normée ACP normée
𝑝 𝑝
Tr 𝐶 𝑋 − 𝑋ത = Tr 𝐶 𝑋 = Var 𝑋 𝑗 Ou Tr 𝐶 𝑍 = Var 𝑍 𝑗 =𝑝×1
𝑗=1 𝑗=1
ISIMS
= Tr 𝐶 𝑌 = Tr 𝐶 𝑌 129
Procédure de l’ACP
Étape 2: Choix du nouveau repère …
Choix du nouveau repère :
Déterminer 𝑄 de sorte que la part de la variabilité totale expliquée par
les données 𝑌(1) de la nouvelle variable 𝐶𝑃1 soit maximale, puis celle
expliquée par les données 𝑌(2) de la nouvelle variable 𝐶𝑃2 , etc.
En appliquant le Théorème spectral pour les matrices symétriques :
x1 x2 xi x p
𝐷 = 𝐶(𝑌)
x1
x2
Matrice des C ( X ) QDQ t
covariances 𝑄
1 2 i p
xi (ou corrélation) CP1 CP2 CPi CPp
1 1
x1
2
2 0 x2
xp
i
i
xi
p 0 p
Diagonalisation xp
Matrice « diagonale » Matrice des
ISIMS des valeurs propres vecteurs propres 130
Procédure de l’ACP
Étape 2: Choix du nouveau repère …
Choix du nouveau repère …
On a donc :
o 𝑉𝑎𝑟 𝑌 𝑗 = 𝜆𝑗
o 𝐶𝑜𝑣 𝑌 𝑖 , 𝑌 𝑗 = 0 𝑞𝑢𝑎𝑛𝑑 𝑖 ≠ 𝑗
o 𝑉𝑎𝑟 𝑌 1 ≥ ⋯ ≥ 𝑉𝑎𝑟 𝑌 𝑝
Les colonnes 𝐶𝑃1 , … , 𝐶𝑃𝑝 de la matrice 𝑄 décrivent les nouvelles
variables, appelées les composantes principales.
Dans le cas des données centrées réduites (Matrice de données 𝒁),
la matrice de covariance est la matrice de corrélation 𝑹(𝑿)
ISIMS 131
Procédure de l’ACP
Étape 2: Choix du nouveau repère …
Projection des individus sur le nouveau repère:
𝑌 : matrice des scores des individus : matrice des valeurs des
composantes principales sur les individus
𝑌 = 𝑋 − 𝑋ത Q ou 𝑌 = 𝑍 𝑄
ISIMS 132
Procédure de l’ACP
Étape 3: Interprétation des résultats
Parts de la variabilité totale
La part de la variabilité totale expliquée par les données 𝑌 1 , …, 𝑌 𝑘
des 𝑘 premières nouvelles variables (𝑘 ≤ 𝑝), est :
𝑉𝑎𝑟 𝑌 1 + ⋯ + 𝑉𝑎𝑟 𝑌 𝑘 𝜆1 + ⋯ + 𝜆𝑘
=
𝑉𝑎𝑟 𝑌 1 + ⋯ + 𝑉𝑎𝑟 𝑌 𝑝 𝜆1 + ⋯ + 𝜆𝑝
𝐶 𝑋, 𝑌 = 𝑄𝐷
Ainsi:
𝐶𝑜𝑣 𝑋 𝑗 ,𝑌𝑘 = 𝐶 𝑋, 𝑌 𝑗𝑘 = 𝑞𝑗𝑘 𝜆𝑘
Cov 𝑋 𝑗 ,𝑌𝑘 𝑞𝑗𝑘 𝜆𝑘 𝑞𝑗𝑘 𝜆 𝑘
𝑟 𝑋 𝑗 , 𝑌𝑘 = = =
𝜎(𝑋 𝑗 ) 𝜎 𝑌𝑘 𝑐𝑗𝑗 𝜆𝑘 𝑐𝑗𝑗
ISIMS
𝐴𝑣𝑒𝑐: 𝑐𝑗𝑗 = 𝑉𝑎𝑟(𝑋(𝑗) ) 134
Procédure de l’ACP
Étape 3: Interprétation des résultats …
Saturation des variables …
Dans le cas des données centrées réduites (Matrice de données 𝒁),
la matrice de covariance est la matrice de corrélation 𝑹(𝑿)
𝑟 𝑍 𝑗 ,𝑌𝑘 = 𝜆𝑘 𝑞𝑗𝑘
ISIMS 135
Procédure de l’ACP
Étape 3: Interprétation des résultats …
Saturation des variables …
X(i)
Cercle de corrélation
rjk coefficient de
corrélation entre la
cp2 Cas des données centrées: X(j)
variable et la X(i)
composante principale 1
𝑋(𝑗) = 𝑋 − 𝑋ത (𝑗)
X(2)
𝒀(𝟏) 𝒀(𝟐)
ISIMS 137
Combien de composantes principales?
L’ACP d’une matrice de données à 𝑝 variables et 𝑛 individus
admet 𝑝 valeurs propres, 𝑝 vecteurs propres, et 𝑝 composantes
principales :
Conservez au moins 70-80% de la variance en cumulé
Critère de Kaiser: Conservez toute les composantes principales
dont 𝜆 > 1
Critère du coude: Utilisez l’histogramme des valeurs propres (scree
plot):
sur l’évolution des valeurs propres, on observe
un décrochement (coude) suivi d’une décroissance
régulière. On sélectionne les axes avant le décrochement
Attention :
L’ACP sur une matrice de données tel que 𝑝 > 𝑛 est impossible
ISIMS 138
Typologies des individus et des
variables
Typologie des individus : projection des individus sur le plan factoriel
Courbe de score de l’ACP: La lecture graphique de
la position des individus le long des CPs permet de
dresser une typologie
Les individus proches le long d’une CP sont des
individus qui partagent les mêmes caractéristiques
vis-à-vis des variables quantitatives étudiées
Typologie des variables : projection des variables sur le plan factoriel
Courbe de chargement de l'ACP: montre
l'influence de chaque variable initiale
sur une composante principale
La lecture graphique du cercle des corrélations
permet de juger du poids des différentes
variables de départ sur chacune des CPs
ISIMS 139
Exemple
1 𝑡
Cov 𝑋 = 𝑀 𝑀
𝑛
ISIMS 140
Exemple
Valeurs propres
Matrice de covariance
Remarque:
= Tr(C)=14.2+46.7+13.5
(Somme des variances dans la diagonale)
Vecteurs propres
Valeur Pourcentage Pourcentage
propre cumulé
CP1 73,718 99,083 99,083
CP2 0,384 0,516 99,599
CP3 0,298 0,401 100
ISIMS 141
Exemple
𝑌 = 𝑋 − 𝑋ത Q = M Q =
ISIMS 142
Exercice 1
Soit la matrice de données 𝑋 suivante : /40
Statistiques Math Cpta G° Fi
Individu n° 1 19 14 8 18
Individu n° 2 20 12 4 4
Individu n° 3 10 10 32 38
Individu n° 4 13 17 4 4
Individu n° 5 6 8 26 24
Individu n° 6 6 3 28 32
Individu n° 7 19 16 8 20
Individu n° 8 15 18 6 6
Individu n° 9 9 2 32 30
Individu n° 10 8 7 20 20
20 10
18 Individu n° 8 8
Individu n° 8
Individu n° 4 Individu n° 4
Individu n° 7
16 6
Individu n° 7
14 4
Individu n° 1 Individu n° 1
12 2
Individu n° 2 Individu n° 2
Individu n° 3
10 Individu n° 3 0
-10 -8 -6 -4 -2 0 2 4 6 8 10
Individu n° 5
8 Centre de Individu n° 5 -2 Centre de
Individu n° 10 gravité Individu n° 10 gravité
6 -4
4 -6
Individu n° 6 Individu n° 6
2 Individu n° 9 -8
Individu n° 9
0 -10
0 2 4 6 8 10 12 14 16 18 20
ISIMS 145
Exercice 1
Déterminer la matrice centrée réduite (𝑍) de 𝑋 :
8 8
Individu n° 8
Individu n° 4
6 6
Individu n° 7
4 4
Individu n° 1
2 2
Individu n° 2
Individu n° 3
0
-10 -8 -6 -4 -2 0 2 4 6 8 10 -10 -8 -6 -4 -2 2 4 6 8 10
Individu n° 5 -2 Centre de -2 Centre de
Individu n° 10 gravité gravité
-4 -4
-6 -6
Individu n° 6
Individu n° 9
-8 -8
-10 -10
ISIMS 147
Exercice 1
Déterminer la matrice de corrélation de Bravais-Pearson R(𝑋) :
1 𝑡
𝑅 𝑋 = 𝑍 𝑍
𝑛
Statistiques Math Cpta G° Fi
Statistiques 1,0000 0,7265 -0,8186 -0,6084
Math 0,7265 1,0000 -0,8489 -0,7069
Cpta -0,8186 -0,8489 1,0000 0,9124
G° Fi -0,6084 -0,7069 0,9124 1,0000
Résoudre: det 𝑅 − 𝜆 𝐼 = 0
1 − 𝜆 0,7265 −0,8186 −0,6084
0,7265 1 − 𝜆 −0,8489 −0,7069
𝑅−𝜆𝐼 =
−0,8186 −0,8489 1 − 𝜆 0,9124 1 3.3189
−0,6084 −0,7069 0,9124 1 −𝜆 0.4035
2
3 0.2508
Résoudre: det 𝑅 − 𝜆 𝐼 = 0
4 0.0268
ISIMS 148
Exercice 1
Interprétation des valeurs propres 1 3.3189
Exemple : i 4
0.829725 82 .97 %
A.C.P. sur données
centrées-réduites
Part de l’information
" variable variance = 1 initiale restituée par l’axe i
1 3.3189
S variance 0.4035 i
2
=
3 0.2508 i
nombre de variables
4 0.0268
ISIMS i 4 149
Exercice 1
Interprétation des valeurs propres
Valeur Pourcentage
Pourcentage
propre cumulé
1 3.3189 82.9700 82.9700
2 0.4035 10.0900 93.0600
3 0.2508 6.2700 99.3300
4 0.0268 0.6700 100.0000
Histogramme des valeurs propres
3,5
3
2,5
2
1,5
Changement de pente
1
0,5
0
CP1 CP2 CP3 CP4
ISIMS
150
Exercice 1
Les nouvelles coordonnées des individus
Ind8
Ind6 Ind9 Ind3 Ind5 Ind10 Ind1 Ind7 Ind4 Ind2
-3.00 -2.50 -2.00 -1.50 -1.00 -0.50 0.00 0.50 1.00 1.50 2.00 2.50
ISIMS 151
Exercice 1
ISIMS 152
Exercice 1
Cercle de corrélation
Coordonnées - Corrélations
1 2 3 4
Stat - Statistiques 0.86 0.45 0.23 -0.04
Math - Mathématiques 0.90 0.10 -0.42 -0.03
Cpta - Comptabilité -0.98 0.09 -0.06 -0.13
G-Fi - Gestion Financière -0.89 0.43 -0.13 0.08
ISIMS 153
Exercice 2
Soit le tableau de données suivant :
Informatique Gestion
Noam 4 5
Jean 6 7
Li 8 0
ISIMS 154
Exercice 2
2) Calculer la matrice 𝐶(𝑋) des covariances de 𝑋 et la matrice 𝑅 𝑋 des
corrélations de 𝑋.
3) Vérifier que 𝜆1 = 10,152 et 𝜆2 = 1,188 sont deux valeurs propres
associées à 𝐶(𝑋). Puis vérifier que les vecteurs unitaires :
−0.407 0.914
𝑉1 = 𝑒𝑡 𝑉2 =
0.914 0.407
sont les vecteurs propres de 𝐶(𝑋) associés à 𝜆1 𝑒𝑡 𝜆2 respectivement.
4) À partir des résultats précédents, déterminer les deux composantes
principales de l’ACP du nuage des individus associé au tableau 𝑋. Pour
chacun de ces axes, préciser le pourcentage de la quantité d’information
projetée sur l’axe considéré, et le pourcentage cumulé.
5) Déterminer la matrice des scores des individus.
6) Calculer la saturation des variables et interpréter le cercle de corrélation.
ISIMS 155
Exercice 3
Une étude sur des fournisseurs de matériel informatique a conduit à
apprécier le service, la qualité et le prix de quatre fournisseurs. Pour
cela un expert a noté ces entreprises avec des notes allant de -3 à 3.
Les résultats sont consignés ci-dessous :
Ent Service Qualité Prix
E1 -2 3 -1
E2 -1 1 0
E3 2 -1 -1
E4 1 -3 2
ISIMS 156
Exercice 3
4) Préciser le pourcentage de la quantité d’information projetée sur
chaque composante principale, et le pourcentage cumulé. Interpréter
ces résultats.
5) On donne :
0,5 0,65
𝑉1 = −0,8 𝑒𝑡 𝑉2 = 0,11
0,3 −0,75
les vecteurs propres de 𝐶(𝑋) associés à 𝜆1 𝑒𝑡 𝜆2 respectivement.
Déterminer la matrice des scores des individus.
6) Calculer la saturation des variables et interpréter le cercle de
corrélation dans le plan factoriel (CP1, CP2).
ISIMS 157