Analyse Factorielle des Correspondances
Analyse Factorielle des Correspondances
N . Bessah
5 novembre 2022
Table des matières
1
Chapitre 1
1.1 Introduction
L’analyse des correspondances est une technique d’analyse factorielle, adaptée aux tableaux
de données quantitatives assimilables à des effectifs tels que : tableaux de valeurs positives,
tableaux de notes, tableau logique ( ou disjonctif complet).
A l’origine, elle a été développée pour traiter le cas particulier du tableau de contingence
auquel l’ACP ne s’adaptait pas.
Remarque
a) Dans ce type de tableau, on remarque que les individus ne sont présents que par leurs
effectifs ;
b) les lignes et les colonnes jouent le même rôle ;
a) On ne parlera plus d’individus et variable comme en ACP mais plutôt de caractère ligne
et colonne.
2
Table 1.1 – Tableau de contingence
Type de poterie
Site A B C D Total des lignes
P1 30 10 10 39 89
P2 53 4 16 2 75
P3 73 1 41 1 116
P4 20 6 1 4 31
P5 46 36 37 13 132
P6 45 6 59 10 120
P7 16 28 169 5 218
Total des colonnes 283 91 333 74 781
Type de poterie
Site A B C D fi.
P0 3. 841 2 × 10−2 1. 280 4 × 10−2 1. 280 4 × 10−2 4. 993 6 × 10−2 0.113 96
P1 6. 786 2 × 10−2 5. 121 6 × 10−3 2. 048 7 × 10−2 2. 560 8 × 10−3 9. 603 1 × 10−2
P2 9. 347 0 × 10−2 1. 280 4 × 10−3 5. 249 7 × 10−2 1. 280 4 × 10−3 0.148 53
P3 2. 560 8 × 10−2 7. 682 5 × 10−3 1. 280 4 × 10−3 5. 121 6 × 10−3 3. 969 3 × 10−2
P4 5. 889 9 × 10−2 4. 609 5 × 10−2 4. 737 5 × 10−2 1. 664 5 × 10−2 0.169 01
P5 5. 761 8 × 10−2 7. 682 5 × 10−3 7. 554 4 × 10−2 1. 280 4 × 10−2 0.153 65
P6 2. 048 7 × 10−2 3. 585 1 × 10−2 0.216 39 6. 402 × 10−3 0.279 13
f.j 0.362 36 0.116 52 0.426 38 0.094 75 1
3
fij
→ probabilité de i connaissant j
f.j
6. Dans le cas où les variables qualitatives X et Y sont indépendantes, alors fij = fi. f.j ou
fij fij
bien = f.j et = fi.
fi. f.j
7. Le test utilisé pour vérifier l’indépendance de deux variables aléatoires catégorielles dans
un tableau de contingence est le test de khi2 de Pearson
→ Les hypothèses du test sont :
H0 :fij = fi. f.j pour tout i, j
̸ fi. f.j pour certains i, j
H1 :fij =
→ La statistique de test :
p
n X
X (fij − fi. f.j )2
Φ=K (1.1)
i=1 j=1 f.j fi.
est distribuée selon la loi de χ2(n−1)(p−1) qui se lit : Khi-2 à (n − 1), (p − 1) degrés de
liberté, sous H0 .
→ Dans le cas où Φ est grand, alors la différence (fij − fi. f.j )2 est grande et donc
l’hypothèse d’indépendance des variables qualitatives X et Y est rejetée.
→ Décision du test : Pour α niveau de signification du test (valeur fixée. Les valeurs
usuelles :1% ,5%,10%), nous rejetons l’hypothèse H0 si Φobs (qui est la valeur observée
de Φ) est supérieur à un seuil Cα défini par P (Φ > Cα ) = α. La loi de χ2(n−1)(p−1) étant
tabulée, cette valeur sera prise de la table.
Une autre façon de procéder est de calculer la pvalue = P (Φ > Φobs ) ; si pvalue < α
l’hypothèse H0 est rejetée.
et chaque ligne est affectée d’un poids fi. , le vecteur des poids des lignes est lt =
(f1. , f2. , . . . , fn. ). La matrice des profils lignes est :
f1. . . . 0
. ..
Dl−1 F ..
où Dl = . 0 (1.3)
0 . . . fn.
b) Dans Rn , la matrice des profils colonnes a pour terme général
!
fij
(1.4)
f.j i=1,n
j=1,p
Chaque colonne est affectée du poids f.j , le vecteur des poids des colonnes est ct =
(f.1 , f.2 , . . . , f.p ). La matrice des profils colonnes est :
f.1 . . . 0
.
Dc−1 F t où Dc = .. . . . 0
(1.5)
0 . . . f.p
4
Remarque
1. On étudie le tableau des profils plutôt que le tableau des données brutes pour atténuer
la disparité entre point lignes (resp. point colonnes)
fij fij
2. Comme pj=1 = 1 et que ni=1
P P
= 1 , les p points du nuage, (resp. les n points du
fi. f.j
nuage) sont dans un sous espace de dimension p − 1, (resp. n − 1).
Remarque La distance du χ2 accorde une même importance aux profils lignes en divisant
cette dernière par le poids de chaque colonne. Idem pour les profils colonnes.
Distance euclidienne
Afin d’appliquer les résultats de l’analyse générale, nous transformons les matrices des profils
pour retrouver la distance euclidienne usuelle.
En effet, 2
p
2
X f
q ij
fkj
d (i, k) = −q (1.8)
j f.j fi. f.j fk.
n
!2
f f
2
√ ij − √ il
X
d (j, l) = (1.9)
i fi. f.j fi. f.l
5
et les matrices diagonales :
f1. . . . 0 f.1 . . . 0
. . . ..
.. .. 0 et Dc = ..
Dl = . 0 (1.11)
0 . . . fn. 0 . . . f.p
n n
X fij X fij q
gj = fi. q = q = f.j (1.12)
i f.j fi. i f.j
La matrice centrée
La matrice centrée R a pour terme général
f
q ij
q
− f.j (1.13)
f.j fi. i=1,n
j=1,p
i.e.,
T = X t X = avec X = (xij )i=1,n
j=1,p
En écriture matricielle
−1/2
X = Dl F − lct Dc−1/2 F est la matrice des fréquences (1.17)
6
Proposition
√ √ q t
a) ”0” est une valeur propre triviale de T . Le vecteur de composantes f.1 , f.2 , . . . , f.p
est le vecteur propre associé.
b) On pose
T ∗ = X ∗t X ∗ (1.18)
avec fij
X ∗ = x∗ij i=1,n et x∗ij = q (1.19)
j=1,p fi. f.j
Les matrices T et T ∗ ont les mêmes vecteurs propres associés aux mêmes valeurs propres
λ > 0, à l’exception du vecteur centre de gravité associé à la valeur propre 1 de T ∗
Propriétés
E (Fk ) = 0 et V ar (Fk ) = λk
Rp Rn
fij fij
Matrice des profils (ligne) (colonne)
fi. f.j
fij fij
Matrice initiale utilisée q √
fi. f.j f.j fi.
q √
Centre de gravité f.j fi.
j=1,p i=1,n
(fij − fi. f.j ) (fij − fi. f.j )
Matrice X centrée q q
fi. f.j fi. f.j
fij fij
Matrice X ∗ non centrée q q
fi. f.j fi. f.j
Matrice à diagonaliser T = X ∗t X ∗
∗
W = X ∗ X ∗t
∗
7
1.4.3 Coordonnées d’un point sur l’axe de rang k
L’équivalent dans Rn des résultats de la projection dans Rp reste valable, on a
n
!
X fij
Gk (j) = √ vki (1.22)
i f.j fi.
où vk est le vecteur propre associé à la k ème valeur propre de W ∗
1 1
vk = √ X ∗ uk et uk = √ X ∗t vk (1.23)
λk λk
√
en multipliant et divisant vki par la même quantité fi. , on déduit
√
fi.
vki = Fk (i) √ (1.25)
λk
De même, on a
1 Pn f
q ij vki
ukj =√
λk i
fi. f.j
et (1.26)
!
n fij
√
P
Gk (j) = vki
f.j fi.
i
On déduit que, q
f.j
ukj = Gk (j) √ (1.27)
λk
Par conséquent :
q
p f.j
X fij
Fk (i) = q Gk (j) √ (1.28)
j f.j fi. λk
p
1 X fij
=√ Gk (j) (1.29)
λk j fi.
8
n
!
X fij
Gk (j) = √ vki
i f.j fi.
n
! √
X fij fi.
= √ Fk (i) √
i f.j fi. λk
n
!
1 X fij
=√ Fk (i)
λk i f.j
Remarque
1. Les coordonnées des points lignes s’expriment en fonction des coordonnées des points
colonnes en utilisant la matrice des profils lignes et réciproquement ;
1
2. au coefficient √ près, la projection, notée Fk (i), de la ligne i sur l’axe de rang k est le
λk
barycentre des projections, notées Gk (j), des colonnes j sur l’axe de rang k.
fij
• Ce barycentre Fk (i) se rapproche des points colonnes Gk (j) qui ont les poids
fi.
forts. (ainsi, la modalité de la variable ligne i est associée à la modalité j de la variable
colonne )
On a,
p q
fij X
q = λk vki ukj
fi. f.j k
q
p
X f.j fi.
= Fk (i) Gk (j) √ ⇒
k λk
p
X f.j fi.
fij = Fk (i) Gk (j) √
k λk
9
Comme
√
λ1
F1 (i) = v1i √ (1.30)
f
√ i.
λ1
G1 (j) = u1j q , (1.31)
f.j
q
v1i = fi. et (1.32)
q
u1j = f.j ⇒ (1.33)
F1 (i) = G1 (j) (1.34)
q
= λ1 = 1 (1.35)
d’où p !
X 1
fij = f.j fi. 1+ Fk (i) Gk (j) √ (1.36)
k=2 λk
Remarques
1. I = Φ/N et mesure le degré de liaison entre les variables X et Y (voir l’équation 1.1
pour l’expression de Φ ) ;
2. On montre de même que l’inertie totale du nuage des P C = I ;
3. Si r est le rang de la matrice des profils lignes, alors
il y a au plus r = min(n − 1; p − 1) valeurs propres non nulles
l’inertie I = λ1 + λ2 + · · · + λr .
1.7.3 Contribution
La contribution ( ou contribution absolue ) est la part prise par un élément donné dans la
variance expliquée par un facteur. Les contributions absolues indiquent les variables qui sont
responsables de la construction d’un facteur.
10
Contribution d’une ligne i à l’axe k
fi.
Cak (i) = (Fk (i))2 = (vki )2 (1.37)
λk
f.j
Cak (j) = (Gk (j))2 = (uki )2 (1.38)
λk
Remarque
n
X p
X
Cak (i) = Cak (j) = 1 (1.39)
1 j
(Fk (i))2
Crk (i) = (1.40)
d2 (i, gl )
pour un point i de Rp ; gl centre de gravité dans Rp
(Gk (i))2
Crk (j) = 2 (1.41)
d (j, gc)
n
!2
f q
d2 (j, gc) = √ ij − fi.
X
(1.43)
i=1 fi. f.j
n
P p
P
Remarque Crk (i) = 1 pour tout i = 1, . . . , n et Crk (j) = 1 pour tout j = 1, . . . , p
k=1 k=1
11
1.8.2 Ligne supplémentaire q
!
fqj
Composante du profil ligne supplémentaire
fq. j=1,...,p
1 P p f
qj
Les coordonnées sur l’axe k est Fk (q) = √ Gk (j)
λk j=1 fq.
1.9.1 Résultats
Pearson’s Chi-squared test
data: tableau_poterie
X-squared = 400.25, df = 18, p-value < 2.2e-16
12
1 0.57198039 0.38278108 4.523854e-02
2 0.27670466 0.72328747 7.874032e-06
3 0.04877274 0.88616863 6.505863e-02
4 0.75611250 0.07535705 1.685304e-01
5 0.08425954 0.07020734 8.455331e-01
6 0.12332145 0.15044369 7.262349e-01
7 0.91896139 0.07882332 2.215291e-03
>
1.9.2 Figures
13
Scree plot Row points − CA
0.8
50
1
40
0.4
33.2%
Percentage of explained variances
30
7
cos2
Dim2 (33.2%)
5
0.8
0.6
0.4
0.0
0.2
20
11.5%
10
−0.4
3 2
0
50
30
40
30
Contributions (%)
Contributions (%)
20
20
10
10
0 0
7
14
Column points − CA Contribution of columns to Dim−1
1.0 50
40
0.5
30
B
cos2
Contributions (%)
Dim2 (33.2%)
0.8
0.6
0.4
20
0.0
10
A 0
−0.5
−0.5 0.0 0.5 1.0
Dim1 (55.3%)
C
B
(a) Variable colonne et Cos (b) Contributions axe1
Contribution of columns to Dim−2 CA − Biplot
1.0
50
40
0.5
B
30
Contributions (%)
Dim2 (33.2%)
7
5
20 0.0
10
A
−0.5
3
2
0
15
Bibliographie
[1] Frederik Michel Dekking, Cornelis Kraaikamp, Hendrik Paul Lopuhaä, and Ludolf Erwin
Meester. A Modern Introduction to Probability and Statistics : Understanding why and how.
Springer Science & Business Media, 2005.
[2] George H Dunteman. Principal components analysis. Number 69. Sage, 1989.
[3] Brigitte Escofier and Jérôme Pagès. Analyses factorielles simples et multiples : objectifs,
méthodes et interprétation. Dunod, 2008.
[4] Brian Everitt, Graham Dunn, and Graham Dunn. Applied multivariate data analysis. 2001.
[5] Michael Greenacre and Jorg Blasius. Multiple correspondence analysis and related methods.
CRC press, 2006.
[6] Michael J Greenacre. Theory and applications of correspondence analysis. 1984.
[7] Wolfgang Härdle and Léopold Simar. Applied multivariate statistical analysis, volume 22007.
Springer, 2007.
[8] François Husson, Sébastien Lê, and Jérôme Pagès. Exploratory multivariate analysis by
example using R. CRC press, 2017.
[9] Richard Arnold Johnson, Dean W Wichern, et al. Applied multivariate statistical analysis,
volume 5. Prentice hall Upper Saddle River, NJ, 2002.
[10] Ian Jolliffe. Principal component analysis. In International encyclopedia of statistical
science, pages 1094–1096. Springer, 2011.
[11] Ludovic Lebart, Alain Morineau, and Marie Piron. Statistique exploratoire multidimension-
nelle, volume 3. Dunod Paris, 1995.
[12] Jean-Pierre Nakache and Josiane Confais. Approche pragmatique de la classification : arbres
hiérarchiques, partitionnements. Editions Technip, 2004.
[13] Gilbert Saporta. Probabilités, analyse des données et statistique. Editions Technip, 2006.
[14] Gilbert Strang. Linear algebra and its applications. 2006.
[15] Stéphane Tufféry. Data mining and statistics for decision making. John Wiley & Sons,
2011.
16