100% ont trouvé ce document utile (1 vote)
751 vues59 pages

Guide d'Analyse des Données Multivariées

Transféré par

Sofiani Mahamadou
Copyright
© © All Rights Reserved
Nous prenons très au sérieux les droits relatifs au contenu. Si vous pensez qu’il s’agit de votre contenu, signalez une atteinte au droit d’auteur ici.
Formats disponibles
Téléchargez aux formats PDF, TXT ou lisez en ligne sur Scribd
100% ont trouvé ce document utile (1 vote)
751 vues59 pages

Guide d'Analyse des Données Multivariées

Transféré par

Sofiani Mahamadou
Copyright
© © All Rights Reserved
Nous prenons très au sérieux les droits relatifs au contenu. Si vous pensez qu’il s’agit de votre contenu, signalez une atteinte au droit d’auteur ici.
Formats disponibles
Téléchargez aux formats PDF, TXT ou lisez en ligne sur Scribd

Analyse Des Données

Ouazza Ahmed

Institut National de Statistique et d’Economie Appliquée


(INSEA)

2020-2021

1 / 59
Plan

1 Introduction
2 Analyse en Composante Principales ACP
3 Analyse Factorielle des Correspondances AFC
4 Méthodes de classification

2 / 59
Introduction

• Dans toute étude statistique, la première démarche consiste à décrire


et explorer l’ensemble des données qu’on dispose.
• Dans le cas où des données sont de grande dimension (c-à-d le
nombre de variables ou de caractères est trop élevées), il est difficile
de les visualiser. Alors il est nécessaire d’extraire l’information
pertinente contenue dans l’ensemble des données, les techniques
d’analyse des données répondent à ce besoin.
• Par conséquent, on peut définir l’analyse des données comme
ensemble de méthodes descriptives ayant pour objectif de visualiser et
résumer l’information contenue dans un grand tableau de données.

3 / 59
Introduction
Tableau de données: (Individu × Variable)

On suppose qu’on dispose p variables X1 , X2 , ..., Xp observées sur n


individus I1 , I2 , ..., In , alors chaque variable Xj , j ∈ {1, 2, ..., p} est
un élément de Rn et chaque individu Ii , i ∈ {1, 2, ..., n} est un
élément de Rp .
X1 ... Xj ... Xp
I1 x11 ... x1j ... x1p
. . ... . ... .
. . ... . ... .
. . ... . ... .
Ii xi1 ... xij ... xip
. . ... . ... .
. . ... . ... .
. . ... . ... .
In xn1 ... xnj ... xnp

4 / 59
Introduction

La forme matricielle du tableau précédent est donnée comme suit:


 
x11 · · · x1j · · · x1p
 .. .. 
 . . 
 
X = (X1 , ..., Xp ) =  xi1 · · · xij · · · xip 


 .. .. 
 . . 
xn1 · · · xnj · · · xnp

5 / 59
Introduction
Tableau de données: (Variable × Variable)

Dons ce cas, on cherche à croiser deux variables X et Y d’une


population en dénombrant l’effectif correspondant à la conjonction
«variable 1» et «variable 2», on parle de tableau de contingence:

X\Y y1 ... yj ... yK


x1 n11 ... n1j ... n1K
. . ... . ... .
. . ... . ... .
. . ... . ... .
xi ni1 ... nij ... niK
. . ... . ... .
. . ... . ... .
. . ... . ... .
xL nL1 ... nLj ... nLK

6 / 59
Analyse en Composante Principales ACP

7 / 59
ACP

• Analyse en composante principale ACP est une technique des


statistiques descriptives destinée à l’analyse des données
multidimensionnelles.
• Analyse en composante principale permet d’explorer les liaisons
entre variables et les ressemblances entre individus.

8 / 59
ACP

Objectifs:

• L’ACP permet de réduire la dimension de l’espace des variables


avec le minimum de perte d’information.
• Visualiser le positionnement des individus les uns par rapport aux
autres (ressemblance) ⇒ Notion de distance entre individus.
• Visualiser les corrélations entre les variables.
• Donner une interprétation aux facteurs.

9 / 59
ACP

Les données:

Les données pour l’ACP sont généralement présentées sous la forme


du tableau précédemment vu (pages 4 et 5):
 
x11 · · · x1j · · · x1p
 .. .. 
 . . 
 
X =  xi1 · · · xij · · · xip 


 .. .. 
 . . 
xn1 · · · xnj · · · xnp
• Les variables X1 , ..., Xp sont supposées quantitatives.
• xij est la valeur de la variable Xj pour l’individu Ii .
• n désigne le nombre d’individus (observations) et p le nombre de
variables.

10 / 59
ACP
Exemple du tableau des données pour ACP:

On considère les notes (de 0 à 20) obtenues par neuf étudiants dans
cinq matières: Mathématiques, Statistique, Français, Anglais et
Musique.

Etudiant Math Stat Fran Angl Musique


I1 6 6 5 5,5 8
I2 4,5 5 7 7 14
I3 6 7 11 9,5 11
I4 14,5 14,5 15,5 15 5
I5 14 14 12 12,5 6
I6 16 15 5,5 5 7
I7 5,5 7 14 11,5 10
I8 13 12,5 8,5 9,5 12
I9 6 8,5 13,5 13 18

11 / 59
ACP
Matrice des poids:

On affecte à chaque individu Ii un poids pi reflétant P


son importance
par rapport aux autres individus, avec 0 < pi < 1 et ni=1 pi = 1.
On appelle matrice des poids la matrice diagonale d’ordre (n × n)
dont les éléments diagonaux sont les poids pi , i = 1, .., n
 
p1 · · · 0
D = diag(p1 , ..., pn ) =  ... . . . ... 
 

0 · · · pn
Le cas le plus fréquent est de considérer que tous les individus ont la
même importance c-à-d : pi = n1
Le vecteur G des moyennes arithmétiques de chaque variable
0
G = (x1 , x2 , ..., xp ) définit le point moyen, ou centre de gravité du
nuage.
On a G = X 0 D1n où 1n désigne le vecteur de Rn dont toutes les
composantes sont égales à 1.
12 / 59
ACP

Matrice des poids:

De la même manière, on peut définir la matrice des poids pour les


variables, en affectant à chaque variable Xj un poids mi reflétant son
importance par rapport aux autres. Ainsi, la matrice des poids pour les
variable est donnée comme suit::
 
m1 · · · 0
M = diag(m1 , ..., mp ) =  ... .. .. 

. . 
0 ··· mp
Le cas le plus fréquent est de considérer que tous les variables ont la
même importance c-à-d : mi = p1

13 / 59
Notion de ressemblance: Critère de la distance Euclidienne

Définition 0.1
Deux individus se ressemblent s’ils possèdent des valeurs proches
pour l’ensemble des variables.

Donc on parle d’une notion de proximité qui se traduit par une


distance.
Ainsi, nous définissons la distance euclidienne entre deux individus Ii
et Ij par :
p
X
d2 (Ii , Ij ) = (xik − xjk )2
k=1
Remarque:
Dans le cas où les différentes variables n’ont pas la même importance
(c-à-d le poids mk 6= p1 ), la distance entre deux individus Ii et Ij
devient :
Xp
2
d (Ii , Ij ) = mk (xik − xjk )2
k=1
14 / 59
Notion de ressemblance: Critère de la distance Euclidienne

Par exemple, dans le plan, la distance euclidienne entre deux points A


et B est donnée par:

15 / 59
Liaison entre les variables:

Définition 0.2
Deux variables sont liées si elles ont un fort coefficient de corrélation
linéaire.
Le coefficient de corrélation linéaire entre deux variables Xk et Xj est
donné par :

n   
Cov(Xj , Xk ) 1X xij − xj xik − xk
Corr(Xj , Xk ) = =
Sj Sk n Sj Sk
i=1
Remarque:
Dans certains cas il est intéressant de pondérer différemment chaque
individu Ii par un poids pi , ainsi le coefficient de corrélation devient :
n   
X xij − xj xik − xk
Corr(Xj , Xk ) = pi
Sj Sk
i=1
Avec Sj est l’écart-type de la variable Xj et Sk est l’écart-type de la
variable Xk 16 / 59
ACP

Transformation des données (Problèmes des unités de mesure) :

Parfois, les variables contenues dans le tableau X peuvent être


exprimées en différentes unités (cm, kg...)
⇒ Pour neutraliser ce problème des unités on remplace les données
d’origine X1 , ..., Xp par les données centrées-réduites. Ainsi chaque
variables Xj , j = 1, ..., p est remplacée par:

Xj − xj
Xj? =
Sj
avec xj et Sj sont respectivement la moyenne empirique et
l’écart-type de la variable Xj .

17 / 59
ACP

Tableau centré-réduit:

X1? ... Xj? ... Xp?


I1 .
. .
. .
. .
xij −xj
Ii . ... Sj ... .
. .
. .
. .
In .

18 / 59
ACP

Tableau centré-réduit:

. ··· . ··· .
 
.. .. .. 
. . . 
? ?
 xij −xj 
. · · ·
X = (X1 , ..., Xp ) =  Sj ··· .  
. .. .. 
.. . . 
. ··· . ··· .

19 / 59
ACP

Matrice de Covariance:

La matrice de covariance associée au tableau X est donnée par:

 
V ar(X1 ) Cov(X1 , X2 ) · · · Cov(X1 , Xp )
Cov(X1 , X2 ) V ar(X2 ) ··· . 
V =
 
.. .. .. .. 
 . . . . 
Cov(X1 , Xp ) ··· ··· V ar(Xp )

et on a:
0 0
V = X DX − GG

20 / 59
ACP

Matrice de Covariance:

Dans le cas où le tableau X est centré-réduit, la matrice de covariance


devient:

 
1 Cov(X1 , X2 ) · · · Cov(X1 , Xp )
Cov(X1 , X2 ) 1 ··· . 
V =
 
.. .. .. .. 
 . . . . 
Cov(X1 , Xp ) ··· ··· 1

Dans ce cas, on a:
0
V = X DX

21 / 59
ACP

Matrice de Corrélation:

La matrice de corrélation associée au tableau X est donnée par:

 
1 Cor(X1 , X2 ) · · · Cor(X1 , Xp )
Cor(X1 , X2 ) 1 ··· . 
R=
 
.. .. .. .. 
 . . . . 
Cor(X1 , Xp ) ··· ··· 1

Si on pose D 1 = diag( S11 , ..., S1p ), alors


S

R = D1V D1
S S

Où Sj est l’écart-type de la variable Xj . Remarquons que Sj = 1 si le


tableau X est centré-réduit.

22 / 59
ACP
Inertie totale:

• On appelle inertie la quantité d’information contenue dans un


tableau de données.
• Une inertie nulle signifie que tous les individus sont presque
identiques.
• L’inertie mesure la dispersion totale du nuage du points.
• L’inertie est la somme pondérée des carrés des distances des
individus au centre de gravité G.
n
X
IG = pi d2 (Ii , G)
i=1

n
X
Si pi = 1
n alors IG = 1
n d2 (Ii , G)
i=1
23 / 59
ACP

Inertie totale:

L’inertie est aussi égale à la somme des variances des variables


étudiées:
p
X p
X
IG = V ar(Xj ) = Sj2 = T race(V )
j=1 j=1

Dans le cas où X est centré-réduit on a:

IG = T race(V ) = p

24 / 59
ACP

Nuages de points:

Dans l’ACP, on peut définir deux types de nuages de points:

1) Nuage des individus NI

2) Nuage des variables Nv

Dans la suite, on suppose que le tableau des données X est


centré-réduit.
C-à-d xj = 0 et V ar(Xj ) = 1 pour j = 1, ..., p

25 / 59
Nuage des individus NI

26 / 59
Nuage des individus NI
Chaque individu Ii , i ∈ {1, 2, ..., n} est un élément de Rp

Figure 1: Nuage des individus NI dans Rp

27 / 59
Nuage des individus NI

Ajustement du nuage des individus sur une droite U1 :

Figure 2: Ajustement du Nuage des individus NI

28 / 59
Nuage des individus NI

Ajustement du nuage des individus sur une droite U1 :


Objectif :
On cherche l’axe u1 passant le mieux possible au milieu du nuage NI :
c-à-d on cherche à trouver u1 tel que l’inertie du nuage NI projeté sur
u1 soit maximum ,
n
1X
OHi2
n
i=1

Ce qui revient à minimiser:


n
1X 2
I(NI , u1 ) = d (Ii , Hi )
n
i=1

u1 ⇒ Axe d’inertie maximum.

29 / 59
On a :
d2 (O, Ii ) = d2 (O, Hi ) + d2 (Hi , Ii )
On déduit:
n n n
1X 2 1X 2 1X 2
d (O, Ii ) = d (O, Hi ) + d (Hi , Ii )
n n n
i=1 i=1 i=1

Inertie totale = Inertie expliquée par U1 + Inertie résiduelle


(Maximiser) (Minimiser)

30 / 59
Ajustement du nuage des individus sur un plan P :

Objectif:
Pn 2
Trouver un plan P tel que i=1 OHi soit maximum.
Avec u1 ⊥ u2
P ⇒ Plan d’inertie maximum.
31 / 59
Cas général: Ajustement du nuage des individus sur un éspace
FK de dimension K:

Objectif:
Trouver une suite d’axes {us , s = 1, ..., K} orthogonaux d’inertie
maximum.
Avec us est un vecteur unitaire de l’axe de rang s.
Soit His la projection de Ii sur us
Donc on cherche us tel que ni=1 (OHis )2 soit maximum.
P

Avec la contrainte ut ⊥ us pour t < s


Solution:
us est vecteur propre unitaire de la matrice de corrélation R associé à
la valeur propre λs de rang s .

32 / 59
Définition 0.3
Les K axes factoriels {us , s = 1, ..., K} sont appelées les facteurs
principaux.

33 / 59
Exemple:
Pour K = 1 ⇒ Ajustement du nuage sur une droite F1 = U1
Dans ce cas, on a:
• L’axe U1 passe par le centre de gravité G = O du nuage de points
NI .
• L’axe U1 est engendré par le vecteur normé u1 , vecteur propre de la
matrice des corrélations R associé à la plus grande valeur propre λ1 .
• L’inertie expliquée par l’axe U1 est égal à λ1 .
• La part d’inertie expliquée par le premier axe principal U1 est égal à
λ1
p .
Remarquons que p est aussi égal à la somme des valeurs propes de la
matrice de corrélation R.

34 / 59
Pour K = 2 ⇒ Ajustement du nuage sur un plan
F2 = P = (U1 × U2 )

• U1 et U2 forment le même plan P


• U2 perpendiculaire à U1
• Le deuxième axe principal U2 passe par le centre de gravité G = O
du nuage de points et engendré par le vecteur normé u2 , vecteur
propre de la matrice des corrélations R associé à la deuxième plus
grande valeur propre λ2 .
• U2 est centrée, de variance λ2 , et non corrélée avec U1 .
• L’inertie expliquée par l’axe U2 est égal à λ2 .
• L’inertie expliquée par le plan P = (U1 × U2 ) est égal à λ1 + λ2
• La part d’inertie expliquée par le plan P = (U1 × U2 ) est égal à
λ1 +λ2
p .

35 / 59
Nuage des variables Nv

36 / 59
Nuage des variables Nv
On peut envisager le problème de la représentation des variables de
façon complètement symétrique de celui des individus.
Ainsi, chaque variable Xj , j ∈ {1, 2, ..., p} est un élément de Rn .
La représentation du nuage Nv des variables se situe dans un espace à
n dimensions, chaque dimension représentant un individu de la
population totale.

Figure 3: Nuage des variables Nv dans Rn


37 / 59
Nuage des variables Nv

Le fait que:
• Les données sont centrées ⇒ Cor(Xj , Xk ) = cos(θkj )
• Les données sont centrées réduites ⇒ ||Xj || = 1

38 / 59
Nuage des variables Nv
Ajustement du nuage des variables Nv :
On cherche ici à obtenir des variables synthétiques {vs , s = 1, ..., K}
et une représentation approchée des corrélations entre les variables.

39 / 59
Nuage des variables Nv
Soitent:
vs un vecteur unitaire de la direction de rang s
Xj représentation de la variable Xj dans Rn
Hjs la projection de Xj sur vs
Pp s 2
L’objectif est de trouver le vecteur vs tel que: j=1 (OHj ) soit
maximum.
avec la contrainte vl ⊥ vs pour l < s
Et on a:
p
X p
X p
X
(OHjs )2 = (cos(θks ))2 = Cor(Xj , vs )2
j=1 j=1 j=1

La coordonnée d’une variable initiale Xj sur vs est son coefficient de


corrélation avec vs
40 / 59
Nuage des variables Nv

Le vecteur vs définit une nouvelle variable qui est la combinaison


linéaire la plus liée à l’ensemble des variables initiales du tableau X.
Ainsi les K vecteurs {vs , s = 1, ..., K} étant orthogonaux deux à
deux, les K nouvelles variables correspondantes sont non corrélées
entre elles.

Définition 0.4
Les K nouvelles variables (axes factoriels) {vs , s = 1, ..., K} sont
appelées les composantes principales.

Remarque:
La variance d’une composante principale est égale à l’inertie portée
par l’axe principale qui lui est associé.

41 / 59
Remarques:

On suppose toujours que le tableau X est centré-réduit, on a:


• Les vecteurs {us , s = 1, ..., p} sont des vecteurs propres de la
matricePde corrélation R associés aux p valeurs propres {λ1 , ..., λp },
et on a ps=1 λs = p = nombre des variables Xj
• Les K vecteurs propres {u1 , ..., uK } correspondant aussi aux K
0
plus grandes valeurs propres {λu1 , ..., λuK } de la matrice X X.
• Les K vecteurs propres {v1 , ..., vK } correspondant aux K plus
0
grandes valeurs propres {λv1 , ..., λvK } de la matrice XX .
0
• Les K (avec K ≤ p) premiers valeurs propres des matrices X X et
0
XX sont les mêmes, c-à-d λu1 = λv1 , ..., λuK = λvK .
λus λvs
• λs = n−1 = n−1 , s = 1, ..., K
(le dénominateur peut être égal à n-1 ou n (voir TP))

42 / 59
Représentation simultanée

43 / 59
Représentation simultanée

Relation entre les axes d’inertie et les facteurs des deux nuages:

Dans la suite on montre les relations de transition entre les


ajustements dans les deux espaces.
On note que:
0 0
λUs = us X Xus l’inertie le long de l’axe Us .
0 0
λVs = vs XX vs l’inertie le long de l’axe Vs .
Fs = Xus le facteur d’ordre s de NI .
0
Gs = X vs le facteur d’ordre s de Nv .
Fs est donc le vecteur issu de la projection du nuage NI sur le s-ème
axe dans Rp .
De même Gs est le vecteur issu de la projection du nuage Nv sur le
s-ème axe dans Rn .
44 / 59
Représentation simultanée

Proposition 0.5
L’inertie le long de l’axe Us (c-à-d λUs ) est égale à l’inertie le long
0
de l’axe Vs (c-à-d λVs ) nous la notons dans suite par λs .
Les formules de transition entre les deux espaces Rp et Rn sont
données par les relations suivantes :

 vs = √Fs 0
λs
 us = √Gs0
λs

45 / 59
Représentation simultanée

Proposition 0.6
Les relations de transitions entre les facteurs s’écrivent :

X p

√1
 Fs (i) = λ0s xij Gs (j)



j=1
n
X
 1

G
 s
 (j) = √ xij Fs (i)
λ0s

i=1

Cette proposition montre que les facteurs des deux nuages doivent
s’interpréter conjointement. Donc on cherche à analyser
simultanément le nuage NI et le nuage Nv .

46 / 59
Représentation simultanée

47 / 59
Choix de nombre d’axe
Le but de l’ACP étant d’obtenir une représentation des individus dans
un espace de dimension plus faible que p, la question se pose
d’apprécier la perte d’information subie et de savoir combien de
facteurs à retenir.
Pour choisir le nombre d’axe à retenir, on utilise les critères suivant:
• Critère de Kaisser:
On ne retient que les axes dont l’inertie est supérieur à 1 ( inertie
moyenne)
• Critère du coude:
Sur l’éboulis des valeurs propres, on observe un décrochement
(coude) suivi d’une décroissance régulière. On sélectionne les axes
avant le décrochement.
• Pourcentage d’inertie:
Le pourcentage d’information expliqué par les axes doit être
suffisamment grand (par exemple supérieur à 60-70%)
48 / 59
Choix de nombre d’axe
Éboulis des valeurs propres:

49 / 59
Qualité de représentation

Qualité de représentation d’un individu Ii par un axe s:

La qualité de représentation d’un individu Ii par l’axe s est donnée


par le rapport de l’inertie de la projection de l’individu Ii sur l’axe s
et de l’inertie totale de l’individu Ii :

(OHis )2
QLTs (Ii ) = = cos2 (θ) (1)
(OIi )2
Où θ est l’angle entre OIi et l’axe s.
Ainsi si QLTs (Ii ) est proche de 1, alors Ii est proche de l’axe s et
donc du plan de projection contenant l’axe s.

50 / 59
Qualité de représentation

Qualité de représentation d’une variable Xj par un axe s:

La qualité de représentation d’une variable Xj par l’axe s est donnée


par le rapport de l’inertie de la projection de la variable Xj sur l’axe s
et de l’inertie totale de la variable Xj :

(OHjs )2
QLTs (Xj ) = = cos2 (θ) = cor(Xj , vs )2 (2)
(OXj )2
Où θ est l’angle entre OXj et l’axe s.

Si QLTs (Xj ) est proche de 1, alors la variable Xj est bien


représentée sur l’axe s.
Si QLTs (Xj ) est proche de 0, alors la variable Xj est mal représentée
sur l’axe s.

51 / 59
Qualité de représentation

Qualité de représentation du nuage des indivivus NI par un axe s:

Cette qualité est donnée par le pourcentage d’inertie associé à un axe


s, c’est-à-dire le rapport de l’inertie de la projection du nuage NI sur
l’axe s et de l’inertie totale du nuage :
Pn
(OHis )2
QLTs (NI ) = Pi=1 n 2
(3)
i=1 (OIi )
Cette qualité mesure l’importance d’un axe factoriel. Bien sûr les
premiers axes auront plus d’importance que les suivants.
Plus cette qualité est proche de 1, plus le nuage de points NI est
concentré autour de l’axe s.

52 / 59
Qualité de représentation

Qualité de représentation du nuage des variables Nv par un axe s:

Cette qualité est donnée par le pourcentage d’inertie associé à un axe


s, c’est-à-dire le rapport de l’inertie de la projection du nuage Nv sur
l’axe s et de l’inertie totale du nuage :
Pp s 2
j=1 (OHj )
QLTs (Nv ) = Pp 2
(4)
j=1 (OXj )

53 / 59
Contribution

Contribution d’un individu Ii à l’inertie d’un axe s:

La contribution d’un individu Ii à l’inertie d’un axe s est donnée par


le rapport de l’inertie de la projection de Ii sur l’axe s et de l’inertie
de la projection de l’ensemble du nuage NI sur l’axe s :

(OHis )2
CTs (Ii ) = Pn s 2 (5)
i=1 (OHi )
La contribution est importante si elle est proche de 1.

54 / 59
Contribution

Contribution d’une variable Xj à l’inertie d’un axe s:

La contribution d’une variable Xj à l’inertie d’un axe s est donnée


par le rapport de l’inertie de la projection de Xj sur l’axe s et de
l’inertie de la projection de l’ensemble du nuage Nv sur l’axe s :

(OHjs )2
CTs (Xj ) = Pp s 2 (6)
j=1 (OHj )

55 / 59
Interprétation
Dans la suite, on va définir quelques règles pour interpréter les
résultats d’une ACP:
• Pour tout k et l tel que k 6= l, la projection du nuage NI sur le plan
principal engendré (uk , ul ) est appelée carte des individus.
• Pour tout k et l tel que k 6= l, la projection du nuage Nv sur le plan
principal engendré par (vk , vl ) est appelée carte des variables.
• Un individu sera du côté des variables pour lesquelles il a de fortes
valeurs, inversement il sera du côté opposé des variables pour
lesquelles il a de faibles valeurs.
• Plus les valeurs d’un individu sont fortes pour une variable plus il
sera éloigné de l’origine suivant l’axe factoriel décrivant le mieux
cette variable.
• Deux individus à une même extrémité d’un axe (c-à-d éloignés de
l’origine) sont proches (se ressemblent).
• Deux variables très corrélées positivement sont du même côté sur
un axe. 56 / 59
Exemple

Etudiant Math Stat Fran Angl Musique


I1 6 6 5 5,5 8
I2 4,5 5 7 7 14
I3 6 7 11 9,5 11
I4 14,5 14,5 15,5 15 5
I5 14 14 12 12,5 6
I6 16 15 5,5 5 7
I7 5,5 7 14 11,5 10
I8 13 12,5 8,5 9,5 12
I9 6 8,5 13,5 13 18

57 / 59
Exemple
Carte des variables:

58 / 59
Exemple
Carte des individus:

59 / 59

Vous aimerez peut-être aussi