Cours
Cours
Vincent Tolon
03 février 2023
Contents
1 Contexte 2
1.1 Quand utiliser l’ANOVA 2 ? . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 2
1.2 Facteurs, modalités, traitements, répétitions . . . . . . . . . . . . . . . . . . . . . . . . 2
1.3 Effets additifs . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 3
1.4 Interactions . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 3
2 Modélisation 5
2.1 Notion de modèle . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 5
2.2 Le modèle d’ANOVA 1 . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 5
2.3 Le modèle d’ANOVA 2 . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 5
3 Le test d’ANOVA 2 7
3.1 Hypothèses . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 7
3.2 Décomposition des SCE . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 7
3.3 Le tableau d’ANOVA . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 8
4 Validation interne 10
4.1 Les résidus . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 10
4.2 Les hypothèses . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 10
4.3 Diagnostique complet . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 10
4.4 Exemple . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 11
7 La conclusion 13
1
Nous vous présentons ici l’analyse de variance à deux facteurs (ANOVA 2). Elle s’utilise pour mesurer les
effets simultanés de deux variables qualitatives (facteurs) sur une variable réponse quantitative. Ces
effets peuvent être additifs lorsqu’ils s’ajoutent de façon indépendante, ou interactifs lorsque l’effet d’un
facteur dépendent du niveau de l’autre.
1 Contexte
1.1 Quand utiliser l’ANOVA 2 ?
• Avec 1 Facteur : ANOVA 1 = comparaisons de moyennes multiples.
• Avec 2 Facteurs et plus : ANOVA 2 = différentiation des effets des facteurs A et B.
– Effet de A ?
– Effet de B ?
– Interactions A et B ?
• Nous découvrons donc les notions d’effets additifs et interactifs.
Facteurs A1 A2 A3
B1 xxxxxx xxxxxx xxxxxx
B2 xxxxxx xxxxxx xxxxxx
2
• Exemple de contexte :
– Une variable réponse y.
– Facteur A : 2 modalités.
– Facteur B : 2 modalités.
– Donc 2 × 2 = 4 traitements.
– 3 répétitions soit N = 12.
62 yA2B2
60 Effet de B
58
yA2B1
y
56
yA1B2
54
Effet de B Effet de A
52
50 yA1B1
A1 A2
On peut voir ici un effet de A, puis un effet de B qui se répercute de manière identique au sein de A1 et A2
(Fig. 1). Nous aurions pu aussi construire avec les mêmes données un graphique représentant d’abord l’effet
de B puis l’effet de A au sein de B.
1.4 Interactions
On parle d’interaction lorsque l’effet d’un facteur dépend du niveau de l’autre. En reprenant notre exemple
on pourrait imaginer que l’effet de l’engrais sera inexistant pour la plante ayant déjà une croissance rapide
(elle trouve déjà tout ce qu’il lui faut) alors que l’engrais influencera fortement la plante à croissance lente qui
ne pourra atteindre son maximum de croissance qu’en cas de fertilisation. En reprenant les calculs précédant
et en ajoutant un terme (en gras) nous obtiendrions :
3
• plante à croissance rapide avec engrais: 50cm = 40+10+10-10.
• plante à croissance rapide sans engrais: 50cm = 40+10-10+10.
• plante à croissance lente avec engrais: 50cm = 40-10+10+10.
• plante à croissance lente sans engrais: 10cm = 40-10-10-10.
Graphiquement en cas d’effets interactifs nous obtenons pour un facteur des profils de moyennes qui ne sont
pas identiques (croisements, inversions, accentuations. . . ) suivant les niveaux de l’autre facteur (Fig. 2,
graphique ne correspondant pas à l’exemple ci-dessus). Notons que dans ce graphique les interactions ont
été rassemblées d’un seul coté en prenant le niveau A1B1 comme référence (voir cours sur le modèle linéaire).
Nous pouvons voir tous les cas de figure possible dans la Figure 3.
75 yA2B2
Interaction AB
70
65
60 Effet de B
yA2B1
55 yA1B2
Effet de B Effet de A
50 yA1B1
A1 A2
80 100
80 100
80 100
A B AB A* B AB A B* AB A* B* AB
B3
B1B2B3 B3 B3 B2
60
60
60
60
y y y y
B1B2B3 B1B2B3 B2 B2 B1
y
B3
40
40
40
40
B1B2B3 B1 B1 B2
B1
20
20
20
20
A1 A2 A1 A2 A1 A2 A1 A2
80 100
80 100
80 100
80 100
x x x x
A* B AB* A B* AB* A* B* AB* A B AB*
B2 B2B3
B3 B3 B2B3 B1 B2
60
60
60
60
y y y y
B1 B1 B1
y
B3 B3 B3
40
40
40
40
B3 B2 B1 B1 B2 B1
B2 B1 B2
20
20
20
20
A1 A2 A1 A2 A1 A2 A1 A2
x x x x
Figure 3: Exemples d’effets additifs et/ou interactifs
4
2 Modélisation
Nous allons découvrir la notion de modèle qui nous permettra de clarifier notre raisonnement, réaliser
l’ANOVA 2 et, plus tard, étendre cette approche sur des analyses plus diversifiées encore.
10
8
µ
6
αi
4 yi µ εij yij = µ + αi + εij
2 yij
A B C
Chaque valeur correspond donc à l’addition de l’espérance générale µ de l’effet du facteur αi et du résidu
qui lui est associé εij (j étant ici la répétition, Fig. 4).
5
75 yijk = µ + αi + βj + γij + εijk γ22 yA2B2
β2
70
α2
65
60 β2 β1
µ γ21 yA2B1
55 γ21 yA1B2
α1 γ11
50 yA1B1
45 β1
A1 A2
6
yijk = µ + αi + βj + γij + 0 γ22 yA2B2 yijk = µ + αi + βj + εijk yA2B2
75 75
β2 β2
70 70
α2 α2
65 65
60 β2 β1 60 β2 β1
µ γ21 yA2B1 µ yA2B1
55 γ21 yA1B2 55 yA1B2
α1 γ11 α1
50 yA1B1 50 yA1B1
45 β1 45 β1
A1 A2 A1 A2
Figure 6: Visualisation du modèle d’ANOVA2 avec et sans interaction sur données non repetées
• µ = ȳ
• αi = ȳi − µ
• βj = ȳj − µ
• εijk = yijk − (µ + αi + βj ) = yijk − ŷij = différences entre la valeur et la prédiction du modèle sans
l’interaction (soit le ŷij ).
3 Le test d’ANOVA 2
Nous allons ici vérifier si les variations produites par le facteur A, le facteur B et leur interaction, sont
suffisamment grandes pour conclure qu’elles ne proviennent pas seulement de la fluctuation d’échantillonnage.
Cela reviendra donc à décomposer les SCE en isolant les effets additifs de A et B puis l’effet interactif AB, à
estimer des variances à partir des degrés de liberté associés, puis à les comparer à la variance résiduelle avec
un test de Fisher. La notion de modèle nous aidera à calculer de manière simple les SCE.
3.1 Hypothèses
La modélisation permet d’isoler statistiquement les effets des facteurs et de leur interaction grâce aux coef-
ficients αi , βj et γij . Il suffira alors de postuler que leur valeur est nulle pour définir les hypothèses nulles.
On obtient :
• Effet de A :
– H0 : Tous les αi = 0
– H1 : Au moins un αi ̸= 0
• Effet de B :
– H0 : Tous les βj = 0
– H1 : Au moins un βj ̸= 0
• Interaction AB :
– H0 : Tous les γij = 0
– H1 : Au moins un γij ̸= 0
7
d’un terme pour estimer les SCE expliquées par le terme que nous avons retiré. Commençons par retirer
l’interaction :
• Modèle 1 (complet) : yijk = µ + αi + βj + γij + εijk = ŷij1 + εijk1 . Nous pouvons calculer les SCE
expliquées par ce modèle complet en faisant :
p,q
X
SCEM 1 = nij (ŷij1 − µ)2
i,j
• Modèle 2 (réduit, sans l’interaction) : yijk = µ + αi + βj + εijk = ŷij2 + εijk2 . Nous pouvons
calculer les SCE expliquées par ce modèle réduit en faisant :
p,q
X
SCEM 2 = nij (ŷij2 − µ)2
i,j
Graphiquement nous obtenons la Figure 7. Pour obtenir la SCE expliquée par l’interaction AB il suffira
alors de soustraire les deux SCE du modèle complet et du modèle réduit :
Ce calcul fonctionne avec des modèles emboîtés (le “réduit” est contenu dans le “complet”). On peut donc
poursuivre le raisonnement en retirant progressivement les termes et en comparant deux modèles successifs.
3.2.2 Décomposition
Pour estimer les SCE de chaque effet nous construisons une succession de modèles emboîtés, calculons leurs
SCE et soustrayons ces valeurs pour obtenir les SCE des termes retirés :
PN
Avec SCET ot = i,j,k (yijk − ȳ)2 et SCEe = SCET ot − SCEM 1 . Au final tous les SCE s’additionnent pour
donner les SCE totaux :
SCET ot = SCEA + SCEB + SCEAB + SCEe
Notons que la notion de modèles emboîtés permettra aisément l’extension de l’ANOVA à 3, 4, . . . x facteurs
(en ajoutant des termes au modèle complet, puis en les retirant progressivement) tant que les données seront
suffisamment nombreuses et le plan d’expérience suffisamment bien construit.
8
75 yijk = µ + αi + βj + γij + εijk γ22 y 75 yijk = µ + αi + βj + εijk yA2B2
A2B2
β2 β2
70 70
α2 α2
65 65
60 β2 β1 60 β2 β1
µ γ21 yA2B1 µ yA2B1
55 γ21 yA1B2 55 yA1B2
α1γ11 α1
50 yA1B1 50 yA1B1
45 β1 45 β1
A1 A2 A1 A2
IMPORTANT : Nous observons que nous divisons bien tous les CMef f ets par le CMe et c’est ce qui fait
toute l’utilité de l’ANOVA 2. Par exemple, si nous avions réalisé une simple ANOVA 1, le CMA serait le
même qu’en ANOVA 2. En revanche, si B influence effectivement aussi y, le CMe de l’ANOVA 2 sera bien
plus petit que celui de l’ANOVA 1 car nous lui aurons aussi retiré tout l’effet de B et de l’interaction AB.
Le FA de l’ANOVA 2 sera donc bien supérieur à celui de l’ANOVA 1 (il aura donc plus de chances d’être
significativement supérieur à 1). Concrètement cela veut dire que l’on a mesuré l’effet de A en prenant en
compte (ou en retirant) celui de B et de l’interaction, ce qui accroît nos capacités à détecté un effet.
Avec avec les données présentées sur la Figure 7 on obtient :
9
4 Validation interne
4.1 Les résidus
L’ANOVA 2 comme l’ANOVA 1 repose sur une hypothèse forte qui suppose que l’ensemble des résidus suit
une loi Normale de moyenne 0 et d’écart-type σe appelé “écart-type résiduel” :
Afin de faciliter certaines analyses ultérieures nous calculons aussi les “résidus standardisés” ce qui revient
à les diviser par leur propre écart-type. Dans ce cas ces seconds résidus devrons suivre une loi Normale
centrée-réduite :
εijk
εijkSt = ∼ N (0, 1)
σ̂e
Comme en ANOVA 1, cette hypothèse forte implique trois sous-hypothèses qu’il convient d’étudier.
10
Histogram of residuals(lm2)
Residuals vs Fitted Normal Q−Q
200
30
4
22 22
150
25
3
29 39
Standardized residuals
29 39
100
20
2
Frequency
Residuals
50
15
1
0
10
−50
−1
5
−100
−2
0
−1.0 −0.5 0.0 0.5 −2 −1 0 1 2 −150 −50 0 50 100 150 200
Fitted values Theoretical Quantiles residuals(lm2)
4.4 Exemple
shapiro.test(residuals(lm2))
##
## Shapiro-Wilk normality test
##
## data: residuals(lm2)
## W = 0.94547, p-value = 0.001914
bartlett.test(y~traitements)
##
## Bartlett test of homogeneity of variances
##
## data: y by traitements
## Bartlett's K-squared = 57.401, df = 7, p-value = 4.974e-10
Les résidus sur cet exemple ne suivent pas une loi normale (p < 0.0019, test de Shapiro-Wilk). La loi est en
effet très légèrement asymétrique mais nous ne trouvons graphiquement rien de très alarmant (Fig. 8, graph
2 et 3). Il existe néanmoins une forte hétérogénéité de la variance résiduelle (p < 0.0001, test de Bartlett).
La variance est visiblement bien plus forte pour des moyennes basses ou haute, et faible pour les moyennes
intermédiaires (Fig. 8, graph 1). Vu l’ampleur de ce phénomène nous ne validons pas cette hypothèse et
recommandons d’étudier et résoudre ce problème d’hétéroscédasticité (ex: transformation de variable, choix
d’une autre variable, autres modèles) afin de valider l’ANOVA 2.
11
## tA1B1_A2B2 0.000015
## tA2B1_A1B2 0.012136
## tA2B1_A2B2 0.000070
## tA1B2_A2B2 0.000033
Ici avec α = 5% toutes les moyennes semblent différentes (p < 0.05). Rappelons que le α représente le
risque, que nous acceptons, d’être induit en erreur par la fluctuation d’échantillonnage (si nous tombons par
malchance sur deux échantillons très différents alors qu’ils proviennent de la même population).
Mais lorsque l’on multiplie les tests sur les mêmes données un problème apparaît : le risque de conclure qu’au
moins un test sera significatif (le αglobal ) augmente avec le nombre de test (Fig. 9). Réalisons par exemple
100 tests T avec deux moyennes tirées au hasard dans une même loi normale (donc sous H0). Nous observons
plusieurs tests significatifs (en rouge, Fig. 9) alors que nous savons pertinemment que nous sommes sous
H0. . .
Distribution des P.Values (100 simulations)
1.0
10
100
0.8
8
Alpha global
0.6
6
60
Frequency
4
0.4
40
2
20
0.2
0
Nous savons que αglobal = 1−(1−α)Ntest , donc avec nos 6 test nous atteignons 0.265, soit une chance sur 4 de
faire de fausses conclusions avec un α = 0.05 appliqué sur chaque test. Si nous avions bien plus de moyennes
à comparer le nombre de tests exploserait (pour comparer N moyennes on a NT est = NM oy (NM oy − 1)/2)
et le αglobal s’approcherait de 1, Fig. 9).
12
V A − E(V A) mi − mi′
Qcalc = =q
σV A 1 CMe CMe
2 ( ni + n ′ ) i
Avec un test de Student classique (test T), le seuil théorique permettant la comparaison de deux échantillons
de taille 5 sera t0.975,10−2ddl = 2.306. Nous savons néanmoins qu’il sera trop faible et laissera le αglobal
augmenter avec le nombre de test.
Le test de tukey utilisera alors la loi des étendues studentisés qui fournira un seuil plus élevé à mesure que
le nombre de groupe à comparer augmentera. Avec 5 moyennes de taille 5 on obtiendra Q0.975;k=5;25−5ddl =
4.699. Notons que l’on se base sur les ddl résiduels de l’ANOVA et non sur les ddl d’une simple comparaison
par test T. Nous aurons ainsi moins de risque de conclure à tort à une différence et le test mettra en évidence
des différences significatives sans faire croître le αglobal .
7 La conclusion
Comme en ANOVA1 nous aurons plusieurs résultats, chacun répondant à des sous-questions différentes :
• Les graphiques ou tableaux synthétiques : à quoi ressemblent précisément les données et la
relation entre y et les facteurs ? Les effets semblent-ils additifs, interactifs ou les deux ? Dans quel
sens ces effets se produisent et sous quelle forme si interaction ? Quel est l’effet en apparence le plus
fort ?
• La P-value : ces effets peuvent-t-ils provenir du hasard ?
• Les groupes de moyennes : peut-on synthétiser nos résultats en faisant des groupes de moyennes
cohérents ? Est-ce utile ?
• Les tailles d’effets : quelle est la force de ces effets et est-elle intéressante dans notre contexte ?
• L’étude des résidus : sommes nous dans de bonnes conditions pour interpréter ces résultats ou existe-
t-il des propriétés particulières à nos données qui demanderaient de nouvelles méthodes d’analyse ?
La nouveauté sera donc la notion d’effet additif/interactif puis les regroupements de moyennes.
13